O I n f o r m a c i j i : informacija u teoriji

Prosinac 22, 2016

Matematičko-statistička teorija informacije (Matematička teorija komunikacije C. E. Shannona): uvod

CLAUDE E. SHANNON: The mathemtical theory of communication (1948)

Koliko nas, koji dolazimo izvan prirodnih i tehničkih znanosti a koji danas pišemo o informaciji nastojeći proniknuti u njenu prirodu, razumijemo Shannonov u načelu matematički rad? Vjerujem da nas je vrlo malo. Ako smo u tome i umješni poput Paula Cantora (Cantor 2009), teško da bi se složili s postavkom kako nam jednadžbe prijenosa diskretnih i kontinuiranih signala mogu pomoći da dođemo do široko prihvaćenje definicije informacijskog fenomena u svim područjima znanosti. Većina profesora iz informacijskih znanosti ipak Shannonov rad navode u literaturi uz bitnu opasku – samo Uvod, odnosno od 31 do 35 str. rada. Zašto? Zato što pretpostavljaju da se nakon famozne 35. stranice nalazi štivo isključivo za inženjere telekomunikacija, a ne informacijske stručnjake… Ali zašto u svoje nastavno gradivo uopće uključuju i prve četiri stranice rada? Zato što je u njima predstavljen komunikacijski model koji je predložen da bude validan model za sve komunikacijske situacije, između ostalih i one u informacijskim ustanovama poput knjižnica, muzeja, arhiva…

Inicijalnu ‘informacijsku teoriju’ ili ‘teoriju informacija’ mnogi istraživači prepoznaju u radu matematičara Clauda Elwooda Shannona naziva A mathematical theory of communication koji datira davne 1948 (Shannon 1948). Međutim, dok je pisao svoj rad, Shannon nije mislio da stvara teoriju informacije. Zabavljen problemima optimalnog prijenosa signala između dvije točke telekomunikacijskog voda, dakle, baveći se izričito problemom komunikacije što je ostavilo traga i na naslovu njegova rada, ni na kraj mu pameti nije bilo stvoriti univerzalni obrazac po kojemu se primaju i odašilju informacije. Pojam informacije rabio je u svom uskom, inženjerskom kontekstu [Proces stjecanja znanja kao problem informacijskih znanosti, Bosančić, 2016].

Uključivši u postojeću Hartleyevu teoriju (Hartley 1928) nekoliko novih čimbenika, a ponajprije se to odnosi na efekt šuma u kanalu, kao i mogućnost uštede u prijenosu količine informacija zbog statističke strukture originalne poruke i prirode krajnjeg odredišta informacije Shannon je napisao:

Osnovni komunikacijski problem svodi se na točno reproduciranje odabrane poruke odaslane s jednoga na drugo mjesto [u prostoru]. Uobičajeno, poruka ima značenje; to ujedno znači da je poruka [uvijek] u nekom odnosu ili pak da upućuje na sustav s odgovarajućim fizičkim ili konceptualnim entitetima. [Međutim], navedeni semantički aspekti su irelevantni za inženjerski problem. Značajno je [jedino] to što je aktualna poruka jedna iz skupa mogućih poruka. Sustav mora biti  konstruiran tako da može operirati sa svakim mogućim odabirom… Ako je broj poruka u skupu konačan, onda se taj broj… može smatrati mjerom informacije koja je proizvedena u trenu kad je iz skupa s jednakom vjerojatnošću odabira odabrana jedna poruka. Kao što je istakao Hartley, najprirodniji izbor [za opis ovog procesa] je logaritamska funkcija. [The mathematical theory of communication, Introduction, Shannon & Weaver, 31-35.]

Odabir logaritamske baze korespondira s odabirom jedinice za mjerenje količine informacija. Ako se rabi logaritamska baza 2 onda se rezultirajuća jedinica može nazvati binarni digits ili kraće bits, riječ koju je Shannonu sugerirao J. W. Tukey.

Na osnovi iznesenoga, može se zaključiti da je matematička komunikacijska teorija C. E. Shannona posredno dovela do jednog važnog pitanja: ako se količina informacija s jednog uređaja na drugi prenosi prema određenim matematičkim pravilnostima, mogu li se te pravilnosti poopćiti i vrijediti za bilo koju situaciju slanja informacije, pa čak i onu u kojoj je čovjek pošiljatelj i/ili primatelj informacije?

[Shannonov] kolega Warren Weaver nagovorio ga je da vlastiti okvir usmjeren na rješavanje inženjerskih problema proširi na ostala područja. Sâm se potrudio napisati poseban članak u kojem je predložio da se Shannonov komunikacijski model, namijenjen telekomunikacijskim inženjerima, može promatrati kao opći komunikacijski model prijenosa informacija (Shannon and Weaver, 1963/49). Možda bi ovakva interpretacija Shannonove teorije stekla više pobornika da se u cijelu priču nije upetljalo značenje, na neki način ‘pojmovna svojina’ istraživača iz društvenih i humanističkih znanosti. Naime, u Shannonovoj teoriji značenje nije igralo nikakvu ulogu. Štoviše, sâm Shannon je naglasio da je irelevantno za cijelu priču (Shannon i Weaver 1963/49). Mogućnost da se jedna teorija informacija utemelji na nečemu što nije uključivalo značenje odmah je pobudilo sumnju istraživača iz društvenih i humanističkih znanosti. Mnogi od njih bili su uvjereni da je Weaver bio u krivu; velika većina je to i danas [Proces stjecanja znanja kao problem informacijskih znanosti, Bosančić, 2016].

Pod komunikacijskim sustavom, napisao je Shannon, mislimo na sustav predstavljen na Slici 1. On se sastoji od pet dijelova:

  1. Informacijskog izvora koji proizvodi poruke ili nizove poruka… Poruke mogu biti različite vrste: niz slova kao u telegrafiji, … intenzitet svjetlosti u [proizvoljnoj] točki (x,y)…
    Odašiljača (engl. transmitter) koji pretvara poruku u signal pogodan za prijenos kroz kanal… [Na primjer] u telegrafiji postoji operacija enkodiranja poruka u točke, crte i praznine…
    3. Kanala koji predstavlja medij za prijenos poruke… Može biti riječ o paru žica, koaksijalnom kablu… ili snopu svjetlosti itd. Za vrijeme prijenosa signal može biti ometen (deformiran) šumom (engl. noise).
    4. Primatelja koji uobičajeno obavlja inverznu operaciju u odnosu na odašiljača poruke, rekonstruiranje poruke iz signala.
    5. Odredište [poruke] je osoba (ili stvar) kojima je poruka bila namijenjena.
    [The mathematical theory of communication, Introduction, Shannon & Weaver, 31-35.]

 

Slika 1 – Shematski dijagram općeg komunikacijskog sustava.

Možemo [sada] izvršiti grubu podjelu komunikacijskih sustava na… diskretne, kontunuirane (engl. continuous) i kombinirane (engl. mixed). Diskretni sustav je takav sustav u kojemu su i poruka i signal predstavljeni sekvencom, nizom diskretnih simbola. Tipičan primjer nalazimo u telegrafiji gdje je poruka predstavljena nizom slova, a signal nizom točaka, crtica i praznina koji reprezentiraju ta slova.

Razvoj informacijske teorije na tragu rada C. E. Shannona danas se odvija pod kapom IEEE Information Theory Society, zasebne IEEE zajednice posvećene viziji razvoja „the mathematical underpinnings of information technology for the benefit of humanity“. Područja interesa IEEE ITS-a obuhvaćaju procesuiranje, transmisiju, pohranu i korištenje informacija i tiču se zapravo šireg područja općenito kodiranja informacija, a to znači onih komponenti komunikacijskog modela koji se odnose na procese kodiranja, prijenosa i dekodiranja signala. IEEE ITS, baš kao i C. E. Shannon, davne 1948., pitanje značenja kodiranih, prenesenih i dekodiranih informacija ne smatra predmetom svoga istraživanja. Pa ipak, premda se pitanje značenja prenesene poruke čini irelevantnim u Shannonovoj teoriji s obzirom na činjenicu da jedan signal (i doslovno jedna jedinica ili nula) mogu značiti da se kanalom prenosi cijela Biblija ili samo jedno obično ‘DA’, neki su istraživači primijetili da se ne može tako lako zaobići barem pitanje značenja kodirane informacije.

LITERATURA

  1. Bosančić, B. (2016), Proces stjecanja znanja kao problem informacijskih znanosti, Libellarium, Vol. 9 No. 1, 31-58.
  2. Cantor, P. (2009), “Information theory”, in Bates, M.J. and Maack, M.N. (Eds.), 3rd ed., Encyclopedia of Librarian and Information Sciences, CRC Press, pp. 2717-2726.
  3. Hartley, R.V.L. (1928), “Transmission of information”, Bell System Technical Journal, Vol. 7, pp. 335-363.
  4. Shannon, C. E., and Weaver, W. (1964), The mathematical theory of communication, University of Illinois Press, Urbana.
Oglasi

Svibanj 25, 2015

Maxwellov demon i informacija

CLAUDE E. SHANNON & WARREN WEAVER: The Mathematical Theory of Communication (1949)
JAMES GLEICK: Information: A History, a Theory, a Flood (2011) / Entropy and Its Demons

Fizičar James Clerk Maxwell osmislio je sljedeći misaoni eksperiment: iznad pregrade kutije s plinom zamislio je inteligentno biće, dovoljno malo da uoči koja mu molekula dolazi u susret (topla ili hladna) i odluči hoće li je pustiti u drugu stranu ili ne. Ubrzo je to zamišljeno biće dobilo naziv Maxwellov demon, a predmnijevamo i zbog čega: zbog svoje ‘demonske uloge’ u kršenju Drugog zakona termodinamike! Naime, svojim odlukama koju će molekulu pustiti a koju ne, biće bi bilo u prilici izravno utjecati na rast entropije zatvorenog sustava; još gore, moglo bi, ako bi to htjelo, prouzročiti i one slučajeve u kojima bi se ukupni prirast entropije smanjivao! Svojim inteligentnim uvidom u to koja mu molekula plina pristiže (hladna ili topla) moglo bi namjerno prouzročiti smanjenje entropije cjelokupnog sustava, recimo, ako odluči na drugu stranu kutije puštati samo tople molekule plina. Ipak, u ovoj priči, nas ne zanima toliko kršenje Drugog zakona termodinamike koliko percepcija svijeta tog bića. Evidentno, da bi pustilo (na)dolazeću molekulu na drugu stranu kutije ono najprije mora znati o kakvoj je molekuli riječ (je li topla ili hladna), drugim riječima, mora se o tome informirati…

Međutim, kako informacijsku teoriju tumači Shannonov kolega W. Weaver, informacija se više tiče onoga što uopće o nečemu možemo reći nego što se u nekom trenutku o tome stvarno i reklo. Drugim riječima, za Shannona i Weavera manje je bitan proces saznavanja, važan je samo konačni broj molekula toplog i hladnog plina u kutiji, kao i njihov položaj (jesu li s ove strane pregrade kutije ili s one). Ako je vjerojatnost pojavljivanja tople i hladne molekule plina jednaka, entropija je najveća, a s njome i količina informacija koju demon percipira. Međutim, ako je ta vjerojatnost različita, recimo da se u dijelu kutije iz kojeg demonu nadolaze molekule nalazi topliji plin, onda je za očekivati da će mu daleko češće pristizati toplije molekule od hladnijih (prema Drugom zakonu termodinamike) što je, onda, prema Shannonu, manje informativno. Manju količinu informacija uzrokuje i obrnut slučaj, kada je vjerojatnost pojavljivanja toplih molekula plina mala, jer se u promatranom dijelu kutije nalazi hladnije molekule plina. Upravo, u toj spoznaji najveća je snaga i doprinos znanosti Shannonove teorije.

Međutim, mi se pitamo je li demon svjestan toga da je u desnom dijelu kutije plina više toplih nego hladnih molekula? On to ne može znati. Tek kad cijeli proces završi, kad se molekule toplog i hladnog plina ravnomjerno rasporede po kutiji, drugim riječima, kad se postigne stanje najveće entropije, on može zaključiti da je u samom prijenosu topline sudjelovala tolika i tolika količina informacija, manja ili veća, jer se plin kretao iz manje vjerojatnog stanja u stanje veće vjerojatnosti ili očekivano stanje. S druge strane, Shannon bi isti proces opisao riječima da su se molekule kretale iz stanja manje neizvjesnosti u stanje veće neizvjesnosti. Dakle, može li se zakonitost koja se odnosi na prijenos informacija dovesti u vezu sa zakonitošću koja vlada u prijenosu topline (i koju ‘propisuje’ Drugi zakon termodinamike)? Može – ali u obrnutom shvaćanju/značenju. Iako količinski jednake, entropija i količina informacija u nekom značenjskom smislu potpuno su suprotne. ‘Vjerojatnije’ i ‘neizvjesnije’ naprosto ne mogu imati isti smisao.

Sada se pokušajmo staviti u položaj demona koji upravlja pregradom kutije s plinom. Vrlo brzo ćemo biti primorani napustiti svijet statistike, predviđanja i porinuti natrag u stvarnost. Svaku molekulu koja nam dolazi u susret na osnovi njenog svojstva je li topla ili hladna propustit ćemo (ili nećemo) na drugu stranu. Što bi, dakle, bila informacija za demona koji upravlja pregradom kutije s plinom? Ovdje je važno uočiti da to pitanje više nema nikakve veze sa Shannonovom količinom informacija. Dakle, više ne pitamo nešto vezano uz ‘količinu informacija’, već uz samu informaciju i dolazimo do sljedećeg odgovora: informacija je sadržana u demonovoj percepciji odnosno procesu informiranja; ona je sama ‘supstanca’ njegove percepcije koja defacto postaje njegovo znanje o tome je li se radi o toploj ili hladnoj molekuli plina koja mu dolazi u susret.

Zbog toga B. Greene u svojoj definiciji entropije poseže za izrazom količine skrivenih informacija u sustavu. Kakvo god bilo mikroskopsko stanje sustava i kakva god bila vjerojatnost da će se ono ostvariti – ono sadrži i informaciju, skrivenu informaciju u smislu da entropiji, kao ni Shannonu, nije važan sadržaj te informacije, nego samo njena vjerojatnost pojavljivanja.

Pritom, uočimo da se entropija odnosi samo na prebrojavanje bilo kakvog (iznenadnog) događaja s molekulama u kutiji s plinom, a informacija na razlikovanje tog događaja u kvalitativnom smislu (npr. uočavanje nekog svojstva molekule plina, primjerice, je li topla ili hladna). Shannon je, dakle, svoju ‘teoriju informacija’ temeljio na postavci da se u oba slučaja radi o istom broju…

U slučaju povećanja entropije sustava, očevidno, na djelu je djelovanje jednog zakona u pozadini, Drugog zakona termodinamike. Povećanje entropije sustava izravna je posljedica kretanja molekula u stanje izjednačenih temperatura (tzv. toplinske smrti). Slijedom toga, L. Boltzman samo je pokazao ovisnost ukupne entropije nekog zatvorenog sustava o vjerojatnostima mikroskopskih stanja njegovih sastavnica. Međutim, što bi se, i ako bi, onda, nalazilo u pozadini informacijske teorije? Koji analogan proces? Prema nekom mojemu razmišljanju, to je proces stjecanja znanja o svijetu koji nas okružuje. Čovjek je biće koje teži iz stanja manjeg znanja ili neznanja prijeći u stanje većeg znanja ili najvećeg mogućeg znanja. Paradoks u čovjekovoj težnji, međutim, ogleda se u činjenici da ono što može znati, prisiljen je sâm prethodno definirati (tzv. ‘Shannonov skup mogućnosti’). „Čovjek je mjera svih stvari“, tu duboku istinu dokučili su još Stari Grci. Ako želi ovladati ‘kemijskim znanjem’ o svijetu koji ga okružuje, svijet mora najprije podijeliti na molekule, ako želi imati ‘fizikalno znanje’ o istom, mora ga podijeliti na atome, kvarkove, bozone i druge čestice itd. Po Shannonu, sva moguća stanja molekula i atoma predstavljali bi najsveobuhvatniji unaprijed definiran set mogućnosti iz kojeg bi bilo moguće odabrati i prenijeti, njima analognu, informaciju.

Uočimo, što se tiče kutije s plinom i zamisli Maxwellovog demona možda je manje evidentno, ali nikako nevažno za cijelu priču, da je njome određena najmanja jedinica koja će ulaziti u proračun kako entropije, tako i količine informacija, a to je molekula. U pokusu se zapravo promatra na koje sve načine jedna molekula plina može ‘izgenerirati’ informaciju; dakle, ne generira informaciju svijet kao takav, nego onaj dio svijeta koji smo prethodno ‘uobličili’ u nekakav entitet, u ovom primjeru – u molekulu. Pritom, ne smijemo zaboraviti da se s dovoljno moćnom tehnologijom možemo spustiti još dublje u mikrosvijet te entropiju i količinu informacija računati ‘preko’ atoma. Čovjek je, dakle, taj koji je prisiljen podvući crtu, ‘uobličiti dio stvarnosti’, stvoriti, uvjetno rečeno, podatkovni entitet, s kojim dalje može računati, i na koncu konaca, i uopće bilo što izračunati (prevesti u matematiku). On je taj koji određuje tzv. Shannonov skup mogućnosti (domenu) iz kojeg se generira neka funkcijski odgovarajuća, količina informacija (kodomena).

U pozadini informacijske teorije, dakle, stoji unaprijed definirani skup mogućnosti mikroskopskih stanja sastavnica sustava o kojemu ovisi količina generiranih informacija… Ne možemo izračunati količinu informacija, ako nismo definirali skup svih mogućnosti u kojima se sastavnice jednog sustava mogu naći (toplo-hladno je samo jedan set ukupnog skupa mogućnosti, položaj molekula može biti drugi itd.) Pritom, vrijednosti entropije sustava [S] i količine informacije [H] kao kvantitativne ostaju jednake. Međutim, demon koji se direktno informira i koji barata informacijama, ništa od toga ne može znati. Za njega je informacija ono što pristiže u njegov um. Na neki način, ovo razmatranje je neka vrst priloga daljnjem istraživanju koje bi zakonitostima koje vrijede za procese kodiranja i prijenosa informacija (i koje je postulirao Claude E. Shannon) trebalo pridodati zakonitosti koje bi vrijedile u postupku zaprimanja informacija svjesnog uma za potrebe uvećanja njegova znanja.

Sâm paradoks u pogledu Maxwellovog demona ogleda se u činjenici da se uplivom njegovih odluka o tome hoće li određenu molekulu pustiti u drugu stranu kutije ili ne dolazi do toga da se entropija ukupnog sustava ne mora povećavati, dapače, može se i smanjiti, a što onda nije u skladu s Drugim zakonom termodinamike. Na sreću, Leo Szilard još je davne 1929. pokazao da tomu ipak nije tako i da se entropija čitavog sustava povećava zbog energije koja je potrebna za funkcioniranje demonovog uma. Da biste uopće bili u stanju razlikovati molekulu koja vam dolazi u susret, morate biti živi, a ako ste živi morate sagorijevati kisik i dušik, drugim riječima, morate povećavati ukupnu entropiju svemira.

Siječanj 24, 2015

Entropija u statističkoj mehanici i informacija

IVAN SUPEK: Povijest fizike

Toplina je samo posljedica gibanja molekula, a gibanje molekula – primjerice, plina u kutiji – potiče Drugi zakon termodinamike. To znači da bi i proces ‘miješanja’ molekula na mikrorazini trebao biti nepovratan kao što je to proces u kojemu toplina s toplijeg tijela prelazi na hladnije, a koji zamjećujemo na makrorazini… Ali, kako to izraziti? Isto pitanje postavio je i austrijski fizičar Ludwig Boltzmann i došao do sljedećeg zaključka: zatvoreni sustavi (poput kutije s plinom) iz stanja manje vjerojatnosti teže prijeći u stanje veće vjerojatnosti! Boltzmann je tako došao do veličine entropije u statističkoj mehanici. Za razliku od veličine prirasta entropije u termodinamici koja se proračunava kao omjer ukupno oslobođene topline i prosječno razvijene temperature u procesu, u statističkoj mehanici radi se o apsolutnoj veličini (S) koja svoju vrijednost pronalazi u logaritamskoj relaciji spram vjerojatnosti stanja sustava:

S = k log W

Međutim, postavlja se pitanje što se misli pod vjerojatnošću stanja sustava. Naime, ako su u igri molekule, ne bismo li svaku od njih trebali ‘priupitati’ za njeno stanje i zatim na osnovi neke prosječne vrijednosti svih stanja proračunati ukupno makroskopsko stanje sustava. Da, ali u praktičnom smislu, to se čini nemogućim. Zbog toga su fizičari pribjegli statističkoj zakonitosti koju na jasan i svima razumljiv način elaborira Ivan Supek u Povijesti fizike:

Statistički zakon ne odnosi se na pojedini događaj, koji je neizvjestan, već određuje samo ishod velikog broja slučajeva…
Statistički zakoni zanemaruju gibanje pojedinih atoma i molekula. Oni određuju samo ponašanje golema mnoštva. Statističke procjene govore nam koliko ćemo prosječno atoma ili molekula naći sa stanovitim osobinama. Koji su to atomi, njihova imena i osobni podaci, sve to ne ulazi u statistiku. Statistička zakonitost urezuje opće crte mnoštva, brišući individualne sudbine sastavnih dijelova.

U smislu Drugog zakona termodinamike i statističke zakonitosti, tijelo koje je toplije od svoje okoline reprezentira stanje manje vjerojatnosti. Za razliku od njega, na tijelo jednake temperature s temperaturom svoje okoline puno je izvjesnije da ćemo naići. I to opet samo zato, što Drugi zakon termodinamike ‘propisuje’ da priroda teži ‘izjednačavanju temperatura’ odnosno postizanju vjerojatnijih stanja.

U svojim brojnim derivacijama, gornja formula za entropiju poprima i oblik u kojem je jednaka zbroju umnožaka vjerojatnosti i logaritma vjerojatnosti mikroskopskih stanja sustava:

entropy Dakle, ako je vjerojatnost pojavljivanja određenih mikroskopskih stanja sustava razmjerno velika (recimo da se većina molekula toplog plina nalazi u desnom dijelu kutije s plinom) kažemo da se radi o sustavu s niskom entropijom i obrnuto: ako je vjerojatnost pojavljivanja istih jednaka, a to je slučaj savršeno izmiješanih toplih i hladnih molekula, onda se radi o sustavu s najvećom mogućom entropijom. Gornja formula proračunava točnu vrijednost entropije i kako vidimo, izuzmemo li Boltzmannovu konstantu k (u koju su se, u međuvremenu, ‘povukle’ vrijednosti oslobođene topline i temperature) u potpunosti ovisi o vjerojatnostima mikroskopskih stanja sustava.
Boltzmannova formula za entropiju, dakako, upadljivo podsjeća na Shannonovu formulu za količinu informacije ili neizvjesnosti (uncertainty) odnosno ‘informacijske entropije’. Zapravo, radi se o istim vrijednostima odnosno količinama. Na osnovi statističkog proračuna entropije, Shannon je zaključio da količina informacije i entropija zatvorenog sustava moraju biti jednake. To znači da je Shannonov rad u potpunosti oslonjen na izračun entropije statističke mehanike, a ne na izračun iste veličine rabljene u termodinamici. Tako smo došli do točke u kojoj možemo uspostaviti i dublju poveznicu između ove dvije veličine… [nastavit će se…]

Svibanj 23, 2014

Informacija i mozak

JEFF HAWKINS (with Sandra Blakeslee): On Intelligence

Nakon odnosa inteligencije i informacije, sada pobliže razmotrimo odnos informacije i našega mozga, i dalje udubljeni u čitanje knjige Jeffa Hawkinsa. Mozgu on posvećuje treće poglavlje svoje knjige, premda se čini i sva ostala poglavlja… Zapravo, u ostatku knjige ne govori se toliko o samom mozgu koliko o neokorteksu (neocortex, ili samo cortex) ili kori velikog mozga – svojevrsnom cerebralnom omotaču koji se kod ljudi javlja u znatno većem obliku u odnosu na druge životinje, i koji ih, zbog te činjenice, temeljno razlikuje od drugih životinja. Slobodno možemo reći da smo ljudi kakvi sebe smatramo – neobična životinjska vrsta koja je sposobna kapitalizirati vlastito iskustvo, istodobno uronjena u svoj vlastiti svijet kulture, znanosti i umjetnosti – upravo zahvaljujući posjedovanju tog tankog živčanog nabora na mozgu koju drugi primati nemaju ili imaju samo u tragovima.

Neokorteks ili kora velikog mozga svega je dva milimetra debela kora sastavljena od šest slojeva. Hawkins predlaže da ju zamišljamo kao šest vizitkartica smještenih jedna na drugu (tzv. model six buissnes cards). Ako cijeli mozak sadrži oko 100 milijardi neurona, procjena je da na neokorteks otpada oko 30 milijardi. Kada axon jednog neurona dotakne dendrite drugog neurona, formira se veza poznata pod imenom sinapsa. Procjena je da naš mozak sadrži 30 trilijuna sinapsi!

S druge strane, naš mozak odnosno neokorteks trebamo zamišljati kao hijerarhijsku strukturu. Ono što jedan dio mozga čini ‘višim’ ili ‘nižim’ u hijerarhiji u odnosu na njegove druge dijelove, ovisi o tome na koji su način s njima povezani. Najniži dijelovi mozga u hijerarhiji nazivaju se primarna senzorna područja, i to su upravo ona područja u koja najprije pristižu informacije iz vanjskog svijeta. Na koji način?

Otprilike tri puta u sekundi, vaše oko napravi nenadanu kretnju nazvanu sakada (saccade). Vaše oči fiksiraju jednu točku, a onda nenadano skoče na drugu. Svaki put mijenja se i slika na vašoj retini,  kreira se novi ulazni input odnosno pattern informacija. Rječica pattern na hrvatski jezik prevodi se sa ‘uzorak’, ‘šablona’, čak i ‘obrazac’, ali nijedna od navedenih riječi ne pogađa bit patterna – što on, u ovom slučaju, jest – točno određeni niz električnih impulsa koji se prepoznaje kao takav. Stoga, u nastavku teksta zadržat ćemo englesku inačicu ove riječi kako ne bismo ostali ‘izgubljeni u prijevodu’.

Ako je tomu tako, ako naš mozak jedino prima električne signale, onda možemo jednostavno zaključiti:  u vašem mozgu nema nikakvog ‘svjetla’, nikakve ‘slike’; tamo je, ljudi, mračno! Jedino postoji električna aktivnost patterna koji kolaju amo-tamo raznoseći informacije. Između patterna koji raznosi informaciju dobivenu iz vašeg oka i patterna koji to isto čini s informacijama dobivenim iz vašeg uha – nema nikakve razlike. Ovaj spektakularan i svakako nenadan zaključak bio je dovoljan Vernonu Mountcastleu da u svom radu “An Organizing Principle for Cerebral Function” iz 1978. predloži kako je neokorteks odnosno kora velikog mozga jednoobrazna odnosno uniformna (homogena) po svojoj strukturi i pojavi. Na osnovi toga, pretpostavio je da neokorteks koristi isti komputacijski alat (algoritam) kako bi obavio sve svoje operacije! Razlike između skupina neurona smještenih u neokorteksu, mogu se detektirati jedino na osnovi međusobnih veza koje uspostavljaju odnosno veza s drugim dijelovima mozga i nikako drugačije! Ali na ovom mjestu morate se zapitati: kako vid i sluh mogu biti jednaki? Mountcastle nije ni tvrdio da su oni jednaki, već da je način na koji neokorteks procesuira signale iz oka i uha – jednak. Mnogi neuroznanstvenici, međutim, odbili su ovaj pogled, ali ne i Jeff Hawkins. Upravo na ovoj genijalnoj pretpostavci on je postavio svoju teoriju inteligencije. Ako povežete dijelove neokorteksa u odgovarajuću hijerahiju i u nju ‘izvana’ pustite patterne  – on će biti u stanju učiti o svom okolišu!

Zahvaljujući Vernonu Mountcastleu, Hawkinsova teorija inteligencije može objasniti neke dotada neobjašnjive fenomene poput fenomena Helen Keller – djevojke, koja i usprkos tomu što nije posjedovala dva temeljna čula percepcije vanjskog svijeta – vid i sluh – ipak mogla naučiti jezik i postati vrlo vješt spisatelj; drugim riječima, naglašava Hawkins, ‘mogla je biti inteligentna’.

Filozofske implikacije predloženih teorija su impozantne. Primjerice, jedna od njih može biti i da nema direktne percepcije stvarnosti. Naše znanje o svijetu odnosi se na model svijeta u našem mozgu izgrađen na patternima. Od pristiglih patterna, isti kortikalni algoritam stvara i zadržava vlastiti model svijeta u memoriji neokorteksa, a upravo memorija neokorteksa predstavlja našu narednu stanicu osvrta na ovu iznimnu knjigu, koja se, međutim, i dalje kreće u hipotetskim okvirima. Kada govorimo o memoriji neokortkesa, zapravo, govorimo o neokorteksu kao o nekoj vrsti memorijskog sustava. Stoga se sada možemo zapitati: na koji to način mozak pamti informacije?

Svibanj 2, 2014

Informacija i inteligencija

JEFF HAWKINS (with Sandra Blakeslee): On Intelligence

“Mogu li računala postati inteligentna? – Znanstvenici vjeruju da mogu; računala će postati inteligentna kad postanu dovoljno snažna u procesuiranju informacija. Ja ne mislim tako. Mozgovi i računala počivaju na temeljno različitim principima.”

Takvo pitanje postavio je i na njega odgovorio, na početku svoje knjige, Jeff Hawkins, jedna pomalo neoubičajena figura iz Silikonske doline, tvorac PalmPilot-a, osobnog digitalnog asistenta (Personal Digital Assistent – PDA), neobičnog proizvoda iz 1990-ih koji smo koristili s pametnim olovkama čačkajući njima (među prvima) po zaslonima osjetljivima na dodir. Ali osim informatičkih kompetencija, Jeff nudi još nešto – svoju zaluđenost stvaranjem ‘truly intelligent machines‘ na osnovi uvida u stvarnu prirodu inteligencije. Kao ‘zaguljenom’ funkcionalistu, Hawkinsu je dopušteno reći da se ‘biti čovjekom’ razlikuje od ‘biti inteligentnim’. (Inače, funkcionalizam tvrdi da um postoji u bilo kojem sustavu čiji konstituirajući dijelovi – neuroni, silikonski čipovi ili bilo što drugo – imaju uspostavljen pravilan uzročno-posljedični odnos među sobom. Drugim riječima, jedan atom dobar je kao bilo koji drugi, ako dobro obavlja svoju funkciju u molekularnom makeupu). Inteligencija se, međutim, ne zrcali u ponašanju, po mišljenju ovoga – informatičko-mozgovnog gurua, kako mnogi misle, nego u strukturi i načinu funkcioniranja našega mozga.

Zašto je teško otkriti kako mozak funkcionira? – Mnogi znanstvenici vjeruju da je mozak jako, jako komplicirana stvar. Ja ne mislim tako. Mislim da nas tom zaključku vodi nekoliko pogrešnih pretpostavki. Jedna od njih je vjera da se inteligencija definira inteligentnim ponašanjem.

Prisjetimo se što tvrdi biheviorizam? Ne možemo znati što se događa u mozgu – crnoj kutiji – ali to možemo zaključiti iz ponašanja jedinke koja ga posjeduje. Međutim, već se Eliza (poznati simulacijski program psihoterapeutske prakse umjetne inteligencije, smišljen kao šala), ozbiljno narugala bihevioristima. Oponašajući i ‘učeći’ iz predvidivih psihoterapeutskih ‘situacija’, primjerice, dijaloga pacijenata i psihoterapeuta, uspjela je zavarati mnoge i usprkos trivijalnosti na kojoj je počivala (ugrađenih uobičajenih odgovora psihoterapeuta).

Što je, onda, inteligencija, ako nije svodiva na ponašanje? – I tu Hawkins predlaže nešto odista novo, jednu vrlo privlačnu, intrigantnu ideju od koje vas moraju proći srsi, barem vas kojima je stalo do toga da otkrijete što stoji u pozadini ovoga našeg čuda misli koje rezultira onim što nazivamo inteligencijom ili inteligentnim ponašanjem, kako god. On predlaže da naš mozak, točnije naš neokorteks (neocortex) ili kora velikog mozga, zapravo koristi ogromnu količinu svoje memorije kako bi stvorio svoj model vanjskog svijeta. Sve što ste ikada naučili i znate o svijetu pohranjeno je u tom modelu. Nadalje, mozak koristi ovaj model kako bi predvidio buduće događaje… i to je ključno za inteligenciju. Inteligencija je uspješna predvidivost budućih događaja na temelju prethodno izgrađenoga (naučenoga?) modela svijeta. Analognu tomu, svoj okvir novog pogleda na inteligenciju prozvao je memory-prediction system.

Naravno, nakon uvida u srž glavne ideje knjige On Intelligence, u mozgu se roje nova pitanja. Na koji to način neokorteks stvara model svijeta i zašto baš neokorteks? Što je sa slikama, zvukovima, dodirima, gdje se oni nalaze u cijeloj stvari, jesu li realni ili postoje isključivo u našim glavama? Ova pitanja iziskuju i složene odgovore koje ću vam nastojati podastrijeti čim prije, svaki put kad se budem vraćao na ovu maestralnu knjigu od koje sam mnogo toga preuzeo i vjerojatno ugradio u svoj model svijeta, ako takav doista postoji u mom mozgu.

Premda se čini da je informacija u ovom osvrtu ostala pomalo postrani općeg razmatranja, to je samo privid. Svejedno, i ovaj pogled na tajne prirode, boga, svekoliku stvarnost, informaciju pretpostavlja u prvom redu svoje ‘predstave’. Način na koji informacije kolaju našim mozgom, procesuiraju se, raspoređuju u neuronske strukture od krucijalne je važnosti za ustrojstvo mozga i ‘božji dar s neba’ – inteligenciju.

Na osnovi izrečenog, hipotetska teorija informacijskog toka ‘ili-ti’ infoma lako konvergira s ovdje predloženom teorijom inteligencije, ili modela svijeta. Infomima, u obliku ‘znanja’, u našoj glavi, čini se, lako će biti prionuti uz ‘model svijeta’, svojevrsni ‘bazen znanja’ smješten u našemu mozgu, izgrađen/sastavljen od neurona i njihovih veza.

Francis Crick, autor članka o mozgu, specijalnog izdanja Scientific Americana iz 1979. koji je izvršio snažan utjecaj na Hawkinsa, mnogo godina kasnije objavio je knjigu The Astonishing Hypothesis u kojoj je iznio hipotezu da je um (mind) naprosto sastavljen od moždanih ćelija (neurona) mozga. “U hipotezi nije bilo nikakve magije – samo neuroni i ples informacija“, napisao je Hawkins. Vjerovat ćemo, barem neko, ako ne i svo vrijeme, da je tomu tako!

Travanj 5, 2014

Informacije, crne rupe… i ideja holografskog univerzuma

BRIAN GREENE: Holografski univerzum // SKRIVENA STVARNOST

Zamislite da netko pokuša postaviti teoriju na teoriji kojoj čak ni jedan Einstein nije vjerovao; još gore, postaviti je na njenom, slobodno to mogu reći, beznačajnijem dijelu, koji na nevjerojatan način potkrepljuju eksperimenti – detekcijom jedne, istinski misteriozne, tipično kvantne, pojave…  što biste na to rekli? Možda ne biste bili spremni povjerovati u nju… Ipak, tako je zanosna da joj ne možete odoljeti… Naravno, teorija o kojoj se radi postavljena je na kvantnoj teoriji, a misteriozne pojave su kvantne fluktuacije… događaju se u vakuumu, u naizgled praznom prostoru i manifestiraju neobjašnjivim iskrsavanjem i poništavanjem čestica suprotnih naboja…. Baš takvu teoriju postavio je Stephen Hawking, fizičar s Cambridge-a, razmatrajući kvantne fluktuacije u blizini, inače, svog omiljenog predmeta proučavanja – crnih rupa. Hawking se zapitao što se događa s kvantnim fluktuacijama u području samog obzora crne rupe, granice, koju kad pređete, bivate nepovratno usisani od ‘singularnog napasnika’, te dao sljedeći odgovor:

Ako se čestice oblikuju dovoljno blizu crne rupe, neke budu usisane, a neke odjezde u svemir… Čestice s pozitivnom energijom izlijeću u vanjski prostor… pa udaljenom promatraču ta paljba može izgledati kao zračenje… Međutim, masa crne rupe smanjuje se kada usisava [preostalu] negativnu energiju. Dakle, kada se masa crne rupe smanjuje, crna rupa emitira postojani tok zračenja!

To zračenje dobilo je naziv Hawkingovo zračenje, te je svog pronalazača među zajednicom fizičara proslavilo preko noći. Na osnovi temperature, koja je izravna posljedica zračenja i količine zračenja, Hawking je sada bez problema mogao izračunati i količinu entropije… Rezultat do kojega je došao bio je vrlo neobičan: količina entropije bila je proporcionalna površini crne rupe… Hawking se tu nije zaustavio. Uzeo je obzor događaja odnosno površinu crne rupe i podijelio ga tako da je dobio mrežu kvadratića u kojoj dužina svakog kvadratića odgovara vrijednosti Planckove duljine (10-33 centimetara), najmanjoj smislenoj duljini za koju je fizičar uvjeren da još uvijek poštuje fizikalne zakone. Nakon toga, “matematički [je] dokazao da je entropija crne rupe jednaka broju takvih kvadratića koji se mogu smjestiti po njezinoj površini. Izraženo jezikom skrivenih informacija, možemo reći da svaki takav kvadratić prenosi jedan jedini bit informacije – što odgovara na pitanja da-ne koja opisuju neki vid makroskopske strukture crne rupe, premda ne znamo koji.” Ali ovdje se čini puno važnijim odgovoriti na sljedeće pitanje: zašto bi količina informacija morala biti određena površinom crne rupe?

Mnoge je iznenadila činjenica da je skladište informacija unutar crne rupe određeno brojem kvadratića Planckove veličine koji prekrivaju njezinu površinu, a ne brojem kockica Planckove veličine koje ispunjavaju njezin prostor! Bila je to prva naznaka holografije – predodžbe da je kapacitet pohrane informacija određen površinom nekog područja, a ne unutrašnjim prostorom koji ta površina omeđuje.

Ali tu se postavlja pitanje: znači li to da se informacije uistinu skladište na površini crne rupe? Odgovor ovisi o tome promatrate li crnu rupu izvana ili iznutra. Prema općoj teoriji relativnosti padnete li u crnu rupu, vi nećete znati da vam se to dogodilo. To je pogled iznutra. Izvana gledano, vi padate kao žrtva Hawkingova zračenja, svojevrsne “užarene korone” koja okružuje obzor događaja crne rupe. Patrick Susskind i još neki fizičari vjeruju da su oba opisa jednako vrijedna.

[Uzmimo sada] bilo koji objekt, npr. Kongresnu knjižnicu… [ili bilo koji drugi prostor] i zamislimo da smo to područje dodatno izdvojili okruživši ga nekom imaginarnom sferom… Koliko se informacija maksimalno može pohraniti u tom prostoru? Zamislite da u taj prostor započnete dodavati materiju, s ciljem povećanja njegova kapaciteta pohrane informacija. Možete umetnuti memorijske čipove velikog kapaciteta, tvrde diskove, ogromnu količinu knjiga ili gusto nakrcane Kindleove. Budući da čak i sirova materija prenosi informacije (jesu li molekule pare ovdje ili ondje?), svaki zakutak prostora možete natrpati onolikom količinom materije koliko je uspijete nabaviti. Sve dok ne dosegnete kritičnu točku. U jednom trenutku prostor će biti toliko krcat da će se njegova unutrašnjost, dodate li makar i jedno jedino zrnce pijeska, zacrniti a cijelo područje pretvoriti u crnu rupu. Kada se to dogodi, igra je završena… Ako dodavanjem materije pokušate povećati kapacitet pohrane informacija, crna će rupa reagirati tako što će… narasti [a to ne želite, jer vas zanima maksimalna količina informacija koja može stati u točno određenom prostoru].

Ako je entropija takve crne rupe jednaka površini koja okružuje prostor onda vrijedi:

Količina informacija koju sadrži određeni prostor, pohranjena u bilo kojem objektu bilo kojeg oblika, uvijek je manja od površine koja okružuje to područje (mjereno u kvadratnim Planckovim jedinicima)… [Ono što je važno je da se] ta analiza može primijeniti na svaki prostor, bez obzira [radi li se o crnoj rupi ili ne].

[Patrick] Susskind i [Gerard] ‘t Hooft naglasili su da bi ova lekcija trebala biti općenita: budući da informacije koje bi trebale opisivati fizikalne pojave unutar bilo kojeg danog područja mogu biti u cijelosti kodirane podacima na površini koja okružuje to područje, opravdano je zaključiti da se upravo na toj površini doista događaju fundamentalni fizikalni procesi. Nama bliska trodimenzionalna stvarnost, predlažu ovi domišljati mislioci, u tom bi se slučaju mogla usporediti s holografskom projekcijom tih udaljenih dvodimenzionalnih procesa.

Koliko god bila privlačna i u naravi matematički konzistentna teorija, inicijalna ideja o holografskom univerzumu ostaje problematična. Ipak, uvjerili smo se koliko važnu ulogu mogu imati informacije u području izvan svoje domene. I ne samo to, to područje koje ih želi okruniti za kralja stvarnosti nije tek neko od mnogih, već sama kraljica stvarnosti – fizika!

Ožujak 7, 2014

Informacija i entropija

BRIAN GREENE: Holografski univerzum // SKRIVENA STVARNOST

skrivena_stvarnostZašto je ideja holografskog univerzuma važna s informacijskog gledišta? Zato što se u njenoj srži nalazi upravo informacija! Kako je to moguće, objasnit će nam fizičar s MIT-a Brian Greene čije su popularno-znanstvene uspješnice o svemiru učinile da se njegove najskrovitije tajne čine razumljivima i čitateljima koji nisu studirali fiziku ili astronomiju.

Poglavlje svoje knjige o ideji holografskog univerzuma posvećeno, između ostalog i informaciji, Brian Greene započinje prisjećanjem na susret s pokojnim Johnom A. Wheelerom, teorijskim fizičarem, poznatim po izjavi It from bit:

“Jednom prilikom tijekom zajedničkog ručka na Princetonu 1998., pitao sam ga [Johna A. Wheelera] koja će tema po njegovu mišljenju dominirati fizikom u sljedećih nekoliko desetljeća. Pognuo je glavu, što je često činio tih dana pa se činilo da se njegovo ostarjelo tijelo umorilo od tereta tako impresivna intelekta. No tišina je potrajala toliko da sam se morao zapitati ne želi li on odgovoriti na pitanje ili je pak zaboravio da sam ga uopće nešto pitao. Tada je polako uspravio pogled i izgovorio jednu, jedinu riječ: “Informacije.”

Wheeler je predlagao da bi stvari – materija i zračenje – trebali biti od sekundarne važnosti, kao puki nosioci mnogo apstraktnijeg i temeljnijeg entiteta: informacije. On nije tvrdio da su materija i zračenje nešto iluzorno već je samo smatrao da bi se trebali promatrati kao materijalne manifestacije nečega još elementarnijeg.”

Prema takvu stavu, informacija bi bila ugrađena u “plan i nacrt projekta”, a svemir bi se iz te perspektive mogao promatrati kao procesor informacija.

S informacijom usko povezan pojam entropije, Greene definira kao “mjeru procijepa u informacijama između podataka koje imamo (ukupnih makroskopskih karakteristika) i onih koje nemamo (specifičan mikroskopski raspored sustava)”. Drugim riječima, “entropija je mjera mogućih promjena sastavnica nekog entiteta/sustava koje s makroskopskog gledišta prolaze nezapaženo.” Moram priznati da nigdje drugdje nisam naišao na u toj mjeri jasno i precizno objašnjenje ovog inače zakučastog pojma, poznatog iz područja termodinamike koji se javlja i kao jedan od glavnih protagonista Drugog zakona termodinamike. O entropiji, osim na Wikipediji, možete čitati i na sjajnom blogu Nagovor na filosofiju na kojem je njezin autor o spomenutom pojmu zapisao:

Entropija je zapravo … jedna funkcija broja mogućih mikroskopskih stanja koja ostvaruju dano makroskopsko stanje. Smjer termodinamičkih procesa je prema onom makroskopskom stanju koje je vjerojatnije, i to zato što je ostvarivo na više različitih mikroskopskih načina… Smjer termodinamičkih procesa je, dakle, prema većoj entropiji.

Da bi pojam entropije doveli u vezu s pojmom informacije, Brian Greene je posegnuo za očekivanim i pomalo ofucanim primjerom iz područja vjerojatnosti i statistike – bacanjem novčića. Zašto kažemo da je entropija tisuću novčića, razbacanih po podu, visoka? Zato što postoji mogućnost da načinimo veliki broj mikroskopskih radnji s novčićima (recimo, da ih okrenemo na suprotnu stranu), a da s makroskopskog gledišta to prođe nezapaženo. Gdje su tu informacije? Informacije su naravno sadržane u odgovarajućem popisu tipa ‘glava-pismo’ kojim želimo zapamtiti stranu na koju je pojedini novčić pao odnosno na koju je okrenut.  Međutim, upravo na tom mjestu Greene ubacuje u brzinu i rezonira na briljantan način za možda najdublje razumijevanje prirode informacije uopće

[Odgovarajući popis glava-pismo] … to bi mi samo pokazalo detalje konfiguracije… Zanima me koliko je informacija sadržano na tom popisu? Polako se počinjete premišljati. Što je zapravo informacija i što doista čini. Vaš je odgovor jednostavan i izravan. Informacija odgovara na pitanja [tipa DA-NE]. Godine i godine istraživanja matematičara, fizičara i informatičara precizirale su ovaj zaključak. [Nadalje] podatak koji može odgovoriti na jedno pitanje tipa DA-NE naziva se bit… Zapravo, riječ je o kratici za [binarni broj] (binary digit) koji može označavati 1 ili 0 kao brojčane oznake za odgovore DA i NE.

Ako entropiju sada definiramo, ne kao mjeru, već konkretan broj mogućih promjena sustava, u ovom slučaju sustava ’tisuću novčića’, koji ne dovode do značajnije izmjene njegovog makroskopskog izgleda, shvatit ćemo da taj broj iznosi točno 1000 jer se zapravo radi o kaotičnom sustavu, sustavu u kojem se mikroskopske promjene uopće ne zamjećuju. Međutim i broj stavki na popisu kojim smo željeli zabilježiti ishod svakog padanja novčića (glava ili pismo) također iznosi 1000. Primjećujemo da su vrijednosti entropije i količine (skrivenih) informacija u sustavu ’tisuću novčića’ – jednake. To nije slučajno. Na neki način, zaključuje Greene, možemo reći da je entropija mjera sadržaja skrivenih informacija u sustavu.

Rujan 23, 2013

Informacija u prirodi

MARC BURGIN: Theory of information: Fundamentality, Diversity and Unification (2010) [Uvod]

burgin1“Nepostojanje dokaza nije dokaz nepostojanja” napisao je Christian De Duve a kojeg citira M. Burgin na početku poglavlja nazvanog Informacija u prirodi

Postoje velika neslaganja oko uloge i značenja informacije u prirodi. Neki autori u knjizi The Study of Information: Interdisciplinary Messages (ur. F. Machlup i U. Mansfield; 1983) odbijaju njezino postojanje izvan društvenog konteksta dok drugi autori, primjerice J. A. Wheeler (1990), tvrde da se postojanje svega na svijetu može izvesti iz informacije.

C. F. Von Weizsäcker (1985) napisao je da je informacija refleksivan, misaon koncept koji se odnosi na sve znanosti. On i njegovi koautori demonstrirali su tzv. ur-teoriju koja fiziku i doslovno reducira na informaciju! Reduciranje fizike na informaciju predlaže se na najnižoj temeljnoj razini elementarne esencije nazvane urs, bez prilagodbe za potrebe bilo kakvoga mjerenja (primjerice Hartleyovog, Shannonovog ili Fisherovog). Naravno, u teoriju su uključeni kako Planckovo vrijeme tako i Planckova udaljenost kao temeljne veličine fizičkog svijeta…

S druge strane, J. A. Wheleer (1990) sa svojom izjavom ‘it from bit’ simbolizira ideju da svaka stvar u fizičkom svijetu u svojoj suštini, i u najvećem broju slučajeva, posjeduje nematerijalan/beznačajan izvor i objašnjenje. Aforistički izraz ‘it from bit’ tako može se protumačiti i na sljedeći način: znanstvenik  je u iluziji kada misli da proučava prirodu; jedino što proučava jesu informacije koje on nekako dobiva o objektima prirode.

L. Smolin (1999) pak raspravlja o vrlo uzbudljivom hologramskom principu na kojem navodno počiva naš fizički svijet a kojeg je prvi postulirao Gerard’t  Hooft. Hologramski princip (HP) postoji u dva oblika: jaki i slabi. Slabi HP pretpostavlja da ne postoje stvari već samo procesi, i to procesi razmjene podataka na dvodimenzionalnim ekranima… Prema drugom pristupu (jaki HP?) trodimenzionalni svijet nije ništa drugo doli tok informacija…

Prema T. Stonieru (1997) informacije postoje neovisno o ljudskom mišljenju dok se H. Lyre (1998) zanosi mišlju da je temeljni objekt kvantne fizike – kvantna valna funkcija – zapravo informacija. Za M. Ridleya (2000) život je također digitalna informacija zapisana u DNK. Čak i u ovom kontekstu, spominju se neka mišljenja koja tvrde da se cijeli svijet ponaša poput ogromnog računala koje ‘komputira’ sve što postoji…

W. Loewenstein u svojoj knjizi The Touchstone of Life (1999) informaciju shvaća kao temelj života… “informacija, u njezinoj konotaciji u fizici, jest mjera reda…” kaže on. Informacija kvantificira instrukcije potrebne da se proizvede određena organizacija. Na kraju poglavlja, R. Rucker (1987) zaključuje da je razumno reći kako je naš svijet, na temeljnoj razini, načinjen od informacija…

Literatura
1. Loewenstein, W.R. (1999) The Touchstone of Life: Molecular Information, Cell Communication, and the Foundation of Life, Oxford University Press, Oxford/New York
2. Lyre, H. (1998) Quantentheorie der Information, Springer, Vienna
3. Machlup, F. and Mansfield, U. (Eds.) (1983) The Study of Information: Interdisciplinary Messages, Wiley, New York.
4. Ridley, M. (2000) Genome: The Autobiography of a Species, Perennial
5. Rucker, R. (1987) Mind Tools: The Five Levels of Mathematical Reality, Houghton Mifflin Co., Boston
6. Smolin, L. (1999) The Life of the Cosmos, Oxford University Press, Oxford/ New York
7. Stonier, T. (1997) Information and meaning: An evolutionary perspective, Springer, London
8. von Weizsäcker, C.F. (1985) Aufbau der Physik, Hanser, Munich, Germany (Engleski prijevod: The Structure of Physics. Berlin/Heidelberg/New York: Springer, 2006)
9. Wheeler, J.A. (1990) Information, Physics, Quantum: The Search for Links, in Complexity, Entropy, and the Physics of Information (Zurek, W., ed.), Redwood City, CA: Addison-Wesley, pp. 3–28

Kolovoz 12, 2013

Informacija u društvu

MARC BURGIN: Theory of information: Fundamentality, Diversity and Unification (2010) [Uvod]

burginA. Borgmann (Albert a ne Christine!) (1999) informaciju smatra temeljnim odnosom između ljudi i stvarnosti. Komunikacija odnosno razmjena informacija uzrok su postojanja i rasta kultura. S tog stajališta razlikuju se tri vrste informacija u društvu:
prirodne informacije su informacije o relanosti i reprezentirane su prirodnim znakovima poput drveta, rijeke, Mjeseca itd.
kulturne informacije su informacije za relanost i reprezentirane su konvencionalnim slovima i brojevima.
tehnologijske informacije su informacije kao realnost. One ne daju pristup realnosti, one same zamjenjuju realnost.

Prema R. H. Davenport [et al.] (1996) postoje četiri vrste informacijske politike: tehnokratska utopija, anarhija, feudalizam, federalizam. U tehnokratkoj utopiji osuđeni ste na prilagođavanje unaprijed zadanoj informacijskoj arhitekturi organizacije (npr. za pohranjivanje dokumenata u sustavu direktoriji su unaprijed ponuđeni), u anarhiji pak prepušteni ste sami sebi (sami kreirate direktorij u koji ćete pohraniti dokument); u feudalizmu ne možete pristupiti svim informacijama u sustavu jer je svaki dio organizacijske cjeline odvojen, dok je u federalizmu ova nelagoda prevladana.

Koncepti informacije i komunikacije odnose se obrnuto proporcionalno. Komunikacija se bavi prognoziranjem i redundancijama, a informacija novim i nepredvidljivim.

U 1991. kompanije su prvi put potrošile više novca na procesuiranje informacija i komunikaciju nego na industrijske artefakte, strojeve, alate i sl. Sjedeći u prosječnom automobilu 1994. primijetili biste 675 dolara vrijednosti čelika i lakih legura oko sebe, ali ne i 782 dolara ugrađene mikroelektronike (Furth,1994).

Prema Ruževičiusu i Gedminaite (2007) riječi poput ‘informacija’, ‘informacijsko društvo’, ‘informacijski menadžment’, ‘informacijsko procesuiranje’, ‘informacijsko doba’ itd. čujemo tako često da se čini kako je informacija u današnjem dobu postala objekt kulta a strojevi za procesuiranje informacija sveti objekti toga kulta.

McLuhan je još 1964. naglašavao kako medij nije samo pasivni informacijski kanal… To se osobito može primijeniti na internet. Surfarujući njime ograničavaju vam se kapaciteti koncentracije i kontemplacije. Čak i blog post ili e-mail sa više od tri ili četiri odlomka može predstavljati problem za apsorpciju. Nesumnjivo, informacija je i društveni fenomen. Zagađenost informacijama poprima zabrinjavajuće razmjere. Jedan od gorućih problema današnjice odnosi se na problem informacijske poplave (information flood) – fenomen povezan uz tsunami informacija kojim smo zapljusnuti početkom ovog stoljeća.

Zanimljivo, u 15. stoljeću, nakon pojave tiska, jedan talijanski humanist upozorio je da se s olakšanom dostupnošću knjiga može povećati intelektualna lijenost! Podsjetnik na usporedbu s današnjim dobom više je nego izlišan…

Literatura

1. Borgmann, A. (1999) Holding on to reality: The nature of information at the turn of the millenium, University of Chicago Press, Chicago/London
2. Davenport, R.H., Eccles, R.G. and Prusak, L. (1996) Information politics, Sloan Management Review, pp. 53–65
3. Furth, J. (1994) The Information Age in Charts, Fortune International, URL: http://money.cnn.com/magazines/fortune/fortune_archive/1994/04/04/79135/
4. McLuhan, M. (1964) Understanding Media: The Extensions of Man, MIT Press, Cambridge, MA
3. Ruževičius, J. and Gedminaite, A. (2007) Peculiarities of the Business Information Quality Assessment, Vadiba/Management, v. 14, No. 1, pp. 54–60

Srpanj 7, 2013

Zagrijavanje za ‘definicijski maraton’

MARC BURGIN: Theory of information: Fundamentality, Diversity and Unification (2010) [Uvod]

Danas više nego ikad možemo reći – informacije su postale moda! Pomodno je, u neku ruku, nešto činiti s informacijama; recimo, proizvoditi ih i distribuirati, omogućavati ili onemogućavati im pristup, zaprimati ih previše ili premalo (imam previše ili nemam dovoljno informacija!) ili pak samo pohranjivati ih u svoje računalo. Osim toga, među elitom informacijskih stručnjaka pomodno je i svako malo baviti se pokušajima davanja definicije neuhvatljivoga fenomena! M. Burgin svoje viđenje tog, kako su ga J. H. Shera i D. B. Cleveland voljeli nazivati, “definicijskog maratona”, osim što naziva pomodarstvom, na nekoliko prvih stranica svoje knjige sažima na sljedeći način.

Jedna od zdravorazumskih, a time i najdosadnijih, definicija informacije potječe od Loseea (1997) koji informaciju definira kao opis koji se sastoji od jedne ili više izjava koje su primljene (od ljudi) i koje imaju neku vrijednost za primatelja. Martin (1995) pak piše:

Čini se da je pitanje ‘što je informacija’ retoričko jer nitko na njega ne zna odgovor.

Norbert Wiener, utemeljitelj kibernetike, bio je među prvima koji su informaciju razmatrali izvan njezine svakodnevne uporabe… Njegova izjava “Informacija je informacija, nije ni materija ni energija!” govori nam da su aktualni objekti koji se koriste u komunikacijskom procesu manje važni od same informacije! Početkom 1954. N. Wiener zagonetno zapisuje: “Informacija je naziv za sadržaj koji se razmjenjuje s vanjskim svijetom.” Čini se da nam ta ‘presveobuhvatnost’ u ovom vremenu još ne ostavlja prostor za bilo kakav komentar…

Chaitin (1999) se pita:

Što ako je informacija primarni, a materija sekundarni fenomen?…

Ista informacija može imati mnogo materijalnih reprezentanata u biologiji, fizici i psihologiji (DNA, DVD, živčani impulsi itd.). Pritom, materijalni reprezentanti su irelevantni, važna je sama informacija… Informacija je doista revolucionarno nova vrsta koncepta i prepoznavanje te činjenice predstavlja jednu od prekretnica ovog doba. Međutim, za većinu ljudi, informacija je poruka. Dakako, informacija ne može biti poruka, obrušava se Burgin, jer jedna poruka za nekog pojedinca može nositi mnoštvo informacija (biti informativna) a za drugoga ne.

Znanstvena (statistička) definicija informacije predstavljena je sa svoje dvije definicije:

  • INFORMACIJA je eliminirana neizvjesnost. (Hartley, 1928), (Ursul, 1971)
  • INFORMACIJA je eliminirana neizvjesnost ILI odražena raznolikost. (Ursul, 1971)

Ovaodražena raznolikostsvakako nuka na daljnje istraživanje. O samom pojmu raznolikosti piše i Rauterberg (1995) i navodi da je puno prikladniji od pojma neizvjesnosti u objašnjavanju informacijskih procesa u sustavima obrazovanja… Protivno Rauterbergu, Knapp (1978) raznolikost kao fenomen esencijalno razlikuje od informacije. Na koji način, Burgin ne navodi.

Semiotičku definiciju informacije Burgin je iskopao iz Enciklopedijskog rječnika semiotike u kojem se informacija definira s dva značenja (Moles, 1994):

  • u uobičajenoj jezičnoj uporabi informacija je poruka koja sadrži novost
  • u tehničkom smislu informacija je mjera količine novosti koju sadržava jedna poruka.

Qvortrup (1993) daje vrlo zanimljivu definiciju: informacija je stanje interesa/znatiželje sustava. U ovom slučaju može se govoriti o motiviranosti primatelja za primanjem informacija iz svoje okoline. Isti autor zatim manje oštroumno pridodaje: poruka je materijalizirana informacija.

C. F. von Weizsâcker (2006) imat će daleko ‘boljih mjesta/trenutaka’ u Burginovoj knjizi od ovoga u kojem je ponudio svoju definiciju informacije: informacija je kvantitativna mjera oblika (njem. Gestalt), u kojoj izgleda da upravo razumijevanje ‘punoznačne’ njemačke riječi Gestalt igra ključnu ulogu. A što ako ne dolazite iz njemačkog govornog područja…?

Hobart i Schiffman (2000) sugeriraju da se koncept informacije mijenja kroz vrijeme. Oni razlikuju klasično, moderno i konceptualno informacijsko doba. Burgin, međutim, ne ulazi u detalje ove zamisli…

Sve u svemu, za infome se zasada nije našlo mjesta u “definicijskom maratonu” prema Burginovu viđenju, ali tko zna, možda ga jednoga dana bude…

Sljedeća stranica »

Napravi besplatnu web stranicu ili blog na WordPress.com.

%d bloggers like this: