O I n f o r m a c i j i : informacija u teoriji

Prosinac 22, 2017

Matematičko-statistička teorija informacije (Matematička teorija komunikacije C. E. Shannona): uvod

CLAUDE E. SHANNON: The mathemtical theory of communication (1948)

Koliko nas, koji dolazimo izvan prirodnih i tehničkih znanosti a koji danas pišemo o informaciji nastojeći proniknuti u njenu prirodu, razumijemo Shannonov u načelu matematički rad? Vjerujem da nas je vrlo malo. Ako smo u tome i umješni poput Paula Cantora (Cantor 2009), teško da bi se složili s postavkom kako nam jednadžbe prijenosa diskretnih i kontinuiranih signala mogu pomoći da dođemo do široko prihvaćenje definicije informacijskog fenomena u svim područjima znanosti. Većina profesora iz informacijskih znanosti ipak Shannonov rad navode u literaturi uz bitnu opasku – samo Uvod, odnosno od 31 do 35 str. rada. Zašto? Zato što pretpostavljaju da se nakon famozne 35. stranice nalazi štivo isključivo za inženjere telekomunikacija, a ne informacijske stručnjake… Ali zašto u svoje nastavno gradivo uopće uključuju i prve četiri stranice rada? Zato što je u njima predstavljen komunikacijski model koji je predložen da bude validan model za sve komunikacijske situacije, između ostalih i one u informacijskim ustanovama poput knjižnica, muzeja, arhiva…

Inicijalnu ‘informacijsku teoriju’ ili ‘teoriju informacija’ mnogi istraživači prepoznaju u radu matematičara Clauda Elwooda Shannona naziva A mathematical theory of communication koji datira davne 1948 (Shannon 1948). Međutim, dok je pisao svoj rad, Shannon nije mislio da stvara teoriju informacije. Zabavljen problemima optimalnog prijenosa signala između dvije točke telekomunikacijskog voda, dakle, baveći se izričito problemom komunikacije što je ostavilo traga i na naslovu njegova rada, ni na kraj mu pameti nije bilo stvoriti univerzalni obrazac po kojemu se primaju i odašilju informacije. Pojam informacije rabio je u svom uskom, inženjerskom kontekstu [Proces stjecanja znanja kao problem informacijskih znanosti, Bosančić, 2016].

Uključivši u postojeću Hartleyevu teoriju (Hartley 1928) nekoliko novih čimbenika, a ponajprije se to odnosi na efekt šuma u kanalu, kao i mogućnost uštede u prijenosu količine informacija zbog statističke strukture originalne poruke i prirode krajnjeg odredišta informacije Shannon je napisao:

Osnovni komunikacijski problem svodi se na točno reproduciranje odabrane poruke odaslane s jednoga na drugo mjesto [u prostoru]. Uobičajeno, poruka ima značenje; to ujedno znači da je poruka [uvijek] u nekom odnosu ili pak da upućuje na sustav s odgovarajućim fizičkim ili konceptualnim entitetima. [Međutim], navedeni semantički aspekti su irelevantni za inženjerski problem. Značajno je [jedino] to što je aktualna poruka jedna iz skupa mogućih poruka. Sustav mora biti  konstruiran tako da može operirati sa svakim mogućim odabirom… Ako je broj poruka u skupu konačan, onda se taj broj… može smatrati mjerom informacije koja je proizvedena u trenu kad je iz skupa s jednakom vjerojatnošću odabira odabrana jedna poruka. Kao što je istakao Hartley, najprirodniji izbor [za opis ovog procesa] je logaritamska funkcija. [The mathematical theory of communication, Introduction, Shannon & Weaver, 31-35.]

Odabir logaritamske baze korespondira s odabirom jedinice za mjerenje količine informacija. Ako se rabi logaritamska baza 2 onda se rezultirajuća jedinica može nazvati binarni digits ili kraće bits, riječ koju je Shannonu sugerirao J. W. Tukey.

Na osnovi iznesenoga, može se zaključiti da je matematička komunikacijska teorija C. E. Shannona posredno dovela do jednog važnog pitanja: ako se količina informacija s jednog uređaja na drugi prenosi prema određenim matematičkim pravilnostima, mogu li se te pravilnosti poopćiti i vrijediti za bilo koju situaciju slanja informacije, pa čak i onu u kojoj je čovjek pošiljatelj i/ili primatelj informacije?

[Shannonov] kolega Warren Weaver nagovorio ga je da vlastiti okvir usmjeren na rješavanje inženjerskih problema proširi na ostala područja. Sâm se potrudio napisati poseban članak u kojem je predložio da se Shannonov komunikacijski model, namijenjen telekomunikacijskim inženjerima, može promatrati kao opći komunikacijski model prijenosa informacija (Shannon and Weaver, 1963/49). Možda bi ovakva interpretacija Shannonove teorije stekla više pobornika da se u cijelu priču nije upetljalo značenje, na neki način ‘pojmovna svojina’ istraživača iz društvenih i humanističkih znanosti. Naime, u Shannonovoj teoriji značenje nije igralo nikakvu ulogu. Štoviše, sâm Shannon je naglasio da je irelevantno za cijelu priču (Shannon i Weaver 1963/49). Mogućnost da se jedna teorija informacija utemelji na nečemu što nije uključivalo značenje odmah je pobudilo sumnju istraživača iz društvenih i humanističkih znanosti. Mnogi od njih bili su uvjereni da je Weaver bio u krivu; velika većina je to i danas [Proces stjecanja znanja kao problem informacijskih znanosti, Bosančić, 2016].

Pod komunikacijskim sustavom, napisao je Shannon, mislimo na sustav predstavljen na Slici 1. On se sastoji od pet dijelova:

  1. Informacijskog izvora koji proizvodi poruke ili nizove poruka… Poruke mogu biti različite vrste: niz slova kao u telegrafiji, … intenzitet svjetlosti u [proizvoljnoj] točki (x,y)…
    Odašiljača (engl. transmitter) koji pretvara poruku u signal pogodan za prijenos kroz kanal… [Na primjer] u telegrafiji postoji operacija enkodiranja poruka u točke, crte i praznine…
    3. Kanala koji predstavlja medij za prijenos poruke… Može biti riječ o paru žica, koaksijalnom kablu… ili snopu svjetlosti itd. Za vrijeme prijenosa signal može biti ometen (deformiran) šumom (engl. noise).
    4. Primatelja koji uobičajeno obavlja inverznu operaciju u odnosu na odašiljača poruke, rekonstruiranje poruke iz signala.
    5. Odredište [poruke] je osoba (ili stvar) kojima je poruka bila namijenjena.
    [The mathematical theory of communication, Introduction, Shannon & Weaver, 31-35.]

 

Slika 1 – Shematski dijagram općeg komunikacijskog sustava.

Možemo [sada] izvršiti grubu podjelu komunikacijskih sustava na… diskretne, kontunuirane (engl. continuous) i kombinirane (engl. mixed). Diskretni sustav je takav sustav u kojemu su i poruka i signal predstavljeni sekvencom, nizom diskretnih simbola. Tipičan primjer nalazimo u telegrafiji gdje je poruka predstavljena nizom slova, a signal nizom točaka, crtica i praznina koji reprezentiraju ta slova.

Razvoj informacijske teorije na tragu rada C. E. Shannona danas se odvija pod kapom IEEE Information Theory Society, zasebne IEEE zajednice posvećene viziji razvoja „the mathematical underpinnings of information technology for the benefit of humanity“. Područja interesa IEEE ITS-a obuhvaćaju procesuiranje, transmisiju, pohranu i korištenje informacija i tiču se zapravo šireg područja općenito kodiranja informacija, a to znači onih komponenti komunikacijskog modela koji se odnose na procese kodiranja, prijenosa i dekodiranja signala. IEEE ITS, baš kao i C. E. Shannon, davne 1948., pitanje značenja kodiranih, prenesenih i dekodiranih informacija ne smatra predmetom svoga istraživanja. Pa ipak, premda se pitanje značenja prenesene poruke čini irelevantnim u Shannonovoj teoriji s obzirom na činjenicu da jedan signal (i doslovno jedna jedinica ili nula) mogu značiti da se kanalom prenosi cijela Biblija ili samo jedno obično ‘DA’, neki su istraživači primijetili da se ne može tako lako zaobići barem pitanje značenja kodirane informacije.

LITERATURA

  1. Bosančić, B. (2016), Proces stjecanja znanja kao problem informacijskih znanosti, Libellarium, Vol. 9 No. 1, 31-58.
  2. Cantor, P. (2009), “Information theory”, in Bates, M.J. and Maack, M.N. (Eds.), 3rd ed., Encyclopedia of Librarian and Information Sciences, CRC Press, pp. 2717-2726.
  3. Hartley, R.V.L. (1928), “Transmission of information”, Bell System Technical Journal, Vol. 7, pp. 335-363.
  4. Shannon, C. E., and Weaver, W. (1964), The mathematical theory of communication, University of Illinois Press, Urbana.
Oglasi

Svibanj 25, 2015

Entropija i informacija III. (Maxwellov demon i informacija)

CLAUDE E. SHANNON & WARREN WEAVER: The Mathematical Theory of Communication (1949)
JAMES GLEICK: Information: A History, a Theory, a Flood (2011) / Entropy and Its Demons

Fizičar James Clerk Maxwell osmislio je sljedeći misaoni eksperiment: iznad pregrade kutije s plinom zamislio je inteligentno biće, dovoljno malo da uoči koja mu molekula dolazi u susret (topla ili hladna) i odluči hoće li je pustiti u drugu stranu ili ne. Ubrzo je to zamišljeno biće dobilo naziv Maxwellov demon, a predmnijevamo i zbog čega: zbog svoje ‘demonske uloge’ u kršenju Drugog zakona termodinamike! Naime, svojim odlukama koju će molekulu pustiti a koju ne, biće bi bilo u prilici izravno utjecati na rast entropije zatvorenog sustava; još gore, moglo bi, ako bi to htjelo, prouzročiti i one slučajeve u kojima bi se ukupni prirast entropije smanjivao! Svojim inteligentnim uvidom u to koja mu molekula plina pristiže (hladna ili topla) moglo bi namjerno prouzročiti smanjenje entropije cjelokupnog sustava, recimo, ako odluči na drugu stranu kutije puštati samo tople molekule plina. Ipak, u ovoj priči, nas ne zanima toliko kršenje Drugog zakona termodinamike koliko percepcija svijeta tog bića. Evidentno, da bi pustilo (na)dolazeću molekulu na drugu stranu kutije ono najprije mora znati o kakvoj je molekuli riječ (je li topla ili hladna), drugim riječima, mora se o tome informirati…

Međutim, kako informacijsku teoriju tumači Shannonov kolega W. Weaver, informacija se više tiče onoga što uopće o nečemu možemo reći nego što se u nekom trenutku o tome stvarno i reklo. Drugim riječima, za Shannona i Weavera manje je bitan proces saznavanja, važan je samo konačni broj molekula toplog i hladnog plina u kutiji, kao i njihov položaj (jesu li s ove strane pregrade kutije ili s one). Ako je vjerojatnost pojavljivanja tople i hladne molekule plina jednaka, entropija je najveća, a s njome i količina informacija koju demon percipira. Međutim, ako je ta vjerojatnost različita, recimo da se u dijelu kutije iz kojeg demonu nadolaze molekule nalazi topliji plin, onda je za očekivati da će mu daleko češće pristizati toplije molekule od hladnijih (prema Drugom zakonu termodinamike) što je, onda, prema Shannonu, manje informativno. Manju količinu informacija uzrokuje i obrnut slučaj, kada je vjerojatnost pojavljivanja toplih molekula plina mala, jer se u promatranom dijelu kutije nalazi hladnije molekule plina. Upravo, u toj spoznaji najveća je snaga i doprinos znanosti Shannonove teorije.

Međutim, mi se pitamo je li demon svjestan toga da je u desnom dijelu kutije plina više toplih nego hladnih molekula? On to ne može znati. Tek kad cijeli proces završi, kad se molekule toplog i hladnog plina ravnomjerno rasporede po kutiji, drugim riječima, kad se postigne stanje najveće entropije, on može zaključiti da je u samom prijenosu topline sudjelovala tolika i tolika količina informacija, manja ili veća, jer se plin kretao iz manje vjerojatnog stanja u stanje veće vjerojatnosti ili očekivano stanje. S druge strane, Shannon bi isti proces opisao riječima da su se molekule kretale iz stanja manje neizvjesnosti u stanje veće neizvjesnosti. Dakle, može li se zakonitost koja se odnosi na prijenos informacija dovesti u vezu sa zakonitošću koja vlada u prijenosu topline (i koju ‘propisuje’ Drugi zakon termodinamike)? Može – ali u obrnutom shvaćanju/značenju. Iako količinski jednake, entropija i količina informacija u nekom značenjskom smislu potpuno su suprotne. ‘Vjerojatnije’ i ‘neizvjesnije’ naprosto ne mogu imati isti smisao.

Sada se pokušajmo staviti u položaj demona koji upravlja pregradom kutije s plinom. Vrlo brzo ćemo biti primorani napustiti svijet statistike, predviđanja i porinuti natrag u stvarnost. Svaku molekulu koja nam dolazi u susret na osnovi njenog svojstva je li topla ili hladna propustit ćemo (ili nećemo) na drugu stranu. Što bi, dakle, bila informacija za demona koji upravlja pregradom kutije s plinom? Ovdje je važno uočiti da to pitanje više nema nikakve veze sa Shannonovom količinom informacija. Dakle, više ne pitamo nešto vezano uz ‘količinu informacija’, već uz samu informaciju i dolazimo do sljedećeg odgovora: informacija je sadržana u demonovoj percepciji odnosno procesu informiranja; ona je sama ‘supstanca’ njegove percepcije koja defacto postaje njegovo znanje o tome je li se radi o toploj ili hladnoj molekuli plina koja mu dolazi u susret.

Zbog toga B. Greene u svojoj definiciji entropije poseže za izrazom količine skrivenih informacija u sustavu. Kakvo god bilo mikroskopsko stanje sustava i kakva god bila vjerojatnost da će se ono ostvariti – ono sadrži i informaciju, skrivenu informaciju u smislu da entropiji, kao ni Shannonu, nije važan sadržaj te informacije, nego samo njena vjerojatnost pojavljivanja.

Pritom, uočimo da se entropija odnosi samo na prebrojavanje bilo kakvog (iznenadnog) događaja s molekulama u kutiji s plinom, a informacija na razlikovanje tog događaja u kvalitativnom smislu (npr. uočavanje nekog svojstva molekule plina, primjerice, je li topla ili hladna). Shannon je, dakle, svoju ‘teoriju informacija’ temeljio na postavci da se u oba slučaja radi o istom broju…

U slučaju povećanja entropije sustava, očevidno, na djelu je djelovanje jednog zakona u pozadini, Drugog zakona termodinamike. Povećanje entropije sustava izravna je posljedica kretanja molekula u stanje izjednačenih temperatura (tzv. toplinske smrti). Slijedom toga, L. Boltzman samo je pokazao ovisnost ukupne entropije nekog zatvorenog sustava o vjerojatnostima mikroskopskih stanja njegovih sastavnica. Međutim, što bi se, i ako bi, onda, nalazilo u pozadini informacijske teorije? Koji analogan proces? Prema nekom mojemu razmišljanju, to je proces stjecanja znanja o svijetu koji nas okružuje. Čovjek je biće koje teži iz stanja manjeg znanja ili neznanja prijeći u stanje većeg znanja ili najvećeg mogućeg znanja. Paradoks u čovjekovoj težnji, međutim, ogleda se u činjenici da ono što može znati, prisiljen je sâm prethodno definirati (tzv. ‘Shannonov skup mogućnosti’). „Čovjek je mjera svih stvari“, tu duboku istinu dokučili su još Stari Grci. Ako želi ovladati ‘kemijskim znanjem’ o svijetu koji ga okružuje, svijet mora najprije podijeliti na molekule, ako želi imati ‘fizikalno znanje’ o istom, mora ga podijeliti na atome, kvarkove, bozone i druge čestice itd. Po Shannonu, sva moguća stanja molekula i atoma predstavljali bi najsveobuhvatniji unaprijed definiran set mogućnosti iz kojeg bi bilo moguće odabrati i prenijeti, njima analognu, informaciju.

Uočimo, što se tiče kutije s plinom i zamisli Maxwellovog demona možda je manje evidentno, ali nikako nevažno za cijelu priču, da je njome određena najmanja jedinica koja će ulaziti u proračun kako entropije, tako i količine informacija, a to je molekula. U pokusu se zapravo promatra na koje sve načine jedna molekula plina može ‘izgenerirati’ informaciju; dakle, ne generira informaciju svijet kao takav, nego onaj dio svijeta koji smo prethodno ‘uobličili’ u nekakav entitet, u ovom primjeru – u molekulu. Pritom, ne smijemo zaboraviti da se s dovoljno moćnom tehnologijom možemo spustiti još dublje u mikrosvijet te entropiju i količinu informacija računati ‘preko’ atoma. Čovjek je, dakle, taj koji je prisiljen podvući crtu, ‘uobličiti dio stvarnosti’, stvoriti, uvjetno rečeno, podatkovni entitet, s kojim dalje može računati, i na koncu konaca, i uopće bilo što izračunati (prevesti u matematiku). On je taj koji određuje tzv. Shannonov skup mogućnosti (domenu) iz kojeg se generira neka funkcijski odgovarajuća, količina informacija (kodomena).

U pozadini informacijske teorije, dakle, stoji unaprijed definirani skup mogućnosti mikroskopskih stanja sastavnica sustava o kojemu ovisi količina generiranih informacija… Ne možemo izračunati količinu informacija, ako nismo definirali skup svih mogućnosti u kojima se sastavnice jednog sustava mogu naći (toplo-hladno je samo jedan set ukupnog skupa mogućnosti, položaj molekula može biti drugi itd.) Pritom, vrijednosti entropije sustava [S] i količine informacije [H] kao kvantitativne ostaju jednake. Međutim, demon koji se direktno informira i koji barata informacijama, ništa od toga ne može znati. Za njega je informacija ono što pristiže u njegov um. Na neki način, ovo razmatranje je neka vrst priloga daljnjem istraživanju koje bi zakonitostima koje vrijede za procese kodiranja i prijenosa informacija (i koje je postulirao Claude E. Shannon) trebalo pridodati zakonitosti koje bi vrijedile u postupku zaprimanja informacija svjesnog uma za potrebe uvećanja njegova znanja.

Sâm paradoks u pogledu Maxwellovog demona ogleda se u činjenici da se uplivom njegovih odluka o tome hoće li određenu molekulu pustiti u drugu stranu kutije ili ne dolazi do toga da se entropija ukupnog sustava ne mora povećavati, dapače, može se i smanjiti, a što onda nije u skladu s Drugim zakonom termodinamike. Na sreću, Leo Szilard još je davne 1929. pokazao da tomu ipak nije tako i da se entropija čitavog sustava povećava zbog energije koja je potrebna za funkcioniranje demonovog uma. Da biste uopće bili u stanju razlikovati molekulu koja vam dolazi u susret, morate biti živi, a ako ste živi morate sagorijevati kisik i dušik, drugim riječima, morate povećavati ukupnu entropiju svemira.

Siječanj 24, 2015

Entropija i informacija II. (entropija u statističkoj mehanici)

IVAN SUPEK: Povijest fizike

Toplina je samo posljedica gibanja molekula, a gibanje molekula – primjerice, plina u kutiji – potiče Drugi zakon termodinamike. To znači da bi i proces ‘miješanja’ molekula na mikrorazini trebao biti nepovratan kao što je to proces u kojemu toplina s toplijeg tijela prelazi na hladnije, a koji zamjećujemo na makrorazini… Ali, kako to izraziti? Isto pitanje postavio je i austrijski fizičar Ludwig Boltzmann i došao do sljedećeg zaključka: zatvoreni sustavi (poput kutije s plinom) iz stanja manje vjerojatnosti teže prijeći u stanje veće vjerojatnosti! Boltzmann je tako došao do veličine entropije u statističkoj mehanici. Za razliku od veličine prirasta entropije u termodinamici koja se proračunava kao omjer ukupno oslobođene topline i prosječno razvijene temperature u procesu, u statističkoj mehanici radi se o apsolutnoj veličini (S) koja svoju vrijednost pronalazi u logaritamskoj relaciji spram vjerojatnosti stanja sustava:

S = k log W

Međutim, postavlja se pitanje što se misli pod vjerojatnošću stanja sustava. Naime, ako su u igri molekule, ne bismo li svaku od njih trebali ‘priupitati’ za njeno stanje i zatim na osnovi neke prosječne vrijednosti svih stanja proračunati ukupno makroskopsko stanje sustava. Da, ali u praktičnom smislu, to se čini nemogućim. Zbog toga su fizičari pribjegli statističkoj zakonitosti koju na jasan i svima razumljiv način elaborira Ivan Supek u Povijesti fizike:

Statistički zakon ne odnosi se na pojedini događaj, koji je neizvjestan, već određuje samo ishod velikog broja slučajeva…
Statistički zakoni zanemaruju gibanje pojedinih atoma i molekula. Oni određuju samo ponašanje golema mnoštva. Statističke procjene govore nam koliko ćemo prosječno atoma ili molekula naći sa stanovitim osobinama. Koji su to atomi, njihova imena i osobni podaci, sve to ne ulazi u statistiku. Statistička zakonitost urezuje opće crte mnoštva, brišući individualne sudbine sastavnih dijelova.

U smislu Drugog zakona termodinamike i statističke zakonitosti, tijelo koje je toplije od svoje okoline reprezentira stanje manje vjerojatnosti. Za razliku od njega, na tijelo jednake temperature s temperaturom svoje okoline puno je izvjesnije da ćemo naići. I to opet samo zato, što Drugi zakon termodinamike ‘propisuje’ da priroda teži ‘izjednačavanju temperatura’ odnosno postizanju vjerojatnijih stanja.

U svojim brojnim derivacijama, gornja formula za entropiju poprima i oblik u kojem je jednaka zbroju umnožaka vjerojatnosti i logaritma vjerojatnosti mikroskopskih stanja sustava:

entropy Dakle, ako je vjerojatnost pojavljivanja određenih mikroskopskih stanja sustava razmjerno velika (recimo da se većina molekula toplog plina nalazi u desnom dijelu kutije s plinom) kažemo da se radi o sustavu s niskom entropijom i obrnuto: ako je vjerojatnost pojavljivanja istih jednaka, a to je slučaj savršeno izmiješanih toplih i hladnih molekula, onda se radi o sustavu s najvećom mogućom entropijom. Gornja formula proračunava točnu vrijednost entropije i kako vidimo, izuzmemo li Boltzmannovu konstantu k (u koju su se, u međuvremenu, ‘povukle’ vrijednosti oslobođene topline i temperature) u potpunosti ovisi o vjerojatnostima mikroskopskih stanja sustava.
Boltzmannova formula za entropiju, dakako, upadljivo podsjeća na Shannonovu formulu za količinu informacije ili neizvjesnosti (uncertainty) odnosno ‘informacijske entropije’. Zapravo, radi se o istim vrijednostima odnosno količinama. Na osnovi statističkog proračuna entropije, Shannon je zaključio da količina informacije i entropija zatvorenog sustava moraju biti jednake. To znači da je Shannonov rad u potpunosti oslonjen na izračun entropije statističke mehanike, a ne na izračun iste veličine rabljene u termodinamici. Tako smo došli do točke u kojoj možemo uspostaviti i dublju poveznicu između ove dvije veličine… [nastavit će se…]

Svibanj 23, 2014

Informacija i mozak

JEFF HAWKINS (with Sandra Blakeslee): On Intelligence

Nakon odnosa inteligencije i informacije, sada pobliže razmotrimo odnos informacije i našega mozga, i dalje udubljeni u čitanje knjige Jeffa Hawkinsa. Mozgu on posvećuje treće poglavlje svoje knjige, premda se čini i sva ostala poglavlja… Zapravo, u ostatku knjige ne govori se toliko o samom mozgu koliko o neokorteksu (neocortex, ili samo cortex) ili kori velikog mozga – svojevrsnom cerebralnom omotaču koji se kod ljudi javlja u znatno većem obliku u odnosu na druge životinje, i koji ih, zbog te činjenice, temeljno razlikuje od drugih životinja. Slobodno možemo reći da smo ljudi kakvi sebe smatramo – neobična životinjska vrsta koja je sposobna kapitalizirati vlastito iskustvo, istodobno uronjena u svoj vlastiti svijet kulture, znanosti i umjetnosti – upravo zahvaljujući posjedovanju tog tankog živčanog nabora na mozgu koju drugi primati nemaju ili imaju samo u tragovima.

Neokorteks ili kora velikog mozga svega je dva milimetra debela kora sastavljena od šest slojeva. Hawkins predlaže da ju zamišljamo kao šest vizitkartica smještenih jedna na drugu (tzv. model six buissnes cards). Ako cijeli mozak sadrži oko 100 milijardi neurona, procjena je da na neokorteks otpada oko 30 milijardi. Kada axon jednog neurona dotakne dendrite drugog neurona, formira se veza poznata pod imenom sinapsa. Procjena je da naš mozak sadrži 30 trilijuna sinapsi!

S druge strane, naš mozak odnosno neokorteks trebamo zamišljati kao hijerarhijsku strukturu. Ono što jedan dio mozga čini ‘višim’ ili ‘nižim’ u hijerarhiji u odnosu na njegove druge dijelove, ovisi o tome na koji su način s njima povezani. Najniži dijelovi mozga u hijerarhiji nazivaju se primarna senzorna područja, i to su upravo ona područja u koja najprije pristižu informacije iz vanjskog svijeta. Na koji način?

Otprilike tri puta u sekundi, vaše oko napravi nenadanu kretnju nazvanu sakada (saccade). Vaše oči fiksiraju jednu točku, a onda nenadano skoče na drugu. Svaki put mijenja se i slika na vašoj retini,  kreira se novi ulazni input odnosno pattern informacija. Rječica pattern na hrvatski jezik prevodi se sa ‘uzorak’, ‘šablona’, čak i ‘obrazac’, ali nijedna od navedenih riječi ne pogađa bit patterna – što on, u ovom slučaju, jest – točno određeni niz električnih impulsa koji se prepoznaje kao takav. Stoga, u nastavku teksta zadržat ćemo englesku inačicu ove riječi kako ne bismo ostali ‘izgubljeni u prijevodu’.

Ako je tomu tako, ako naš mozak jedino prima električne signale, onda možemo jednostavno zaključiti:  u vašem mozgu nema nikakvog ‘svjetla’, nikakve ‘slike’; tamo je, ljudi, mračno! Jedino postoji električna aktivnost patterna koji kolaju amo-tamo raznoseći informacije. Između patterna koji raznosi informaciju dobivenu iz vašeg oka i patterna koji to isto čini s informacijama dobivenim iz vašeg uha – nema nikakve razlike. Ovaj spektakularan i svakako nenadan zaključak bio je dovoljan Vernonu Mountcastleu da u svom radu “An Organizing Principle for Cerebral Function” iz 1978. predloži kako je neokorteks odnosno kora velikog mozga jednoobrazna odnosno uniformna (homogena) po svojoj strukturi i pojavi. Na osnovi toga, pretpostavio je da neokorteks koristi isti komputacijski alat (algoritam) kako bi obavio sve svoje operacije! Razlike između skupina neurona smještenih u neokorteksu, mogu se detektirati jedino na osnovi međusobnih veza koje uspostavljaju odnosno veza s drugim dijelovima mozga i nikako drugačije! Ali na ovom mjestu morate se zapitati: kako vid i sluh mogu biti jednaki? Mountcastle nije ni tvrdio da su oni jednaki, već da je način na koji neokorteks procesuira signale iz oka i uha – jednak. Mnogi neuroznanstvenici, međutim, odbili su ovaj pogled, ali ne i Jeff Hawkins. Upravo na ovoj genijalnoj pretpostavci on je postavio svoju teoriju inteligencije. Ako povežete dijelove neokorteksa u odgovarajuću hijerahiju i u nju ‘izvana’ pustite patterne  – on će biti u stanju učiti o svom okolišu!

Zahvaljujući Vernonu Mountcastleu, Hawkinsova teorija inteligencije može objasniti neke dotada neobjašnjive fenomene poput fenomena Helen Keller – djevojke, koja i usprkos tomu što nije posjedovala dva temeljna čula percepcije vanjskog svijeta – vid i sluh – ipak mogla naučiti jezik i postati vrlo vješt spisatelj; drugim riječima, naglašava Hawkins, ‘mogla je biti inteligentna’.

Filozofske implikacije predloženih teorija su impozantne. Primjerice, jedna od njih može biti i da nema direktne percepcije stvarnosti. Naše znanje o svijetu odnosi se na model svijeta u našem mozgu izgrađen na patternima. Od pristiglih patterna, isti kortikalni algoritam stvara i zadržava vlastiti model svijeta u memoriji neokorteksa, a upravo memorija neokorteksa predstavlja našu narednu stanicu osvrta na ovu iznimnu knjigu, koja se, međutim, i dalje kreće u hipotetskim okvirima. Kada govorimo o memoriji neokortkesa, zapravo, govorimo o neokorteksu kao o nekoj vrsti memorijskog sustava. Stoga se sada možemo zapitati: na koji to način mozak pamti informacije?

Svibanj 2, 2014

Informacija i inteligencija

JEFF HAWKINS (with Sandra Blakeslee): On Intelligence

“Mogu li računala postati inteligentna? – Znanstvenici vjeruju da mogu; računala će postati inteligentna kad postanu dovoljno snažna u procesuiranju informacija. Ja ne mislim tako. Mozgovi i računala počivaju na temeljno različitim principima.”

Takvo pitanje postavio je i na njega odgovorio, na početku svoje knjige, Jeff Hawkins, jedna pomalo neoubičajena figura iz Silikonske doline, tvorac PalmPilot-a, osobnog digitalnog asistenta (Personal Digital Assistent – PDA), neobičnog proizvoda iz 1990-ih koji smo koristili s pametnim olovkama čačkajući njima (među prvima) po zaslonima osjetljivima na dodir. Ali osim informatičkih kompetencija, Jeff nudi još nešto – svoju zaluđenost stvaranjem ‘truly intelligent machines‘ na osnovi uvida u stvarnu prirodu inteligencije. Kao ‘zaguljenom’ funkcionalistu, Hawkinsu je dopušteno reći da se ‘biti čovjekom’ razlikuje od ‘biti inteligentnim’. (Inače, funkcionalizam tvrdi da um postoji u bilo kojem sustavu čiji konstituirajući dijelovi – neuroni, silikonski čipovi ili bilo što drugo – imaju uspostavljen pravilan uzročno-posljedični odnos među sobom. Drugim riječima, jedan atom dobar je kao bilo koji drugi, ako dobro obavlja svoju funkciju u molekularnom makeupu). Inteligencija se, međutim, ne zrcali u ponašanju, po mišljenju ovoga – informatičko-mozgovnog gurua, kako mnogi misle, nego u strukturi i načinu funkcioniranja našega mozga.

Zašto je teško otkriti kako mozak funkcionira? – Mnogi znanstvenici vjeruju da je mozak jako, jako komplicirana stvar. Ja ne mislim tako. Mislim da nas tom zaključku vodi nekoliko pogrešnih pretpostavki. Jedna od njih je vjera da se inteligencija definira inteligentnim ponašanjem.

Prisjetimo se što tvrdi biheviorizam? Ne možemo znati što se događa u mozgu – crnoj kutiji – ali to možemo zaključiti iz ponašanja jedinke koja ga posjeduje. Međutim, već se Eliza (poznati simulacijski program psihoterapeutske prakse umjetne inteligencije, smišljen kao šala), ozbiljno narugala bihevioristima. Oponašajući i ‘učeći’ iz predvidivih psihoterapeutskih ‘situacija’, primjerice, dijaloga pacijenata i psihoterapeuta, uspjela je zavarati mnoge i usprkos trivijalnosti na kojoj je počivala (ugrađenih uobičajenih odgovora psihoterapeuta).

Što je, onda, inteligencija, ako nije svodiva na ponašanje? – I tu Hawkins predlaže nešto odista novo, jednu vrlo privlačnu, intrigantnu ideju od koje vas moraju proći srsi, barem vas kojima je stalo do toga da otkrijete što stoji u pozadini ovoga našeg čuda misli koje rezultira onim što nazivamo inteligencijom ili inteligentnim ponašanjem, kako god. On predlaže da naš mozak, točnije naš neokorteks (neocortex) ili kora velikog mozga, zapravo koristi ogromnu količinu svoje memorije kako bi stvorio svoj model vanjskog svijeta. Sve što ste ikada naučili i znate o svijetu pohranjeno je u tom modelu. Nadalje, mozak koristi ovaj model kako bi predvidio buduće događaje… i to je ključno za inteligenciju. Inteligencija je uspješna predvidivost budućih događaja na temelju prethodno izgrađenoga (naučenoga?) modela svijeta. Analognu tomu, svoj okvir novog pogleda na inteligenciju prozvao je memory-prediction system.

Naravno, nakon uvida u srž glavne ideje knjige On Intelligence, u mozgu se roje nova pitanja. Na koji to način neokorteks stvara model svijeta i zašto baš neokorteks? Što je sa slikama, zvukovima, dodirima, gdje se oni nalaze u cijeloj stvari, jesu li realni ili postoje isključivo u našim glavama? Ova pitanja iziskuju i složene odgovore koje ću vam nastojati podastrijeti čim prije, svaki put kad se budem vraćao na ovu maestralnu knjigu od koje sam mnogo toga preuzeo i vjerojatno ugradio u svoj model svijeta, ako takav doista postoji u mom mozgu.

Premda se čini da je informacija u ovom osvrtu ostala pomalo postrani općeg razmatranja, to je samo privid. Svejedno, i ovaj pogled na tajne prirode, boga, svekoliku stvarnost, informaciju pretpostavlja u prvom redu svoje ‘predstave’. Način na koji informacije kolaju našim mozgom, procesuiraju se, raspoređuju u neuronske strukture od krucijalne je važnosti za ustrojstvo mozga i ‘božji dar s neba’ – inteligenciju.

Na osnovi izrečenog, hipotetska teorija informacijskog toka ‘ili-ti’ infoma lako konvergira s ovdje predloženom teorijom inteligencije, ili modela svijeta. Infomima, u obliku ‘znanja’, u našoj glavi, čini se, lako će biti prionuti uz ‘model svijeta’, svojevrsni ‘bazen znanja’ smješten u našemu mozgu, izgrađen/sastavljen od neurona i njihovih veza.

Francis Crick, autor članka o mozgu, specijalnog izdanja Scientific Americana iz 1979. koji je izvršio snažan utjecaj na Hawkinsa, mnogo godina kasnije objavio je knjigu The Astonishing Hypothesis u kojoj je iznio hipotezu da je um (mind) naprosto sastavljen od moždanih ćelija (neurona) mozga. “U hipotezi nije bilo nikakve magije – samo neuroni i ples informacija“, napisao je Hawkins. Vjerovat ćemo, barem neko, ako ne i svo vrijeme, da je tomu tako!

Travanj 5, 2014

Informacije, crne rupe… i ideja holografskog univerzuma

BRIAN GREENE: Holografski univerzum // SKRIVENA STVARNOST

Zamislite da netko pokuša postaviti teoriju na teoriji kojoj čak ni jedan Einstein nije vjerovao; još gore, postaviti je na njenom, slobodno to mogu reći, beznačajnijem dijelu, koji na nevjerojatan način potkrepljuju eksperimenti – detekcijom jedne, istinski misteriozne, tipično kvantne, pojave…  što biste na to rekli? Možda ne biste bili spremni povjerovati u nju… Ipak, tako je zanosna da joj ne možete odoljeti… Naravno, teorija o kojoj se radi postavljena je na kvantnoj teoriji, a misteriozne pojave su kvantne fluktuacije… događaju se u vakuumu, u naizgled praznom prostoru i manifestiraju neobjašnjivim iskrsavanjem i poništavanjem čestica suprotnih naboja…. Baš takvu teoriju postavio je Stephen Hawking, fizičar s Cambridge-a, razmatrajući kvantne fluktuacije u blizini, inače, svog omiljenog predmeta proučavanja – crnih rupa. Hawking se zapitao što se događa s kvantnim fluktuacijama u području samog obzora crne rupe, granice, koju kad pređete, bivate nepovratno usisani od ‘singularnog napasnika’, te dao sljedeći odgovor:

Ako se čestice oblikuju dovoljno blizu crne rupe, neke budu usisane, a neke odjezde u svemir… Čestice s pozitivnom energijom izlijeću u vanjski prostor… pa udaljenom promatraču ta paljba može izgledati kao zračenje… Međutim, masa crne rupe smanjuje se kada usisava [preostalu] negativnu energiju. Dakle, kada se masa crne rupe smanjuje, crna rupa emitira postojani tok zračenja!

To zračenje dobilo je naziv Hawkingovo zračenje, te je svog pronalazača među zajednicom fizičara proslavilo preko noći. Na osnovi temperature, koja je izravna posljedica zračenja i količine zračenja, Hawking je sada bez problema mogao izračunati i količinu entropije… Rezultat do kojega je došao bio je vrlo neobičan: količina entropije bila je proporcionalna površini crne rupe… Hawking se tu nije zaustavio. Uzeo je obzor događaja odnosno površinu crne rupe i podijelio ga tako da je dobio mrežu kvadratića u kojoj dužina svakog kvadratića odgovara vrijednosti Planckove duljine (10-33 centimetara), najmanjoj smislenoj duljini za koju je fizičar uvjeren da još uvijek poštuje fizikalne zakone. Nakon toga, “matematički [je] dokazao da je entropija crne rupe jednaka broju takvih kvadratića koji se mogu smjestiti po njezinoj površini. Izraženo jezikom skrivenih informacija, možemo reći da svaki takav kvadratić prenosi jedan jedini bit informacije – što odgovara na pitanja da-ne koja opisuju neki vid makroskopske strukture crne rupe, premda ne znamo koji.” Ali ovdje se čini puno važnijim odgovoriti na sljedeće pitanje: zašto bi količina informacija morala biti određena površinom crne rupe?

Mnoge je iznenadila činjenica da je skladište informacija unutar crne rupe određeno brojem kvadratića Planckove veličine koji prekrivaju njezinu površinu, a ne brojem kockica Planckove veličine koje ispunjavaju njezin prostor! Bila je to prva naznaka holografije – predodžbe da je kapacitet pohrane informacija određen površinom nekog područja, a ne unutrašnjim prostorom koji ta površina omeđuje.

Ali tu se postavlja pitanje: znači li to da se informacije uistinu skladište na površini crne rupe? Odgovor ovisi o tome promatrate li crnu rupu izvana ili iznutra. Prema općoj teoriji relativnosti padnete li u crnu rupu, vi nećete znati da vam se to dogodilo. To je pogled iznutra. Izvana gledano, vi padate kao žrtva Hawkingova zračenja, svojevrsne “užarene korone” koja okružuje obzor događaja crne rupe. Patrick Susskind i još neki fizičari vjeruju da su oba opisa jednako vrijedna.

[Uzmimo sada] bilo koji objekt, npr. Kongresnu knjižnicu… [ili bilo koji drugi prostor] i zamislimo da smo to područje dodatno izdvojili okruživši ga nekom imaginarnom sferom… Koliko se informacija maksimalno može pohraniti u tom prostoru? Zamislite da u taj prostor započnete dodavati materiju, s ciljem povećanja njegova kapaciteta pohrane informacija. Možete umetnuti memorijske čipove velikog kapaciteta, tvrde diskove, ogromnu količinu knjiga ili gusto nakrcane Kindleove. Budući da čak i sirova materija prenosi informacije (jesu li molekule pare ovdje ili ondje?), svaki zakutak prostora možete natrpati onolikom količinom materije koliko je uspijete nabaviti. Sve dok ne dosegnete kritičnu točku. U jednom trenutku prostor će biti toliko krcat da će se njegova unutrašnjost, dodate li makar i jedno jedino zrnce pijeska, zacrniti a cijelo područje pretvoriti u crnu rupu. Kada se to dogodi, igra je završena… Ako dodavanjem materije pokušate povećati kapacitet pohrane informacija, crna će rupa reagirati tako što će… narasti [a to ne želite, jer vas zanima maksimalna količina informacija koja može stati u točno određenom prostoru].

Ako je entropija takve crne rupe jednaka površini koja okružuje prostor onda vrijedi:

Količina informacija koju sadrži određeni prostor, pohranjena u bilo kojem objektu bilo kojeg oblika, uvijek je manja od površine koja okružuje to područje (mjereno u kvadratnim Planckovim jedinicima)… [Ono što je važno je da se] ta analiza može primijeniti na svaki prostor, bez obzira [radi li se o crnoj rupi ili ne].

[Patrick] Susskind i [Gerard] ‘t Hooft naglasili su da bi ova lekcija trebala biti općenita: budući da informacije koje bi trebale opisivati fizikalne pojave unutar bilo kojeg danog područja mogu biti u cijelosti kodirane podacima na površini koja okružuje to područje, opravdano je zaključiti da se upravo na toj površini doista događaju fundamentalni fizikalni procesi. Nama bliska trodimenzionalna stvarnost, predlažu ovi domišljati mislioci, u tom bi se slučaju mogla usporediti s holografskom projekcijom tih udaljenih dvodimenzionalnih procesa.

Koliko god bila privlačna i u naravi matematički konzistentna teorija, inicijalna ideja o holografskom univerzumu ostaje problematična. Ipak, uvjerili smo se koliko važnu ulogu mogu imati informacije u području izvan svoje domene. I ne samo to, to područje koje ih želi okruniti za kralja stvarnosti nije tek neko od mnogih, već sama kraljica stvarnosti – fizika!

Ožujak 7, 2014

Entropija i informacija – uvodno razmatranje…

BRIAN GREENE: Holografski univerzum // SKRIVENA STVARNOST

skrivena_stvarnostZašto je ideja holografskog univerzuma važna s informacijskog gledišta? Zato što se u njenoj srži nalazi upravo informacija! Kako je to moguće, objasnit će nam fizičar s MIT-a Brian Greene čije su popularno-znanstvene uspješnice o svemiru učinile da se njegove najskrovitije tajne čine razumljivima i čitateljima koji nisu studirali fiziku ili astronomiju.

Poglavlje svoje knjige o ideji holografskog univerzuma posvećeno, između ostalog i informaciji, Brian Greene započinje prisjećanjem na susret s pokojnim Johnom A. Wheelerom, teorijskim fizičarem, poznatim po izjavi It from bit:

“Jednom prilikom tijekom zajedničkog ručka na Princetonu 1998., pitao sam ga [Johna A. Wheelera] koja će tema po njegovu mišljenju dominirati fizikom u sljedećih nekoliko desetljeća. Pognuo je glavu, što je često činio tih dana pa se činilo da se njegovo ostarjelo tijelo umorilo od tereta tako impresivna intelekta. No tišina je potrajala toliko da sam se morao zapitati ne želi li on odgovoriti na pitanje ili je pak zaboravio da sam ga uopće nešto pitao. Tada je polako uspravio pogled i izgovorio jednu, jedinu riječ: “Informacije.”

Wheeler je predlagao da bi stvari – materija i zračenje – trebali biti od sekundarne važnosti, kao puki nosioci mnogo apstraktnijeg i temeljnijeg entiteta: informacije. On nije tvrdio da su materija i zračenje nešto iluzorno već je samo smatrao da bi se trebali promatrati kao materijalne manifestacije nečega još elementarnijeg.”

Prema takvu stavu, informacija bi bila ugrađena u “plan i nacrt projekta”, a svemir bi se iz te perspektive mogao promatrati kao procesor informacija.

S informacijom usko povezan pojam entropije, Greene definira kao “mjeru procijepa u informacijama između podataka koje imamo (ukupnih makroskopskih karakteristika) i onih koje nemamo (specifičan mikroskopski raspored sustava)”. Drugim riječima, “entropija je mjera mogućih promjena sastavnica nekog entiteta/sustava koje s makroskopskog gledišta prolaze nezapaženo.” Moram priznati da nigdje drugdje nisam naišao na u toj mjeri jasno i precizno objašnjenje ovog inače zakučastog pojma, poznatog iz područja termodinamike koji se javlja i kao jedan od glavnih protagonista Drugog zakona termodinamike. O entropiji, osim na Wikipediji, možete čitati i na sjajnom blogu Nagovor na filosofiju na kojem je njezin autor o spomenutom pojmu zapisao:

Entropija je zapravo … jedna funkcija broja mogućih mikroskopskih stanja koja ostvaruju dano makroskopsko stanje. Smjer termodinamičkih procesa je prema onom makroskopskom stanju koje je vjerojatnije, i to zato što je ostvarivo na više različitih mikroskopskih načina… Smjer termodinamičkih procesa je, dakle, prema većoj entropiji.

Da bi pojam entropije doveli u vezu s pojmom informacije, Brian Greene je posegnuo za očekivanim i pomalo ofucanim primjerom iz područja vjerojatnosti i statistike – bacanjem novčića. Zašto kažemo da je entropija tisuću novčića, razbacanih po podu, visoka? Zato što postoji mogućnost da načinimo veliki broj mikroskopskih radnji s novčićima (recimo, da ih okrenemo na suprotnu stranu), a da s makroskopskog gledišta to prođe nezapaženo. Gdje su tu informacije? Informacije su naravno sadržane u odgovarajućem popisu tipa ‘glava-pismo’ kojim želimo zapamtiti stranu na koju je pojedini novčić pao odnosno na koju je okrenut.  Međutim, upravo na tom mjestu Greene ubacuje u brzinu i rezonira na briljantan način za možda najdublje razumijevanje prirode informacije uopće

[Odgovarajući popis glava-pismo] … to bi mi samo pokazalo detalje konfiguracije… Zanima me koliko je informacija sadržano na tom popisu? Polako se počinjete premišljati. Što je zapravo informacija i što doista čini. Vaš je odgovor jednostavan i izravan. Informacija odgovara na pitanja [tipa DA-NE]. Godine i godine istraživanja matematičara, fizičara i informatičara precizirale su ovaj zaključak. [Nadalje] podatak koji može odgovoriti na jedno pitanje tipa DA-NE naziva se bit… Zapravo, riječ je o kratici za [binarni broj] (binary digit) koji može označavati 1 ili 0 kao brojčane oznake za odgovore DA i NE.

Ako entropiju sada definiramo, ne kao mjeru, već konkretan broj mogućih promjena sustava, u ovom slučaju sustava ’tisuću novčića’, koji ne dovode do značajnije izmjene njegovog makroskopskog izgleda, shvatit ćemo da taj broj iznosi točno 1000 jer se zapravo radi o kaotičnom sustavu, sustavu u kojem se mikroskopske promjene uopće ne zamjećuju. Međutim i broj stavki na popisu kojim smo željeli zabilježiti ishod svakog padanja novčića (glava ili pismo) također iznosi 1000. Primjećujemo da su vrijednosti entropije i količine (skrivenih) informacija u sustavu ’tisuću novčića’ – jednake. To nije slučajno. Na neki način, zaključuje Greene, možemo reći da je entropija mjera sadržaja skrivenih informacija u sustavu.

Ožujak 19, 2013

Uvod u odnos čovjeka i stroja

LUCIANO FLORIDI: The Philosophy of Information (2011)

floridi_philosophy_of_informationU odnosu na uvodnu anegdotsku opasku Marka Burgina u svojoj knjizi posvećenoj informaciji o “novom” Sfinginom pitanju koje danas glasi što je to informacija, ništa manje dramatično ni Luciano Floridi ne započinje svoju Filozofiju informacije, knjigu kojom je, čini se, nastojao supsumirati svoj desetogodišnji rad na istoimenom području. Svoj uvod započinje pozivanjem na citat Aarona Slomana iz 1978. objavljenog u knjizi The Computer Revolution in Philosophy, pomalo prijetećeg prizvuka upućenog, rekli bi, svim današnjim filozofima:

1. Današnje filozofe trebalo bi optužiti za profesionalnu nesposobnost (professional incompetence) ako nisu (ili ne žele biti) uključeni u praćenje općeg smjera razvoja umjetne inteligencije (artifical inteligence – AI).

2. Ako u poučavanjima filozofije uma, epistemologije, estetike itd. danas nisu uključeni relevantni aspekti umjetne inteligencije, to bi bilo kao da se današnja fizika poučava bez kvantne teorije!

Eto, pa se vi, današnji filozofi, zamislite! Naravno, te 1978. još uvijek je vladao optimizam u pogledu ishoda razvoja umjetne inteligencije od koje se puno više toga očekivalo nego što se na kraju dobilo, tako da je entuzijazam vremenom bitno splasnuo, pogotovo nakon očiglednog zastoja u razvoju područja koje je uslijedilo tijekom 1990-ih. Ali ovdje je bitno naglasiti važnost umjetne inteligencije na motivaciju filozofa uključenih u promišljanje sasvim novoga odnosa koji je izronio iz nepresušnog vrela mogućnosti svijeta koji nas okružuje – onoga između čovjeka i stroja. U tom odnosu neprijeporno leži barem dio odgovora na postavljeno pitanje s početka ove pisanije. Drugi dijelovi odgovora možda se nalaze u nekim drugim odnosima, možda čovjeka i informacije ili informacije i stroja? Ako bismo bili u pravu, time bismo uspjeli zatvoriti svojevrstan krug uključivši u njega tri ključna pojma, ali, čini se, samo jedan krug od bezbroj njih…

Veljača 13, 2013

K općoj teoriji informacije

MARC BURGIN: Theory of information: Fundamentality, Diversity and Unification (2010) [Uvod]

Cijelu ovu avanturu koja se ogleda u potrazi za ‘svetim gralom’ informacijske znanosti – odgovorom na pitanje što je (to) informacija – započinjem kratkim osvrtom na knjigu, za temu, krucijalnoga naziva: Theory of information: Fundamentality, Diversity and Unification Marca Burgina.

Ime Marka Burgina nepoznanica je u svijetu iz kojega dolazim, svijetu informacijskih stručnjaka društvene provenijencije. Pa ipak, kad sam već nabasao na njegovu knjigu, nije mi dugo trebalo da pronađem i ‘svijet’ kojemu je pripadao – časopis Information kojeg objavljuje Multidisciplinary Digital Publishing Institute (MDPI), zajedno s pregršt drugih časopisa, koje očigledno povezuje činjenica da u sebi imaju nešto ‘multidisciplinarno’. Zašto počinjem osvrtom na autora koji ne dolazi iz klasičnoga područja informacijskih znanosti? Ponajprije zato, jer mi se čini (barem prema sadržaju knjige) autorom koji je, na iznimno sveobuhvatan način, obradio škakljivo i neugodno široko područje teorije informacije. Sâm piše (u mome slobodnome i nikako kompetentnome prijevodu):

Cilj knjige je pronaći putove za sintetiziranje razumijevanja fenomena informacije u izgradnji opće teorije informacije, enkapsulirajući ostale, postojeće informacijske teorije u jedinstven teorijski sustav/okvir.

I onda, koje su to ‘ostale, postojeće’ informacijske teorije? Nabrajam ih redom kako su zauzele naslove poglavlja knjige: Shannonova statistička teorija informacije (zapravo, nama znana pod nazivom ‘matematička teorije komunikacije’), semantička teorija informacije, algoritamska teorija informacije, pragmatična teorija informacije (koja uključuje kako Mazurovu kvalitativnu teoriju informacije tako i Marschakovu ekonomsku informacijsku teoriju, stoga, možda nije loša ideja ovo poglavlje sebi prevesti kao ekonomska teorija informacije) te, na koncu, dinamička teorija informacije. Sve teorije uključuju iznimno zanimljive (barem po svome nazivu) koncepte poput informacijske algebre (information algebra), informacijske geometrije (information geometry) te informacijske logike (information logic); da spomenem samo neke. Ali primarni je cilj knjige, ponavljam Burginove riječi, ukomponirati nabrojene teorije u jedinstveni teorijski okvir. Kako mu je to pošlo za rukom, ostaje za vidjeti.

Autor ne bježi od toga da informaciju najradije promatra kroz prizmu matematičkih struktura, međutim, i naglašava kako se knjiga može čitati i bez osvrtanja na sve te silne formule koje obično stoje u pozadini informacijskih teorija. U tom slučaju, knjiga nam dopušta razinu čitanja koja omogućava barem razumijevanje smisla izloženih teorija. Tu razinu Burgin eksplicite naziva prvom. Već samo razumijevanje osnovnih formula dovodi nas na drugu razinu. Konačno, treća razina nudi najveći potencijal knjige: razumijevanje izloženih teorija u potpunosti u matematičkom duhu: u formi odgovarajućih propozicija i teorema.

Osim toga, autor knjigu započinje prigodnim anegdotskim upozorenjem. Mnogima je poznat starogrčki mit o Sfingi, mitskom biću koje je stanovnike grčkoga grada Tebe mučilo pitanjem: Što ujutro hoda na četiri noge, u podne na dvije (noge), a navečer na tri (noge)? Ako putnik ili građanin Tebe nije znao odgovor Sfinga bi ga usmrtila i bacila u ponor pod sobom. Naposljetku, Kralj Edip ponudio je pravilan odgovor i izbavio Tebećane od prokletstva. Kazao je: to je čovjek, zato što u ‘jutru svoga života’ puže ‘na četiri noge’, ‘u podnevu’ odnosno zrelom dobu, hoda na dvije, a u starosti služi se štapom kao svojom trećom nogom. Isti čas Sfinga se sama strmoglavila u ponor. No, po Burginu, današnje Sfingino pitanje glasi što je to informacija, i ovoga puta ono je upućeno ne samo građanima jednoga grada (ili putnicima koji su se namjerili u nj), nego svima nama koji se služimo informacijskom tehnologijom i tako prešutno prihvaćamo činjenicu da živimo u informacijskom dobu. Ako na njega uskoro ne ponudimo svoj odgovor, upozorava Burgin, moderna Sfinga – informacijska tehnologija – možda će nas strmoglaviti u ponor kako je to činila mitska Sfinga s onima koji nisu znali odgovor na njezinu zagonetku. Znači, nema druge, nego da među nama potražimo našega Edipa!

Blog pokreće Wordpress.com.

%d bloggers like this: