O I n f o r m a c i j i : informacija u teoriji

Svibanj 5, 2018

O informativnosti: informacija kao svojstvo sadržaja/podatka

U Shannonovoj matematičkoj teoriji komunikacije ne govori se o tome što informacija jest, nego u kojoj ‘količini’ i na koji način je prenosimo krajnjem primatelju u komunikacijskom procesu – čest je komentar koji dolazi iz pera teoretičara društvenih i humanističkih znanosti. Zbog toga, nastavljaju oni, Shannonova teorija ne zaslužuje da je se nazove ‘teorijom informacije’ – epitetom koji je stekla u drugim znanstvenim područjima, mahom prirodnim i tehničkim znanostima – nego samo još jednom teorijom komunikacije. Po društvenjacima i humanistima, informacija je subjektivna, ona je konstrukt društvenih praksi, a nikako nekakav objektivan fenomen koji postoji izvan čovjeka, a pogotovo ne u telefonskoj žici.

Međutim, ono što Shannonovu teoriju čini iznimnom – s koje god strane na nju gledali – ogleda se u tome što je pojam informacije kvantificirala pridružujući joj dotad nepoznatu veličinu koja se putem odgovarajućih probabilističkih formula mogla izračunati – njezinu količinu. Količina informacije započela je izražavati informativnost sadržaja koji se prenosi komunikacijskim kanalom. To što ju je Shannon nastojao interpretirati na različite načine, povezujući ju s pojmovima neizvjesnosti (uncertainity) i entropije (enthropy) – od sekundarnog je značaja. Informacija u kontekstu komunikacijskog procesa, kako ga je on opisao, vezana je u prvom redu uz pojam informativnosti (informativeness). U praktičnom smislu, mogli bismo reći: informacija je samo onaj sadržaj koji je informativan za primatelja, a ne sâm sadržaj kao takav.

U skladu s tim, informacija postaje onaj vid odabrane poruke/sadržaja iz unaprijed definiranog skupa poruka/sadržaja, koji, kopiran iz svoje ‘statične’ prirode podatka, zahvaljujući svom informacijskom potencijalu spram primatelja, dospijeva u njegovu strukturu znanja. Drugim riječima, u uobičajenom smislu, informacija – ‘po sebi’ – odnosno u sadržajnom smislu, je podatak.

Iako pojavu pojma podatka koji se odnosi na sve poruke/sadržaje iz unaprijed definiranog skupa poruka/sadržaja u raspravi imamo zahvaliti upravo Shannonu, on ga u svom radu, kako znamo, ne spominje. Međutim, tek podatak definiran u naznačenom smislu otvara put prema razumijevanju istinske prirode informacije koja se danas pokazuje protivna uobičajenom shvaćanju.

*

*  *

Najprije, možemo se zapitati, na što je Shannon konkretno mislio kada je napisao: ‘odabrana poruka/sadržaj’ ili u našoj interpretaciji – podatak? U najširem smislu, radi se o dokumentaciji odabranog djelića stvarnosti. U skladu s tim, u komunikacijskom procesu nikada nije riječ o samoj stvarnosti, kolopletu fizičkih i kemijskih procesa, već o onome što se o njoj može reći, nacrtati ili otpjevati; općenito, izraziti i prenijeti na neko drugo mjesto. Kada to ne bi bio slučaj, na pitanje ‘što je drvo?’ trebali bismo odgovoriti (na neki način) samom njegovom tvari, ‘drvetom’, materijalom od kojega je sačinjeno, a ne jezikom ili pismom. Međutim, to nikada nismo u stanju učiniti. Zbog toga, nikada i ne možemo saznati kakve su stvari ‘po sebi’. Jedino što možemo je ponuditi ljudski pogled na zbilju; izražavati se simbolički, a u konkretnom slučaju odgovoriti prikladnom uporabom određenog broja riječi koje će za nas predstavljati definiciju drveta.

Bit podatka vezana je uz njegov kôdni sustav. Slobodno možemo reći da nema podatka koji nije (en)kodiran, bilo u slovu, broju ili nekom drugom znaku. PODACI NISU STVARI; oni ih samo predstavljaju/reprezentiraju pomoću odgovarajućeg kôdnog sustava.

Bilo kako bilo, premda se možemo složiti s postavkom da je informacija u svojoj statičnosti – podatak, još uvijek nismo sigurni je li informacija i dobro formiran podatak sa značenjem (kao što to predlažu neki istraživači poput Luciana Floridija)…? Ne odnosi li se informacija prije na njegov potencijal za ugradnju u strukturu znanja primatelja odnosno izmjenu iste, nego nešto što defacto zaprima značenje izvan konteksta? Računica je i ovdje jednostavna, premda su joj trebale godine da se dovrši: informativnijim postaje onaj ‘iskomuniciran’ podatak koji je u strukturi znanja primatelja (zadanom kontekstu!) u stanju uspostaviti veći broja relacija s drugim, prethodno pristiglim, odabranim, porukama/sadržajima ili podacima… A tek relacije kao takve u strukturi znanja mogu stvoriti značenje.

Na ovaj način, informacija je izgubila svoju materijalnost, sadržajnost, te je postala svojstvom istog tog sadržaja… Na neki način, informacija je postala ključno svojstvo podatka – sama (njegova) informativnost…!

Informacija se, dakle, u konačnici, razaznaje u specijalnom svojstvu samog sadržaja, odnosno podatka, konkretno, njegovoj informativnosti za konkretnog primatelja a ne u samom tom sadržaju koji se u komunikacijskom procesu prenosi. Informacijom se naravno još uvijek može nazivati i onaj informativni sadržaj koji se prenosi u komunikacijskom procesu, ali samo ako se on odnosi na podatak – ali ne sa značenjem – nego sa svojevrsnim potencijalom za izmjenu strukture znanja primatelja.

No, ako je informacija samo relativno svojstvo sadržaja u odnosu na primatelja, a ne sâm taj sadržaj, kako smo ovdje pokazali, nismo li, onda, nehotice dokazali i da je subjektivna…? Ako bi to bio slučaj, onda bismo morali izazvati čuđenje teoretičara iz društvenih i humanističkih znanosti koji su najmanje očekivali da će potvrda subjektivne prirode informacije doći iz jednoga, ovakvog određenja informacije kao relativnog svojstva informativnosti podatka spram primatelja, a ne samog podatka kao takvoga… Ali čuđenja nikada previše!

Oglasi

Veljača 27, 2018

O DIKW hijerarhiji

BORIS BOSANČIĆ: DIKW-hijerarhija: za i protiv (2017)

Je li DIKW hijerarhija (engl. Data-Information-Knowledge-Wisdom hierarchy) doista može pružiti osnovu za čvrsto utemeljenje informacijskih znanosti? Ili se doista radi samo o bajci (fairytaile), kako ju je okarakterizirao Rafael Capurro, ugledni informacijski stručnjak u istraživanju Chaima Zinsa 2007? Te iste 2007., objavljen je i trenutno najcitiraniji pregledni članak o DIKW hijerarhiji, The wisdom hierarchy: representations of the DIKW hierarchy Jeniffer Rowley. Po pitanju DIKW hijerarhije ne smije se zaobići ni kritički rad Martina Frickéa iz 2009. The knowledge pyramid: a critique of the DIKW hierarchy. Ako je DIKW hijerarhija samo simbol odnosno metafora procesa stjecanja znanja, zašto je onda statična i zašto se uporno zamišlja u obliku piramide, koja je sagrađena od čvrstih i de facto nepromjenjivih slojeva podatka, informacije, znanja i mudrosti?  Ako je pak i model – je li to dovoljno da se putem nje napokon izvrši čvrsto utemeljenje informacijskih znanosti za kojim dugi niz godina tragaju mnogi teoretičari područja? To su samo neka od pitanja koja su postavljena u mojemu radu objavljenom u Vjesniku bibliotekara Hrvatske (Svezak 60 Br. 2-3, 2017) znakovita naziva: DIKW – hijerarhija: za i protiv.

Koncept DIKW-hijerarhije osmišljen je kako bi oslikao odnos između danas nezaobilaznih pojmova u znanstvenom i praksiološkom diskursu – podatka, informacije, znanja i mudrosti.

DIKW-hijerarhija tumači se na strukturnoj, funkcionalnoj i simboličnoj razini te se smatra kako simbolom tako i modelom. Nebrojeni su nazivi pod kojima se javlja u literaturi: informacijska hijerarhija ili piramida, hijerarhija znanja ili piramida znanja, piramida mudrosti ili hijerarhija mudrosti, a u posljednje vrijeme sve češće se rabi i izraz – DIKW piramida.

Očito je da naziv DIKW-hijerarhije varira od područja do područja s obzirom na važnost svakog pojedinog pojma u okviru hijerarhije koji promatrano područje drži predmetom svog proučavanja (str. 3).

O DIKW-hijerarhiji pisali su M. Zeleny, R. Ackoff, G. Belinger, A. Liew i J. P. Carlisle iz područja upravljanja znanjem te J. Rowley, M. Frické, C. Zins i L. Ma iz knjižnične i informacijske znanosti. Zanimljivo, a kako to tvrdi H. Cleveland:

…prvo spominjanje DIKW-hijerarhije porijeklo vuče iz stihova poznatog američkog pjesnika T.S. Elliota iz pjesme The Rock objavljene 1934., koji glase:

Gdje je život koji smo izgubili u življenju?
Gdje je mudrost koju smo izgubili u znanju?
Gdje je znanje koje smo izgubili u informacijama?

John Minger i Craig Standing, teoretičari područja informacijskih sustava, koji su 2017. objavili vrlo važan rad o pojmu informacije, svakako bi ovim stihovima pridodali i sljedeći stih (kao što su to i učinili u svom radu):

Gdje su informacije koje smo izgubili u podacima?

Bilo kako bilo, Ackoffov rad iz 1989. – bez obzira na kontroverzu vezanu uz ne spominjanje tematski vrlo sličnog rada M. Zelenyja koji je prethodio njegovu radu – uzima se kao inicijalni rad od šire zajednice koji je DIKW hijerarhiju uveo u znanstveni diskurs.

Na ovome mjestu međutim valja skrenuti pažnju na još jedan rad koji se može povezati uz porijeklo DIKW-hijerarhije, a koji se u dosadašnjoj literaturi ne spominje. To je rad Information science in librarianship Roberta M. Hayesa iz 1969. objavljen u časopisu Libri u kojemu se, možda i po prvi put, eksplicitno razmatraju odnosi srodnih pojmova podatka, informacije, znanja i mudrosti. Za Hayesa, podaci su sirova građa (engl. raw material), informacija je rezultat obrade podataka, a znanje su akumulirani podaci (engl. accumulated data). Mudrost je pak zasebna subjektivna kategorija. R. Hayes ističe četiri vrste obrade podataka koji su važni sa stajališta proizvodnje informacija: prijenos podataka (engl. data transmission), odabir podataka (engl. data selection), organizacija podataka (engl. data organization) i analiza podataka (engl. data analyses).32 S obzirom na činjenicu da je rad objavljen u časopisu knjižničarske provenijencije i da u najužu vezu dovodi informacijsku znanost i knjižničarstvo, pomalo čudi to što u literaturi nije prepoznat kao jedno od mogućih ishodišta za raspravu o utemeljenju obiju disciplina putem DIKW-koncepta (str. 8).

Interpretacije DIKW-hijerarhije, bilo da dolaze iz područja upravljanja znanja ili knjižnične i informacijske znanosti, bitno se razlikuju po svojoj raznovrsnosti. Ipak, među njima valja istaknuti interpretaciju Jenifer Rowley koju i moji studenti moraju naučiti za ispit u okviru kolegija Informacija u teoriji:

  • Podaci se koriste kao ulazi (engl. input) za stvaranje informacija, informacije za gomilanje znanja, a znanje za ovladavanje mudrošću.
  • Podataka je u količinskom smislu mnogo više nego informacija, informacija mnogo više nego znanja, a znanja više od mudrosti.
  • DIKW-hijerarhija mnogo je sigurnija i stabilnija ako ima širu bazu, odnosno sloj podataka.
  • Mudrost je moguće dostići jedino ako se u dovoljnoj mjeri procesiralo podatke, informacije i znanje, s tim da procesiranje započinje podacima.

Međutim je li takav pogled na odnos pojmova podatka, informacije i znanja održiv, pita se C. Zins u studiji Knowledge Map of Information Science, u kojoj mu putem metode Delphi polazi za rukom dokumentirati 130 definicija podataka, informacija i znanja 45 stručnjaka iz područja knjižnične i informacijske znanosti. C. Zins uočava da sva tri fenomena, odnosno koncepta nesumnjivo međusobno koreliraju, ali u isto vrijeme zaključuje da je priroda njihova odnosa sporna, kao što je to, uostalom, i njihovo značenje. Drugim riječima, u mnogim temeljnim pitanjima koja se tiču fundamentalnih pojmova informacijske znanosti DIKW-hijerarhija nije od pomoći u tom obliku. Istog je mišljenja i R. Capurro koji u svojstvu sudionika Zinsova istraživanja pojmove podatka, informacije i znanja smatra nesvodivima, a samu DIKW-hijerarhiju [kao što smo to već i naveli] proglašava bajkom (engl. fairytale) (str. 13).

Možda se najzanimljivijom u radu čini britka kritika DIKW-hijerarhije Martina Frickéa koji joj ne ostavlja puno nade:

Za M. Frickéa jedno od središnjih pitanja u svezi s DIKW-hijerarhijom jest pitanje istine. Premda je svjestan toga da je naše znanje pogrešivo (engl. fallible), zbog čega podaci i informacije nikada ne mogu u potpunosti udovoljiti zahtjevu da budu istiniti, M. Frické tvrdi da bi barem podaci trebali biti istiniti. Jer neistiniti, pogrešni podaci uopće nisu podaci! Čini se da strogoća pristupa M. Frickéa proizlazi iz njegova pozivanja na operacionalizam, pristup prema kojem “moramo biti apsolutno sigurni što pod čime mislimo i apsolutno sigurni koje su naše izjave u vezi s time istinite.”

Nastavljajući svoju kritiku DIKW-hijerarhije, M. Frické tvrdi da ona implicira shvaćanje po kojemu su svi podaci ujedno i informacije. Međutim jasno je da postoje informacije koje prethodno nisu “morale” bili podaci. Drugim riječima, postoje informacije koje se ne mogu izraziti, odnosno samo zaključiti iz podataka, kao što prejudicira DIKW-hijerarhija. Za M. Frickéa to predstavlja “središnju logičku pogrešku” DIKW-piramide. Logičku, zato što se navedene informacije, koje prethodno “nisu bili podaci”, generiraju zaključivanjem putem logike prvog reda, dok se podaci izražavaju tzv. Popperovom egzistencijalno-konjunktivnom logikom (engl. existential-conjunctive logic – EC logic) koja se nalazi na nižoj razini apstrakcije od logike prvog reda. Primjerice činjenice da se Zemlja okreće i kruži oko Sunca za M. Frickéa su informacije, a ne, barem u većini slučajeva, podaci.

Ali kad bi mu netko spočitnuo da se u ovom slučaju radi o znanju, a ne o informaciji, M. Frické priznao bi da mu se čini kako su informacije i znanje sinonimi, odnosno, štoviše, da se “znanje i informacije urušavaju jedno u drugo” (str. 15).

Na osnovi iznesenoga, u radu se razlikuju tri kritike DIKW hijerarhije:

  • kritika logičkih pretpostavki DIKW-hijerarhije i modela (R. Capurro, M. Frické)
  • kritika epistemoloških pretpostavki DIKW-hijerarhije i modela (Lai Ma)
  • kritika simboličnog prikaza i metaforične interpretacije DIKW-hijerarhije kao piramide.

U posljednjem dijelu rada razmatra se “simboličnost i metaforičnost koncepata DIKW hijerarhije”.

Simbol piramide ili trokuta, na koji je oslonjen DIKW-model, zadržat će dakle svoje prvotno značenje i nakon što na njega prenesemo značenje konstrukcije koja odražava konceptualni odnos DIKW-pojmova. Sada se ponovno može postaviti pitanje što DIKW-piramida kao takva simbolizira. Koncepti podataka, informacije, znanja i mudrosti u DIKW-modelu ponajviše će nas asocirati na određen način poimanja svijeta. Ako već nešto može simbolizirati, DIKW-piramida može simbolizirati način stjecanja znanja o svijetu kojim smo okruženi. Naša spoznaja uvijek počiva na podacima i doseže svoj vrh u mudrosti.

Međutim očito je da DIKW-piramida zbog svoje “statičnosti” i pretjerano naglašene strukturiranosti nije u mogućnosti dati prihvatljivo objašnjenje vlastite simbolike kao procesa stjecanja znanja, iako na njega najprije asocira.

U skladu s tim, u radu Information in the knowledge acquisition process, objavljenu 2016., predlaže se dinamična verzija DIKW-modela. DIKW-hijerarhija predstavljena je metaforom “stabla znanja” koje je uronjeno u “brijeg podataka” i kojim kola “informacijski sok” koji dopire iz “zemlje podataka”.

Rad završava opisom “stabla znanja” – odnosno prijedlogom novog dinamičkog oblika DIKW-hijerarhije koji simbolizira proces stjecanja znanja kao aktualnog problema informacijskih znanosti a o kojemu smo već pisali na jednom drugom mjestu

Znakovito je i to što epistemolozi nisu u dovoljnoj mjeri posvetili pozornost DIKW-konceptima u svom području te se čini da je sudbina DIKW-hijerarhije neizvjesnija no ikad. Hoće li ona u potpunosti nestati s pozornice teorijskih konstrukata obaju područja – područja upravljanja znanjem te knjižnične i informacijske znanosti – i više-manje nastaviti egzistirati u tom obliku ili će se izmijeniti u konstrukt koji će, na temeljima prihvatljivijim od postojećih, jamčiti utemeljenost obaju područja – ostaje otvoreno. Ovaj rad prilog je u potrazi za odgovorom na to pitanje.

Radu možete pristupiti s mrežnih stranica Vjesnika bibliotekara Hrvatske >> ovdje!

Prosinac 22, 2016

Matematičko-statistička teorija informacije (Matematička teorija komunikacije C. E. Shannona): uvod

CLAUDE E. SHANNON: The mathemtical theory of communication (1948)

Koliko nas, koji dolazimo izvan prirodnih i tehničkih znanosti a koji danas pišemo o informaciji nastojeći proniknuti u njenu prirodu, razumijemo Shannonov u načelu matematički rad? Vjerujem da nas je vrlo malo. Ako smo u tome i umješni poput Paula Cantora (Cantor 2009), teško da bi se složili s postavkom kako nam jednadžbe prijenosa diskretnih i kontinuiranih signala mogu pomoći da dođemo do široko prihvaćenje definicije informacijskog fenomena u svim područjima znanosti. Većina profesora iz informacijskih znanosti ipak Shannonov rad navode u literaturi uz bitnu opasku – samo Uvod, odnosno od 31 do 35 str. rada. Zašto? Zato što pretpostavljaju da se nakon famozne 35. stranice nalazi štivo isključivo za inženjere telekomunikacija, a ne informacijske stručnjake… Ali zašto u svoje nastavno gradivo uopće uključuju i prve četiri stranice rada? Zato što je u njima predstavljen komunikacijski model koji je predložen da bude validan model za sve komunikacijske situacije, između ostalih i one u informacijskim ustanovama poput knjižnica, muzeja, arhiva…

Inicijalnu ‘informacijsku teoriju’ ili ‘teoriju informacija’ mnogi istraživači prepoznaju u radu matematičara Clauda Elwooda Shannona naziva A mathematical theory of communication koji datira davne 1948 (Shannon 1948). Međutim, dok je pisao svoj rad, Shannon nije mislio da stvara teoriju informacije. Zabavljen problemima optimalnog prijenosa signala između dvije točke telekomunikacijskog voda, dakle, baveći se izričito problemom komunikacije što je ostavilo traga i na naslovu njegova rada, ni na kraj mu pameti nije bilo stvoriti univerzalni obrazac po kojemu se primaju i odašilju informacije. Pojam informacije rabio je u svom uskom, inženjerskom kontekstu [Proces stjecanja znanja kao problem informacijskih znanosti, Bosančić, 2016].

Uključivši u postojeću Hartleyevu teoriju (Hartley 1928) nekoliko novih čimbenika, a ponajprije se to odnosi na efekt šuma u kanalu, kao i mogućnost uštede u prijenosu količine informacija zbog statističke strukture originalne poruke i prirode krajnjeg odredišta informacije Shannon je napisao:

Osnovni komunikacijski problem svodi se na točno reproduciranje odabrane poruke odaslane s jednoga na drugo mjesto [u prostoru]. Uobičajeno, poruka ima značenje; to ujedno znači da je poruka [uvijek] u nekom odnosu ili pak da upućuje na sustav s odgovarajućim fizičkim ili konceptualnim entitetima. [Međutim], navedeni semantički aspekti su irelevantni za inženjerski problem. Značajno je [jedino] to što je aktualna poruka jedna iz skupa mogućih poruka. Sustav mora biti  konstruiran tako da može operirati sa svakim mogućim odabirom… Ako je broj poruka u skupu konačan, onda se taj broj… može smatrati mjerom informacije koja je proizvedena u trenu kad je iz skupa s jednakom vjerojatnošću odabira odabrana jedna poruka. Kao što je istakao Hartley, najprirodniji izbor [za opis ovog procesa] je logaritamska funkcija. [The mathematical theory of communication, Introduction, Shannon & Weaver, 31-35.]

Odabir logaritamske baze korespondira s odabirom jedinice za mjerenje količine informacija. Ako se rabi logaritamska baza 2 onda se rezultirajuća jedinica može nazvati binarni digits ili kraće bits, riječ koju je Shannonu sugerirao J. W. Tukey.

Na osnovi iznesenoga, može se zaključiti da je matematička komunikacijska teorija C. E. Shannona posredno dovela do jednog važnog pitanja: ako se količina informacija s jednog uređaja na drugi prenosi prema određenim matematičkim pravilnostima, mogu li se te pravilnosti poopćiti i vrijediti za bilo koju situaciju slanja informacije, pa čak i onu u kojoj je čovjek pošiljatelj i/ili primatelj informacije?

[Shannonov] kolega Warren Weaver nagovorio ga je da vlastiti okvir usmjeren na rješavanje inženjerskih problema proširi na ostala područja. Sâm se potrudio napisati poseban članak u kojem je predložio da se Shannonov komunikacijski model, namijenjen telekomunikacijskim inženjerima, može promatrati kao opći komunikacijski model prijenosa informacija (Shannon and Weaver, 1963/49). Možda bi ovakva interpretacija Shannonove teorije stekla više pobornika da se u cijelu priču nije upetljalo značenje, na neki način ‘pojmovna svojina’ istraživača iz društvenih i humanističkih znanosti. Naime, u Shannonovoj teoriji značenje nije igralo nikakvu ulogu. Štoviše, sâm Shannon je naglasio da je irelevantno za cijelu priču (Shannon i Weaver 1963/49). Mogućnost da se jedna teorija informacija utemelji na nečemu što nije uključivalo značenje odmah je pobudilo sumnju istraživača iz društvenih i humanističkih znanosti. Mnogi od njih bili su uvjereni da je Weaver bio u krivu; velika većina je to i danas [Proces stjecanja znanja kao problem informacijskih znanosti, Bosančić, 2016].

Pod komunikacijskim sustavom, napisao je Shannon, mislimo na sustav predstavljen na Slici 1. On se sastoji od pet dijelova:

  1. Informacijskog izvora koji proizvodi poruke ili nizove poruka… Poruke mogu biti različite vrste: niz slova kao u telegrafiji, … intenzitet svjetlosti u [proizvoljnoj] točki (x,y)…
    Odašiljača (engl. transmitter) koji pretvara poruku u signal pogodan za prijenos kroz kanal… [Na primjer] u telegrafiji postoji operacija enkodiranja poruka u točke, crte i praznine…
    3. Kanala koji predstavlja medij za prijenos poruke… Može biti riječ o paru žica, koaksijalnom kablu… ili snopu svjetlosti itd. Za vrijeme prijenosa signal može biti ometen (deformiran) šumom (engl. noise).
    4. Primatelja koji uobičajeno obavlja inverznu operaciju u odnosu na odašiljača poruke, rekonstruiranje poruke iz signala.
    5. Odredište [poruke] je osoba (ili stvar) kojima je poruka bila namijenjena.
    [The mathematical theory of communication, Introduction, Shannon & Weaver, 31-35.]

 

Slika 1 – Shematski dijagram općeg komunikacijskog sustava.

Možemo [sada] izvršiti grubu podjelu komunikacijskih sustava na… diskretne, kontunuirane (engl. continuous) i kombinirane (engl. mixed). Diskretni sustav je takav sustav u kojemu su i poruka i signal predstavljeni sekvencom, nizom diskretnih simbola. Tipičan primjer nalazimo u telegrafiji gdje je poruka predstavljena nizom slova, a signal nizom točaka, crtica i praznina koji reprezentiraju ta slova.

Razvoj informacijske teorije na tragu rada C. E. Shannona danas se odvija pod kapom IEEE Information Theory Society, zasebne IEEE zajednice posvećene viziji razvoja „the mathematical underpinnings of information technology for the benefit of humanity“. Područja interesa IEEE ITS-a obuhvaćaju procesuiranje, transmisiju, pohranu i korištenje informacija i tiču se zapravo šireg područja općenito kodiranja informacija, a to znači onih komponenti komunikacijskog modela koji se odnose na procese kodiranja, prijenosa i dekodiranja signala. IEEE ITS, baš kao i C. E. Shannon, davne 1948., pitanje značenja kodiranih, prenesenih i dekodiranih informacija ne smatra predmetom svoga istraživanja. Pa ipak, premda se pitanje značenja prenesene poruke čini irelevantnim u Shannonovoj teoriji s obzirom na činjenicu da jedan signal (i doslovno jedna jedinica ili nula) mogu značiti da se kanalom prenosi cijela Biblija ili samo jedno obično ‘DA’, neki su istraživači primijetili da se ne može tako lako zaobići barem pitanje značenja kodirane informacije.

LITERATURA

  1. Bosančić, B. (2016), Proces stjecanja znanja kao problem informacijskih znanosti, Libellarium, Vol. 9 No. 1, 31-58.
  2. Cantor, P. (2009), “Information theory”, in Bates, M.J. and Maack, M.N. (Eds.), 3rd ed., Encyclopedia of Librarian and Information Sciences, CRC Press, pp. 2717-2726.
  3. Hartley, R.V.L. (1928), “Transmission of information”, Bell System Technical Journal, Vol. 7, pp. 335-363.
  4. Shannon, C. E., and Weaver, W. (1964), The mathematical theory of communication, University of Illinois Press, Urbana.

Rujan 8, 2016

Proces stjecanja znanja kao problem informacijskih znanosti

U vremenu u kojemu je znanje postalo samo znak, ali ne i simbol, logično je njegov problem spustiti na razinu drugih znanosti a ne samo epistemologije, grane filozofije. Međutim, u isto vrijeme bilo bi nepošteno znanju nekritički oduzeti pravo, pa čak i moć izricanja istine. Nakon Karla Poppera, Thomasa Kuhna, francuskih poststrukturalista, američkih postmodernista itd. privikavamo se živjeti i baviti se znanošću na pomičnim osnovama. U isto vrijeme, postali smo svjesni toga da se nikada nećemo vratiti na staro. S druge strane, čovjekovo i strojno stjecanje znanja nikada nisu bila bliža jedan drugome… Može li se onda proces stjecanja znanja, kako čovjeka tako i računala, zasnovati kao problem informacijskih znanosti…?

U mom radu Proces stjecanja znanja kao problem informacijskih znanosti objavljenom 2016. u časopisu Libellarium pozornost se usmjerila na sâm proces stjecanja znanja o svijetu kojim su čovjek i računalo okruženi, bez potrebe za odgovorom na pitanja ‘je li taj svijet uopće postoji’ i ‘je li on dohvatljiv ljudskim osjetilima’. Pritom, prešutno se pretpostavilo da se uvijek radi o stjecanju ‘znanstvenog znanja’. Stoga, razmatranja koja slijede valja smatrati posebnim slučajem vjerojatno šireg okvira načina stjecanja znanja, koje bi se odnosilo ne samo na znanstveno, nego i ono, uvjetno rečeno, praktično znanje koje je čovjek u trenutku spreman zaboraviti, a kojim barataju njegovo sjećanje i iskustvo. Poopćenje predloženog okvira na sve situacije trebalo bi donijeti usuglašavanje shvaćanja procesa stjecanja znanja u tom širem kontekstu.

Nakon otkrića zakonitosti koje vladaju u kvantnom svijetu poput Heisenbergovih načela neodređenosti (Heisenberg 2004) ili poststrukturalistčkoga uvida u duboku vezu između onoga što znamo i jezika kojim to znanje izričemo (Derrida 1967), više ne možemo insistirati na jasnom i održivom znanju. Mnogi današnji istraživači i znanstvenici, stoga, znanju neće nametnuti uvjet njegove nepobitne istinitosti. Radovi Karla Poppera, Thomasa Kuhna, pragmatista i drugih istraživača u drugoj polovini 20. stoljeća… utrli su put razumijevanju znanja kao održive, ali i izmjenjive supstance naših svjetonazorskih stavova o svijetu koji nas okružuje.

U svojoj knjizi Logika znanstvenih otkrića, prvi put objavljenoj 1934., filozof znanosti Karl Popper udario je nove temelje teoriji znanja. Među prvima, Popper je, u koherentističkom duhu, predložio da od znanja više ne zahtijevamo da bude istinito, nego samo provjerljivo (Popper 1972). Izvjesnost znanstvene istine odnosno znanja postalo je relativno. Ako teorije ne možemo dokazati, možemo ih pobiti. Naše znanje odnosno teorija koja ga zastupa sadržajno je bogatija ako puno više toga zabranjuje nego dopušta. To je u znatno većoj mjeri izlaže mogućnosti testiranja, a posredno, i opovrgavanja.  Što je neka znanstvena teorija otpornija na testiranja to će ona biti istinitija (O’Hear 2007: 38).

Jasno je da Popperovski svjetonazor izrasta iz prihvaćanja činjenice da je naše znanje pogrješivo u duhu koherentističke teorije znanja za koju, u najjednostavnijem smislu, ljudsko znanje  ima strukturu splavi (Sosa 1980). Ono što splavi omogućuje da plovi jest to što se različiti dijelovi drže na okupu. Prema O. Neurathu, ljudsko znanje je poput broda na kojem se vrši remont u vožnji, na otvorenom moru. Može se zamijeniti bilo koji dio broda, ali se ne mogu zamijeniti svi dijelovi broda odjednom! Drugim riječima, ne možemo dovesti u pitanje svo naše znanje odjednom! (Neurath 1932;  Berčić, 2012).

Na ovaj način stiglo se i do uvida da naše znanje može biti pogrješivo a što je u literaturi dobilo naziv falibilizam.

Thomas Kuhn u svojoj knjizi Struktura znanstvenih revolucija, prvi put objavljenoj 1959, ide korak dalje u relativiziranju čovjekovog stjecanja znanja. Po njemu, razvoj znanosti događa se od jedne do druge znanstvene revolucije između kojih ‘vegetiraju’ razdoblja tzv. ‘normalne znanosti’ u kojima se ne događa ništa posebno osim razrješavanja anomalija postojećih teorija (Kuhn 2013). Za potrebe ovog rada, vrlo zanimljivom se čini pojam znanstvene paradigme koji je Kuhn uveo u diskurs filozofije znanosti. Pod pojmom znanstvene paradigme Kuhn ne podrazumijeva “…samo načine na koji istraživači pristupaju i opažaju podatke, već i same podatke.” (O’Hear 2007: 59). Na ovaj način uspostavljena je mnogo čvršća veza između podataka i znanja. Znanje defacto postaje ovisno o podacima znanstvenih istraživanja.

Okvirno gledano, uspostava procesa stjecanja znanja kao problema informacijskih znanosti stoga počiva na nekoliko pretpostavki.

Najprije, može se reći da proces stjecanja znanja ne mora biti isključivo predmet epistemologije, jer ne zadire u sudove o istinitosti stečenog znanja. Za njegovo nesmetano odvijanje nije nužno znati je li riječ o istinitom ili ‘vječno istinitom’ znanju ili pak znanju koje će tijekom vremena doživjeti svoju reviziju. To je itekako u skladu s Popperovom teorijom o pogrješivosti teorija. S druge strane, pitanja epistemologije, poput onoga “je li ikakvo znanje moguće?” ostaju otvorena na jednak način na koja su to bila i prije računalnog doba.

Nadalje, može se reći da proces stjecanja znanja uspostavlja čvršću vezu između pojmova podatka i znanja. Znanje, kao takvo, ovisno je o prethodno ustanovljenim podacima istraživanja, ali i obrnuto! Naime, kao što je već spomenuto, Karl Popper je među prvima ustvrdio da ne postoji mogućnost prikupljanje čistih podataka (engl. pure data), bez prethodnog utjecaja nekakve pozadinske teorije. Podaci znanstvenog istraživanja umnogome su oslonjeni na teoriju koju pokušavaju potvrditi; oni su ovisni o teoriji (engl. theory-laden) (Popper 1972).

Osim toga, proces stjecanja znanja, u kontekstu znanstvenoistraživačkog rada, provodi se na dubljoj razini od razine na kojoj se provode znanstvene metode; on se ‘odvija’, takoreći –  apriori, prije svake znanstvene metode  – indukcije i dedukcije, analize i sinteze i sl. i doslovno na inicijalnoj razini našeg odnošenja prema stvarnosti. Primjerice, ova razina može uključivati enkodiranje podataka znanstvenih istraživanja prema nekoj postojećoj teoriji i sl.

Isto tako, za razliku od drugih problema informacijske znanosti, proces stjecanja znanja može se opisati pomoću sva četiri DIKW koncepta. Na koncu, teoretiziranje procesa stjecanja znanja može voditi i potpunijoj informacijskoj teoriji u kojoj ne bi bili samo zastupljeni pojmovi informacije i podatka, nego i znanja, značenja, vrednovanja i mudrosti.

Cjelovitom tekstu rada u otvorenom pristupu (Creative Commons Attribution 4.0 International License), osim s >> mrežnih stranica časopisa Libellarium, možete pristupiti i u repozitoriju ustanove u kojoj sam zaposlen (Filozofski fakultet u Osijeku) na adresi: https://repozitorij.ffos.hr/islandora/object/ffos%3A2007/datastream/FILE0/view.

Travanj 7, 2016

Informacija u procesu stjecanja znanja

Nakon osamnaest mjeseci premišljanja, pisanja i prepravljanja, odustajanja i ponovnog započinjanja, razgovora i savjetovanja, sa zadovoljstvom mogu objaviti da je moja ‘znanstvena pisanija’ naziva Information in the knowledge acquisition process napokon dovršena. ‘Stablo znanja’, novopredloženi prikaz/simbol DIKW modela,  započinje sa svojim životom u digitalnom svijetu informacija. Posljedično, to znači da je ‘pisanija’ odnosno rad prihvaćen za objavljivanje u jednom od časopisa područja – i ne slučajno – u Journal of Documentation. Četrdeset i pet stranica teksta, je li to ikome trebalo? U mom slučaju, da, pogotovo stoga jer u radu na kraju nisam stigao reći sve što sam imao. Primjerice, onaj dio o značenju. Informacija i značenje, u kontekstu čovjekove spoznaje, čine mi se sada neraskidivo povezanima, do te mjere da ću vjerojatno u najskorije vrijeme biti prisiljen započeti rad na novoj ‘pisaniji’ sada već predvidljivog naziva – Meaning in the knowledge acquisition process (s tim da su neki dijelovi već i napisani) te svojim umom zaroniti u otvoreno i neistraženo more semiotike…

stablo_znanjaOsim (relativno) sažetog prikaza raznolikosti pogleda na pojam informacije (desetak stranica), rad se u prvom redu bavi tumačenjem procesa stjecanja znanja, s osobitoga simboličkog i metaforičkog stajališta. Pritom, pojam informacije u takvom tumačenju, dakako, zauzeo je središnje mjesto, pored srodnih pojmova podatka i znanja. Posredno, ovim radom nastojao sam i iznaći odgovor na pitanje: zašto različiti načini/perspektive stjecanja znanja u okviru znanstvenih područja imaju drugačiji pogled na informaciju, uključujući tu i dva, čini se, najisključivija ili najnepomirljivija: jedan, koji informaciju drži objektivnim entitetom koji postoji u ‘vanjskom svijetu’ i drugi, koji ju smatra konstruktom čovjekova uma.

Stoga ovaj rad posjeduje dvojak karakter: pregledni i simboličko-metaforički. U prvom dijelu do izražaja dolazi njegov pregledni karakter. Nastojao sam, na što je moguće sažetiji način, pružiti uvid u raznolikost pogleda na pojam informacije istraživača iz različitih područja znanosti. U radu se razmatraju informacijske teorije s naglaskom na inicijalnu teoriju Claudea E. Shannona, pravci u razvoju istih, definicije pojma informacije i vrste informacija. U drugom dijelu rada, a za potrebe razumijevanja odnosa pojma informacije sa srodnim pojmovima podatka i znanja, predložio sam odgovarajući simbolički prikaz kao pandan postojećem  – DIKW hijerarhije (Data-Information-Knowledge-Wisdom hierarchy), a koji je našao izraz u stanovitoj slici ‘stabla znanja’. Putem navedenog prikaza te osobitoga metaforičkog tumačenja pokušao sam, zatim, ilustrirati ulogu informacije u procesu stjecanja znanja. Prema mom mišljenju, na ovaj način bilo je moguće ukazati na jedno, relativno novo, shvaćanje pojma informacije, koje je u stanju ublažiti, ako ne i u cijelosti prevladati problem različitog shvaćanja informacije u svim znanstvenim područjima. Simbolički prikaz i metaforičko tumačenje uloge informacije u procesu stjecanja znanja čine i okvir za novo shvaćanje uočenog raskoraka u pristupu informaciji kao objektivnom ili subjektivnom fenomenu, a koji se također može rabiti za njegovo prevladavanje.

Zaključak rada donosi neobične i, držim, uzbudljive implikacije iako počivaju na ograničavajućoj simboličko-metaforičkoj osnovi; veći dio zaključka, stoga, objavljujem i na ovom mjestu (u djelomično parafraziranoj verziji iz pre-print verzije rada):

Na [spomenutoj] simboličkoj slici ‘stabla znanja’ informacija u obliku soka, prepoznaje se kao jedan od dva ključna supstrata koja omogućuju njegov rast. ‘Zemlja podataka’ na kojoj je ‘stablo znanja’ izraslo, predstavlja, simbol dohvatljivoga, mjerljivog ‘vanjskog svijeta’ (onoga koji se može izlučiti u mjerljiv podatak), dok smo krošnju stabla označili kao simbol čovjekova eksplicitnog znanja o tom ‘vanjskom svijetu’. Predložili smo i da deblo stabla može simbolizirati veliki provodnik, komunikacijski kanal kojim se informacije prenose, dok njegovo korijenje može predstavljati simbole mjernih instrumenata, naprava, alata, uređaja, ali i metoda i tehnika za dohvaćanje podataka iz ‘vanjskog svijeta’. Isto tako, ostavili smo i mogućnost da svaki ‘čvrsti’ dio stabla simbolizira određeno znanje, uključujući tu i one koji pripadaju deblu i korijenju.

Međutim, temeljna zamisao tiče se sljedećeg prijedloga: na sveukupni rast ‘stabla znanja’, a odatle i našega znanja, utječu dva, a ne jedan, tok ključnih supstrata: pored, već spomenutog, toka ‘informacijskog soka’ od korijenja prema vrhu stabla, postoji i tok ‘značenjskog soka’ potaknut djelovanjem ‘zraka’ ‘umnog sunca’ u listovima ‘stabla znanja’ (pritom, ‘zrake umnog sunca’ simboliziraju čovjekovu sposobnost apstraktnog mišljenja nužnog za potrebe usvajanja i organizacije znanja). Ovaj sok kreće se u obrnutom smjeru od ‘informacijskog soka’, a to znači da može dospjeti i do korijenja stabla.

[Stoga] prema metaforičkom tumačenju procesa stjecanja znanja, a preko slike rasta ‘stabla znanja’, informacija se prepoznaje kao subjektivan, ali bezličan (bez značenja), kodiran (preslikan) tok (jer se uvijek prenosi), nevidljivo ‘komunikacijsko sredstvo’ između svijeta podataka i svijeta znanja. Uloga informacije kao nevidljive poveznice svijeta podataka i svijeta znanja, možda i ne predstavlja originalnu zamisao, ali je ovim radom, držim(o), značajno produbljena.

S druge strane, oba procesa, proces izlučivanja ‘podatkovnih sastojaka’ iz ‘zemlje podataka’ kao i proces stvaranja ‘informacijskog soka’ neizostavno nas moraju podsjetiti na procese kodiranja i odabira mogućnosti/poruke iz zadanog skupa mogućnosti/poruka u Shannonovoj teoriji. Ipak, je li doista moguće na njih gledati kao na metafore procesa koji čine okosnicu ‘informacijske teorije’ – ostaje za raspravu. U slučaju hipotetskog prihvaćanja ove mogućnosti, Shannonova teorija bi se, u okviru ove osobite simboličke slike, nalazila na samim vrhovima korijenja ‘stabla znanja’. Međutim, ova promišljanja ubrzo bi nas dovela do jednog drastičnog ‘uvida’,  po kojemu bi se, onda, i proces stjecanja znanja temeljio na svojevrsnom kodiranju stvarnosti (izlučivanju ‘podatkovnih sastojaka’) i njenoj percepciji odnosno prijenosu (stvaranje ‘informacijskog soka’ odnosno generiranju informacija) za potrebe uvećanja našeg znanja. Ali, je li se doista radi o nečemu takvom, pa barem i u naznakama, teško je pretpostaviti na osnovi jednog, ipak, samo simboličko-metaforičkog pristupa danom problemu.

(U skladu s Weaverovom interpretacijom ‘informacijske teorije’, po kojoj je ona više povezana s onim što se moglo (pa i još uvijek može) reći (‘what could you say‘) nego s onim što se reklo, a ‘zemlju podataka’ možda možemo gledati kao na ukupan broj mogućnosti ‘vanjske stvarnosti’ koja se u obliku ‘podatkovnih sastojaka’ uopće može izlučiti na vrhovima korijenja ‘stabla znanja’ i pretvoriti u ‘informacijski sok’. Je li, u ovom smislu, ukupnom skupu mogućnosti ‘vanjskog svijeta’ odgovara upravo prostornovremenska zbilja kao takva, a načinima njenog kodiranja upravo naše matematičke metode (geometrija, algebra itd.) koje rabimo za njezino dohvaćanje… ostaje za raspravu.)

Ova slika i nedvojbeno ukazuje na činjenicu da mogućnost razlikovanja i ekstrakcije podataka iz ‘vanjskog svijeta’ još uvijek ne prejudicira njihovo značenje. To je dovoljno da Shannonovoj teoriji priznamo status jedne validne informacijske teorije, ali teorije koja predstavlja gradivni blok njene puno šire inačice, i koja se u kontekstu procesa stjecanja znanja više ne može promatrati odvojeno od pojmova znanja i značenja; zbog čega je i način ‘skrutnjavanja’ ‘informacijskog-‘ i ‘značenjskog soka’ u čvrste dijelove ‘stabla znanja’ u ovom radu ostao nepoznat.

Možda najdojmljiviji doprinos predloženog simboličkog prikaza predstavlja ‘vidljivost’ same informacije, koja u procesu stjecanja znanja u stvarnom svijetu, zauvijek ostaje skrivena, uostalom, kao i značenje. Ono što je u stvarnom svijetu uvijek vidljivo odnosi se na podatke, dok se znanje istog, u neku ruku, ‘osjeća’ u glavi. Informacija, odatle, ne samo da se javlja kao vrijednost tog procesa, …, nego i sama može biti shvaćena kao jedan od njegovih dijelova. Upravo fluidnost ‘informacijskog soka’ koji sadrži u sebi kodirane ‘podatkovne sastojke’, reprezentira važno, ali izvan dane simbolike, zasad nepoznato svojstvo informacije, koje možda upućuje na njenu procesnu prirodu. Isti zaključak može se odnositi i na ‘značenjski sok’ sastavljen od ‘konceptualnih sastojaka’. Odatle, procesi informiranja i pridavanja značenja koji se odvijaju u stvarnosti, možda se uistinu i ne mogu razlikovati od njihovih imeničnih izvedenica – informacije i značenja.

Informacija po sebi nema značenje, ali se jedino ‘sa’ značenjem može percipirati i razumjeti. Ovo, samo prividno, proturječje čini se nestaje kada se na podatak, informaciju i znanje započne gledati iz perspektive ili ingerencije jednoga, osobitoga, nadređenog fenomena. Ipak, njegovu elaboraciju ostavljamo za neko buduće promišljanje koje se, definitivno, mora izdići iznad ovih, ipak ograničavajućih, simboličkih okvira te ponuditi nov, u cijelosti znanstveno utemeljen pogled na informaciju.

Cjelovitom tekstu rada možete pristupiti u repozitoriju ustanove u kojoj sam zaposlen (Filozofski fakultet u Osijeku) na ovoj adresi: https://repozitorij.ffos.hr/islandora/object/ffos%3A1547/datastream/FILE0/view. Objavljivanje rada u tzv. post-print inačici, prije službene objave u časopisu Journal of Documentation, omogućila mi je politika ‘zelenog puta’ izdavača časopisa, u ovom slučaju – Emeralda.

U međuvremenu, rad je dobio nagradu Emerald Literati Network Awards for Excellence koju svake godine dodjeljuju uredništva Emeraldovih časopisa. Mrežna stranica s nagrađenim radovima nalazi se na mrežnoj adresi: http://www.emeraldgrouppublishing.com/authors/literati/awards.htm?year=2017.

Zahvaljujući nagradi, rad se nalazi u slobodnom pristupu i sa >> mrežnih stranica časopisa u izdavačevoj >> PDF verziji – do 20. lipnja 2018!

Veljača 27, 2016

Setovi podataka i strukture znanja: prema relativističkoj teoriji informacije

Većina, ako ne i svi, problemi terminološke prirode koji su vezani uz ključne pojmove informacijske teorije, čini se da počivaju na njihovoj međusobnoj zamjenjivosti u običnom govoru ili diskursu. A kada govorimo o ključnim pojmovima informacijske teorije mislimo na pojmove podatka, informacije i znanja. Tako ćemo u kolokvijalnom govoru naići na sljedeća terminološka određenja: netko će uporno govoriti da ‘informacije pohranjujemo na nositelje informacija’ ili da u glavi nema dovoljno podataka kako bi znao što i kako obaviti. British Library na svojoj naslovnoj stranici pohvalit će se da je ‘riznica znanja’ itd.

U znanstvenom diskursu situacija nije ništa bolja. U biologiji praktički oduvijek barataju genetičkim informacijama koje su za biologe (i doslovno) pohranjene u DNK stanicama, dok općenito u prirodnim znanostima informaciju drže objektivnim fenomenom. Biolog Tom Stonier drži da informacija i doslovno fizički postoji u ovom svijetu, jedino što njenu česticu još nismo uspjeli detektirati. U društvenim i humanističkim znanostima situacija je potpunoma drugačija. Istraživači poput Machulpa ili Cornelliusa uvjereni su da je informacija društveni odnosno psihički konstrukt koji je smješten u glavi pojedinca.

U ovoj bezizlaznoj situaciji, stoga, pokušajmo nešto nemoguće: predložiti konceptualni okvir terminološke uporabe pojmova podatka, informacije i znanje u znanstvenom diskursu koji bi, ako ništa, dosada nepremostivi jaz između shvaćanja informacije kao objektivnog i subjektivnog fenomena, spremio pod tepih, i okrenuo se rješavanju konkretnih problema. Glavna svrha ovog nastojanja, dakle, ogleda se u pročišćavanju terminološke zbrke koja se sve češće veže uz uporabu spomenutih pojmova u svim područjima ljudskog znanja. Ako još nismo sigurni jesu li podaci, informacije i znanje subjektivni ili objektivni fenomeni, i što zapravo predstavljaju, barem možemo pokušati kreirati pravila za njihovu terminološku uporabu. Vodeći se tim principom, nastojat ćemo udariti temelje jednoj, osobitoj, relativističkoj teoriji informacije, dakako, ograničenog dometa. Već u startu ona zna da može važiti jedino u sklopu jedne sveobuhvatnije teorije…

Najprije, navedimo prijedloge, dakako, neodređenih i nepotpunih konvencionalnih definicija osnovnih pojmova:

Podatak (P) predstavljaju dvije ili više prvenstveno različite dokumentirane mogućnosti svijeta; skup dva ili više podatka čini set podataka (dataset) – D[s].

Znanje (Z) predstavljaju dvije ili više najprije povezane dokumentirane mogućnosti svijeta. Trenutno stanje znanja čini strukturu znanja (knowldegestructure) – K[S].

Informacija (I) je dokumentirana mogućnost svijeta ‘u pokretu’, a u praktičnom smislu, tok između seta podataka (D[s]) i strukture znanja (K[S]).

Pod ‘dokumentiranom mogućnošću svijeta’ nije jasno navedeno što se točno misli, jer ovo nije nikakva teorija, nego popis pravila za uporabu pojmova. Ipak, tim izrazom je jasno rečeno što se pod njim ne misli: a ne misle se stvarne mogućnosti svijeta, u prvom redu fizički i kemijski procesi. Dakle, predlaže se bazična, sasvim jednostavna, a vjerujemo širokoprihvatljiva definicija informacije kao ‘dokumentacije stvarnosti’, a ne nekog fenomena koji pripada ‘u stvarnost’. Infosfera i nije ništa drugo doli kvazistvarnost.

Na osnovi prijedloga konvencionalnih definicija, mogu se sada predložiti i dva glavna aksioma relativističke teorije informacije:

  1. set podataka D[s] ostaje neizmijenjen pri uspostavi informacijskog toka ΔI prema strukturi znanja K[S]; ukoliko je ovaj aksiom/postulat narušen onda se više ne radi o procesu informiranja nego gibanja; nadalje, možemo se informirati samo o tom gibanju.
  2. struktura znanja K[S] nužno se mijenja pri uspostavljanju informacijskog toka ΔI; ukoliko je ovaj aksiom/postulat narušen više se ne može reći da se radi o procesu informiranja nego jedino percipiranja stvarnosti.

Bertram C. Brookes je svojom pseudojednadžbom (K[S] + ΔI = K[S+ΔS]) prije ravno 35 godina itekako uzburkao duhove u knjižničnoj i informacijskoj znanosti. U mnogim slučajevima, međutim, naišao je samo na kritike. Pa ipak, postaje očito da i dan-danas neke od nas inspirira na slične ‘spekulativne vratolomije’, zbog čega mu usrdno posvećujem ovaj post!

Prosinac 30, 2015

Uvid u prirodu informacije okoliša ili zašto je informacija ipak negentropija

environmentalIz današnje perspektive, informaciju i njezinog nositelja bez većih problema možemo razlikovati. Ali do pojave informacijske teorije, barem u praktičnom smislu, informacija i njezin nositelj uglavnom su se smatrali nerazdvojnima. Najprije knjiga, pa zatim dokument, primjeri su informacijskih artefakata koji u sebi ‘stapaju’ informaciju i nositelja informacije. Zbog toga Tatjana Aparac Jelušić definira knjigu kao „dihotomiju sadržaja i nositelja tog sadržaja“ te naglašava dvojnu prirodu svakog (zapisanog) teksta. Prema autorici, tekst posjeduje dvije strane: intelektualnu ili duhovnu (odnosi se na sadržaj teksta/informacije) te fizičku ili materijalnu (odnosi se na nositelja teksta/informacije).

Pretpostavimo sada da nositelj informacije može biti aktivan i pasivan. Pod aktivnim nositeljem informacije podrazumijevamo  inforga (Floridi, 2010), informacijsko biće, koje je u stanju primljenu informaciju na sebi svojstven način procesuirati, a to znači dobaviti ili je odaslati drugom nositelju, ali i povezati je s drugim informacijama unutar sebe, izmijeniti ju i sl. Naravno da u tom smislu čovjeka možemo smatrati eklatantnim primjerom aktivnog nositelja informacije. Za razliku od aktivnoga, pasivni nositelj informaciju samo ‘nosi’. U ovom smislu, dokument, knjiga, ali i tvrdi disk računala, najbolji su primjeri pasivnih nositelja informacije.

Međutim, sada možemo postaviti pitanje: može li se jedino čovjek smatrati aktivnim nositeljem informacije? Oko tog pitanja među istraživačima još se ‘lome koplja’. U načelu, svaki živi organizam predstavlja aktivnog nositelja informacije. Biologija nam to jamči svojim spoznajama o staničnim procesima, s kojima je upoznat i prosječni srednjoškolac, i u kojima je razotkrivena uloga DNK i RNK u prijenosu genetskih informacija. Slobodno se može reći da cjelokupni organski svijet, pored sveg ostalog, posjeduje i tu mogućnost aktivnog nošenja informacija. Ali, može li se pasivni nositelj informacije jednog dana preobratiti (proburaziti) u aktivnog nositelja informacije? Jasno je da na ovo pitanje još nemamo odgovor i da se on sastoji u odgovoru na srodna pitanja poput onog: mogu li računala moći misliti.

Stoga, mirne duše pođimo dalje, i jednim sveobuhvatnim uvidom u čitavom anorganskom svijetu prepoznajmo pasivne nositelje informacija! Na osnovi njihovog postojanja, prema L. Floridiju (2010), postoje i te tzv. informacije okoliša (environment information), putem kojih, na sebi svojstven način, okoliš govori o samome sebi. Informacije okoliša stoga su, u najmanju ruku, svojevrsni odraz stvarnosti. U pasivne nositelje informacija, tako, mogu se ubrojiti npr. geološki slojevi stijena koji nose informaciju o pojedinim geološkim razdobljima na Zemlji, ili okrugli oblik i žuti sjaj Sunca na nebu, godovi drveta, otisci šapa životinja itd. Nadalje, bez većih problema možemo ustvrditi da su neki drugi procesi, a u prvom redu tu mislimo na fizičke i kemijske procese, odgovorni za stvaranje opisanih informacija okoliša odnosno da se ta najstarija vrsta informacija na Zemlji i doslovno stvarala putem fizičkih i kemijskih procesa, a da se nije, recimo, prenosila između nositelja.

Na ovaj način stigli smo do zanimljive poveznice. Ako smo došli do toga da porijeklo prvih informacija pronalazimo u fizičkim i kemijskim procesima koji se neprestano odvijaju u prostorvremenu našeg svemira, postaje jasno zašto je Claude Shannon svoj pojam količine informacija povezao sa srodnim pojmom entropije. Naime, kako se prema II. zakonu termodinamike priroda kreće prema sve većem kaosu, a to, između ostalog, znači i prema sve jednoličnijem, uniformnijem svemiru, sa sve manjom količinom gibanja, očito je da se u takvom okolišu nailazi i na sve manju količinu informacija okoliša. Kad Floridi napominje da se podaci (kao neka vrst strukturalnih nositelja informacija) manifestiraju kao nedostatak uniformnosti u stvarnosti, onda pod ovom uniformnošću upravo zamišlja tu krajnju i pogubnu sliku kaosa. Drugim riječima, količina informacija okoliša i rastuće entropije u sve kaotičnijem svijetu obrnuto su proporcionalne. Na osnovi tog zaključka, postaje jasno je da smo puno bliži Wienerovoj interpretaciji pojma količine informacije – dakle, količini informacije kao ‘negentropiji‘ (negentropy), nego onoj Shannona – količini informacije kao čistoj entropiji, a dokaz tomu smatramo da smo upravo iznašli u razmatranju prirode fenomena informacija okoliša.

Prosinac 4, 2015

O poluinformaciji

Filed under: NOVI POSTOVI,Uncategorized — by BorisB @ 8:41 am
Tags:

Živimo u svijetu – ne informacija, nego poluinformacija. One su svud oko nas. Dosada, nismo bili svjesni te činjenice, ali stvari se polako mijenjaju. Ponukani smo razmišljati o problemu koji smo upravo detektirali. Kako ga prevladati? Kojim metodama, tehnikama i alatima to učiniti? Možda nekom formulom ili… ako budemo bolje sreće… teorijom? Pitanja zasada ostaju bez odgovora…

U kolokvijalnom govoru, poluinformacija označava informaciju dobivenu iz neprovjerenih, nepouzdanih izvora. Nikada ne želimo baratati s poluinformacijama. Želimo biti informirani, a ne poluinformirani. (Napomenimo da se pored pojma poluinformacije u negativnom aspektu shvaćanja informacije u kolokvijalnom govoru rabi i izraz dezinformacije koji označava neistinitu informaciju) Poluinformacija je samo djelomično istinita. Stoga je shvaćanje izraza poluinformacije koji se ovdje izlaže bitno drugačije prirode od shvaćanja istog izraza u uobičajenom smislu.

U skladu sa Shannonovom teorijom, poluinformaciju možemo definirati kao svaku informaciju koja je tijekom svog prijenosa od pošiljatelja do primatelja izobličena šumom. Međutim, to bi, strogo uzevši, bila samo tehnička definicija poluinformacije. Na semantičkoj, a odatle i interpretativnoj razini, za očekivati je da će se ustvrditi kako su značenje, kao i učinak poluinformacije na pojedinca, u Weaverovom smislu, također izobličeni. Možemo li u tom smislu govoriti o analognim fenomenima poluznačenja i poluučinaka – u ovom trenutku teško je predvidjeti. Poluinformacija je svud oko nas te, htjeli mi to ili ne, izgrađuje naše (polu)informacijsko društvo…

Zadnje dodano & ažurirano u BZoI-ju (Bazi Znanja o Informaciji)

Svibanj 25, 2015

Maxwellov demon i informacija

CLAUDE E. SHANNON & WARREN WEAVER: The Mathematical Theory of Communication (1949)
JAMES GLEICK: Information: A History, a Theory, a Flood (2011) / Entropy and Its Demons

Fizičar James Clerk Maxwell osmislio je sljedeći misaoni eksperiment: iznad pregrade kutije s plinom zamislio je inteligentno biće, dovoljno malo da uoči koja mu molekula dolazi u susret (topla ili hladna) i odluči hoće li je pustiti u drugu stranu ili ne. Ubrzo je to zamišljeno biće dobilo naziv Maxwellov demon, a predmnijevamo i zbog čega: zbog svoje ‘demonske uloge’ u kršenju Drugog zakona termodinamike! Naime, svojim odlukama koju će molekulu pustiti a koju ne, biće bi bilo u prilici izravno utjecati na rast entropije zatvorenog sustava; još gore, moglo bi, ako bi to htjelo, prouzročiti i one slučajeve u kojima bi se ukupni prirast entropije smanjivao! Svojim inteligentnim uvidom u to koja mu molekula plina pristiže (hladna ili topla) moglo bi namjerno prouzročiti smanjenje entropije cjelokupnog sustava, recimo, ako odluči na drugu stranu kutije puštati samo tople molekule plina. Ipak, u ovoj priči, nas ne zanima toliko kršenje Drugog zakona termodinamike koliko percepcija svijeta tog bića. Evidentno, da bi pustilo (na)dolazeću molekulu na drugu stranu kutije ono najprije mora znati o kakvoj je molekuli riječ (je li topla ili hladna), drugim riječima, mora se o tome informirati…

Međutim, kako informacijsku teoriju tumači Shannonov kolega W. Weaver, informacija se više tiče onoga što uopće o nečemu možemo reći nego što se u nekom trenutku o tome stvarno i reklo. Drugim riječima, za Shannona i Weavera manje je bitan proces saznavanja, važan je samo konačni broj molekula toplog i hladnog plina u kutiji, kao i njihov položaj (jesu li s ove strane pregrade kutije ili s one). Ako je vjerojatnost pojavljivanja tople i hladne molekule plina jednaka, entropija je najveća, a s njome i količina informacija koju demon percipira. Međutim, ako je ta vjerojatnost različita, recimo da se u dijelu kutije iz kojeg demonu nadolaze molekule nalazi topliji plin, onda je za očekivati da će mu daleko češće pristizati toplije molekule od hladnijih (prema Drugom zakonu termodinamike) što je, onda, prema Shannonu, manje informativno. Manju količinu informacija uzrokuje i obrnut slučaj, kada je vjerojatnost pojavljivanja toplih molekula plina mala, jer se u promatranom dijelu kutije nalazi hladnije molekule plina. Upravo, u toj spoznaji najveća je snaga i doprinos znanosti Shannonove teorije.

Međutim, mi se pitamo je li demon svjestan toga da je u desnom dijelu kutije plina više toplih nego hladnih molekula? On to ne može znati. Tek kad cijeli proces završi, kad se molekule toplog i hladnog plina ravnomjerno rasporede po kutiji, drugim riječima, kad se postigne stanje najveće entropije, on može zaključiti da je u samom prijenosu topline sudjelovala tolika i tolika količina informacija, manja ili veća, jer se plin kretao iz manje vjerojatnog stanja u stanje veće vjerojatnosti ili očekivano stanje. S druge strane, Shannon bi isti proces opisao riječima da su se molekule kretale iz stanja manje neizvjesnosti u stanje veće neizvjesnosti. Dakle, može li se zakonitost koja se odnosi na prijenos informacija dovesti u vezu sa zakonitošću koja vlada u prijenosu topline (i koju ‘propisuje’ Drugi zakon termodinamike)? Može – ali u obrnutom shvaćanju/značenju. Iako količinski jednake, entropija i količina informacija u nekom značenjskom smislu potpuno su suprotne. ‘Vjerojatnije’ i ‘neizvjesnije’ naprosto ne mogu imati isti smisao.

Sada se pokušajmo staviti u položaj demona koji upravlja pregradom kutije s plinom. Vrlo brzo ćemo biti primorani napustiti svijet statistike, predviđanja i porinuti natrag u stvarnost. Svaku molekulu koja nam dolazi u susret na osnovi njenog svojstva je li topla ili hladna propustit ćemo (ili nećemo) na drugu stranu. Što bi, dakle, bila informacija za demona koji upravlja pregradom kutije s plinom? Ovdje je važno uočiti da to pitanje više nema nikakve veze sa Shannonovom količinom informacija. Dakle, više ne pitamo nešto vezano uz ‘količinu informacija’, već uz samu informaciju i dolazimo do sljedećeg odgovora: informacija je sadržana u demonovoj percepciji odnosno procesu informiranja; ona je sama ‘supstanca’ njegove percepcije koja defacto postaje njegovo znanje o tome je li se radi o toploj ili hladnoj molekuli plina koja mu dolazi u susret.

Zbog toga B. Greene u svojoj definiciji entropije poseže za izrazom količine skrivenih informacija u sustavu. Kakvo god bilo mikroskopsko stanje sustava i kakva god bila vjerojatnost da će se ono ostvariti – ono sadrži i informaciju, skrivenu informaciju u smislu da entropiji, kao ni Shannonu, nije važan sadržaj te informacije, nego samo njena vjerojatnost pojavljivanja.

Pritom, uočimo da se entropija odnosi samo na prebrojavanje bilo kakvog (iznenadnog) događaja s molekulama u kutiji s plinom, a informacija na razlikovanje tog događaja u kvalitativnom smislu (npr. uočavanje nekog svojstva molekule plina, primjerice, je li topla ili hladna). Shannon je, dakle, svoju ‘teoriju informacija’ temeljio na postavci da se u oba slučaja radi o istom broju…

U slučaju povećanja entropije sustava, očevidno, na djelu je djelovanje jednog zakona u pozadini, Drugog zakona termodinamike. Povećanje entropije sustava izravna je posljedica kretanja molekula u stanje izjednačenih temperatura (tzv. toplinske smrti). Slijedom toga, L. Boltzman samo je pokazao ovisnost ukupne entropije nekog zatvorenog sustava o vjerojatnostima mikroskopskih stanja njegovih sastavnica. Međutim, što bi se, i ako bi, onda, nalazilo u pozadini informacijske teorije? Koji analogan proces? Prema nekom mojemu razmišljanju, to je proces stjecanja znanja o svijetu koji nas okružuje. Čovjek je biće koje teži iz stanja manjeg znanja ili neznanja prijeći u stanje većeg znanja ili najvećeg mogućeg znanja. Paradoks u čovjekovoj težnji, međutim, ogleda se u činjenici da ono što može znati, prisiljen je sâm prethodno definirati (tzv. ‘Shannonov skup mogućnosti’). „Čovjek je mjera svih stvari“, tu duboku istinu dokučili su još Stari Grci. Ako želi ovladati ‘kemijskim znanjem’ o svijetu koji ga okružuje, svijet mora najprije podijeliti na molekule, ako želi imati ‘fizikalno znanje’ o istom, mora ga podijeliti na atome, kvarkove, bozone i druge čestice itd. Po Shannonu, sva moguća stanja molekula i atoma predstavljali bi najsveobuhvatniji unaprijed definiran set mogućnosti iz kojeg bi bilo moguće odabrati i prenijeti, njima analognu, informaciju.

Uočimo, što se tiče kutije s plinom i zamisli Maxwellovog demona možda je manje evidentno, ali nikako nevažno za cijelu priču, da je njome određena najmanja jedinica koja će ulaziti u proračun kako entropije, tako i količine informacija, a to je molekula. U pokusu se zapravo promatra na koje sve načine jedna molekula plina može ‘izgenerirati’ informaciju; dakle, ne generira informaciju svijet kao takav, nego onaj dio svijeta koji smo prethodno ‘uobličili’ u nekakav entitet, u ovom primjeru – u molekulu. Pritom, ne smijemo zaboraviti da se s dovoljno moćnom tehnologijom možemo spustiti još dublje u mikrosvijet te entropiju i količinu informacija računati ‘preko’ atoma. Čovjek je, dakle, taj koji je prisiljen podvući crtu, ‘uobličiti dio stvarnosti’, stvoriti, uvjetno rečeno, podatkovni entitet, s kojim dalje može računati, i na koncu konaca, i uopće bilo što izračunati (prevesti u matematiku). On je taj koji određuje tzv. Shannonov skup mogućnosti (domenu) iz kojeg se generira neka funkcijski odgovarajuća, količina informacija (kodomena).

U pozadini informacijske teorije, dakle, stoji unaprijed definirani skup mogućnosti mikroskopskih stanja sastavnica sustava o kojemu ovisi količina generiranih informacija… Ne možemo izračunati količinu informacija, ako nismo definirali skup svih mogućnosti u kojima se sastavnice jednog sustava mogu naći (toplo-hladno je samo jedan set ukupnog skupa mogućnosti, položaj molekula može biti drugi itd.) Pritom, vrijednosti entropije sustava [S] i količine informacije [H] kao kvantitativne ostaju jednake. Međutim, demon koji se direktno informira i koji barata informacijama, ništa od toga ne može znati. Za njega je informacija ono što pristiže u njegov um. Na neki način, ovo razmatranje je neka vrst priloga daljnjem istraživanju koje bi zakonitostima koje vrijede za procese kodiranja i prijenosa informacija (i koje je postulirao Claude E. Shannon) trebalo pridodati zakonitosti koje bi vrijedile u postupku zaprimanja informacija svjesnog uma za potrebe uvećanja njegova znanja.

Sâm paradoks u pogledu Maxwellovog demona ogleda se u činjenici da se uplivom njegovih odluka o tome hoće li određenu molekulu pustiti u drugu stranu kutije ili ne dolazi do toga da se entropija ukupnog sustava ne mora povećavati, dapače, može se i smanjiti, a što onda nije u skladu s Drugim zakonom termodinamike. Na sreću, Leo Szilard još je davne 1929. pokazao da tomu ipak nije tako i da se entropija čitavog sustava povećava zbog energije koja je potrebna za funkcioniranje demonovog uma. Da biste uopće bili u stanju razlikovati molekulu koja vam dolazi u susret, morate biti živi, a ako ste živi morate sagorijevati kisik i dušik, drugim riječima, morate povećavati ukupnu entropiju svemira.

Siječanj 24, 2015

Entropija u statističkoj mehanici i informacija

IVAN SUPEK: Povijest fizike

Toplina je samo posljedica gibanja molekula, a gibanje molekula – primjerice, plina u kutiji – potiče Drugi zakon termodinamike. To znači da bi i proces ‘miješanja’ molekula na mikrorazini trebao biti nepovratan kao što je to proces u kojemu toplina s toplijeg tijela prelazi na hladnije, a koji zamjećujemo na makrorazini… Ali, kako to izraziti? Isto pitanje postavio je i austrijski fizičar Ludwig Boltzmann i došao do sljedećeg zaključka: zatvoreni sustavi (poput kutije s plinom) iz stanja manje vjerojatnosti teže prijeći u stanje veće vjerojatnosti! Boltzmann je tako došao do veličine entropije u statističkoj mehanici. Za razliku od veličine prirasta entropije u termodinamici koja se proračunava kao omjer ukupno oslobođene topline i prosječno razvijene temperature u procesu, u statističkoj mehanici radi se o apsolutnoj veličini (S) koja svoju vrijednost pronalazi u logaritamskoj relaciji spram vjerojatnosti stanja sustava:

S = k log W

Međutim, postavlja se pitanje što se misli pod vjerojatnošću stanja sustava. Naime, ako su u igri molekule, ne bismo li svaku od njih trebali ‘priupitati’ za njeno stanje i zatim na osnovi neke prosječne vrijednosti svih stanja proračunati ukupno makroskopsko stanje sustava. Da, ali u praktičnom smislu, to se čini nemogućim. Zbog toga su fizičari pribjegli statističkoj zakonitosti koju na jasan i svima razumljiv način elaborira Ivan Supek u Povijesti fizike:

Statistički zakon ne odnosi se na pojedini događaj, koji je neizvjestan, već određuje samo ishod velikog broja slučajeva…
Statistički zakoni zanemaruju gibanje pojedinih atoma i molekula. Oni određuju samo ponašanje golema mnoštva. Statističke procjene govore nam koliko ćemo prosječno atoma ili molekula naći sa stanovitim osobinama. Koji su to atomi, njihova imena i osobni podaci, sve to ne ulazi u statistiku. Statistička zakonitost urezuje opće crte mnoštva, brišući individualne sudbine sastavnih dijelova.

U smislu Drugog zakona termodinamike i statističke zakonitosti, tijelo koje je toplije od svoje okoline reprezentira stanje manje vjerojatnosti. Za razliku od njega, na tijelo jednake temperature s temperaturom svoje okoline puno je izvjesnije da ćemo naići. I to opet samo zato, što Drugi zakon termodinamike ‘propisuje’ da priroda teži ‘izjednačavanju temperatura’ odnosno postizanju vjerojatnijih stanja.

U svojim brojnim derivacijama, gornja formula za entropiju poprima i oblik u kojem je jednaka zbroju umnožaka vjerojatnosti i logaritma vjerojatnosti mikroskopskih stanja sustava:

entropy Dakle, ako je vjerojatnost pojavljivanja određenih mikroskopskih stanja sustava razmjerno velika (recimo da se većina molekula toplog plina nalazi u desnom dijelu kutije s plinom) kažemo da se radi o sustavu s niskom entropijom i obrnuto: ako je vjerojatnost pojavljivanja istih jednaka, a to je slučaj savršeno izmiješanih toplih i hladnih molekula, onda se radi o sustavu s najvećom mogućom entropijom. Gornja formula proračunava točnu vrijednost entropije i kako vidimo, izuzmemo li Boltzmannovu konstantu k (u koju su se, u međuvremenu, ‘povukle’ vrijednosti oslobođene topline i temperature) u potpunosti ovisi o vjerojatnostima mikroskopskih stanja sustava.
Boltzmannova formula za entropiju, dakako, upadljivo podsjeća na Shannonovu formulu za količinu informacije ili neizvjesnosti (uncertainty) odnosno ‘informacijske entropije’. Zapravo, radi se o istim vrijednostima odnosno količinama. Na osnovi statističkog proračuna entropije, Shannon je zaključio da količina informacije i entropija zatvorenog sustava moraju biti jednake. To znači da je Shannonov rad u potpunosti oslonjen na izračun entropije statističke mehanike, a ne na izračun iste veličine rabljene u termodinamici. Tako smo došli do točke u kojoj možemo uspostaviti i dublju poveznicu između ove dvije veličine… [nastavit će se…]

Sljedeća stranica »

Blog pokreće Wordpress.com.

%d bloggers like this: