Informatsiooniteooria
See artikkel vajab toimetamist. (November 2015) |
Informatsiooniteooria on matemaatika haru, mis tegeleb informatsiooni kvantifitseerimisega. Informatsiooniteooriasse kuuluvad näiteks informatsiooni entroopia, kommunikatsioonisüsteemid, krüptograafia, andmete pakkimine, veakorrektsioon jne. Informatsiooniteooria valdkonda ei kuulu raamatukogundus ja infotehnoloogia.
Kaasaegsele informatsiooniteooriale pani aluse Claude Shannon oma 1948. aastal avaldatud artiklis "A Mathematical Theory of Communication". Tema järgi on informatsiooniks ainult need sõnumid, mille esinemist ei saa vastuvõtja ennustada. Teates leiduva info hulk on võrdne bittide minimaalse hulgaga, mida läheb vaja teate kõikvõimalike väärtuste kodeerimiseks eeldades, et kõik teated on võrdse tõenäosusega. Näiteks andmebaasis läheb nädalapäevade tähistamiseks vaja kolme bitti:
- 000 = esmaspäev
- 001 = teisipäev
- 010 = kolmapäev
- 011 = neljapäev
- 100 = reede
- 101 = laupäev
- 110 = pühapäev
- 111 = seda ei kasutata
Kui nädalapäevi esitada tavaliste tähejadade abil, siis vajaks nende säilitamiseks rohkem ruumi, kuid rohkem infot need ei sisaldaks.
Formaalselt mõõdetakse teates sisalduva info hulka selle entroopiaga . Üldjuhul sõnumi entroopia (bittides)
- ,
kus n on sõnumi võimalike väärtuste arv. Seejuures eeldatakse kõikide väärtuste puhul nende esinemise võrdset tõenäosust.
Vaata ka
muudaKirjandus
muuda- James Gleick. Informatsioon. Ajalugu. Teooria. Uputus, Äripäeva kirjastus: 2014. ISBN 9789949523320
Välislingid
muuda- David MacKay Information Theory, Inference and Learning Algorithms.