Prva Šenonova teorema

Prva Šenonova teorema je uspostavlja granice moguće kompresije podataka, i daje praktično značenje Šenonove entropije. Ovu teoremu je 1948. dokazao Klod Elvud Šenon, i zaključio je da je nemoguće izvršiti kompresiju a da prosečan broj bita po simbolu bude manji od entopije izvora datih simbola, ili će doći do gubitka informacije. Međutim moguće je vršiti kompresiju gde će broj bita po simbolu biti približan entropiji izvora sa malo verovatnoćom gubitka informacije. Tačnije, ova teorema pokazuje da kodovanjem sekvenci sa izvora pomoću koda sa određenim alfabetom možemo sigurno dekodovanjem dobiti izvorne simbole.[1][2][3]

Diskretan izvor bez memorije uredi

Diskretan izvor bez memorije (engl. discrete memoryless source - DMS) čiji izlaz je slučajna promjenjiva a, koja uzima realizacije iz konačnog alfabeta А=(а1, а2... ар) sa verovatnoćama P[i], i=1,2...n. Simboli se pojavljuju nekim slučajnim rasporedom, u konstantnim ili promenjivim vremenskim razmacima.

Kodovanje uredi

Kod je prevođenje niza ulaznih simbola u niz izlaznih simbola. Kod je jednoznačno dekodabilan ukoliko ne postoje dve kodne reči konačne dužine koje čine istu sekvencu, blaži kriterijum je da ni jedna reč nije prefiks druge.

Pozitivan stav uredi

Za DMS sa alfabetom A i entropijom Н(А)=Н za svako N iz skupa prirodnih brojeva postoji jednoznačno dekodabilan kod koji se sastoji od binarnih sekvenci dužine  , a je vektor iz  (n-torka iz A)   Σ   

gde suma ide po  

Očekivana dužina kodnih reči. о(N) predstavlja član koji sa N raste sporije od linearno.

Negativan stav uredi

Ne postoji slučaj da je

 

Dokaz uredi

Pozitivan stav uredi

Sve N-torke iz   mogu se jednoznačno kodovati binatnim  -torkama ukoliko je

     

odakle sledi da

 

Podelimo   na podskupove   i  

kao u АЕР lemi svaki element iz   možemo kodovati sa  

gde prema АЕP to iznosi

 

da bi sigurno dobili prefiksan kod svakom elementu iz   dodelimo 0, a elementu iz   1.

Prosečna dužina ovako dobijenog koda je:

 

 

 

pa dobijamo

 

i za e=  dobijemo

 

pa je

o(N) 

funkcija koja raste sporije nego linearno i sledi da je

 

Negativan stav uredi

Definišimo raspodelu

 

i sledi

 

 

 

 

poznato je da  

 

prema Kraft MakMilanovoj nejednakosti sledi

 

Reference uredi

  1. ^ C.E. Shannon, "A Mathematical Theory of Communication Arhivirano na sajtu Wayback Machine (16. februar 2009)", Bell System Technical Journal, vol. 27, pp. 379–423, 623-656, July, October, 1948
  2. ^ David J. C. MacKay. Information Theory, Inference, and Learning Algorithms Cambridge. . Cambridge University Press. 2003. ISBN 978-0-521-64298-9. .
  3. ^ Cover 2006

Literatura uredi

Spoljašnje veze uredi