Entropiyaning asosiy xossalari
O'ylab ko'ring, da nima sharoitlar entropiya qabul qiladi kamida va eng buyuk qiymatlar. Faraz qilaylik, ikkita x 1 , x 2 elementdan tashkil topgan X ikkilik xabari p (x 1 ) va p yuzaga kelish ehtimoli bilan uzatilishi kerak. (x 2 ).
1 ) =1, p (x 2 ) =0 bo'lgan holatni ko'rib chiqaylik .
H ( X ) p ( x 1 ) log p ( x 1 ) p ( x 2 ) log p ( x 2 )
lim
p ( x2 _ ) 0
p ( x 2 ) log p ( x 2 )
lim
jurnal
bitta
p ( x2 ) _
lim jurnal _
p ( x
) 0 1
2
p ( x2 ) _
1 log e
1
lim
0.
Bu yerda =1/p(x 2 ) belgisi kiritiladi va noaniqlik Lapital qoidasiga muvofiq ochiladi. Agar elementlardan birining paydo bo'lish ehtimoli 1 ga teng bo'lsa, entropiya minimal va 0 ga teng.
2
1 ) = p (x 2 ) = 0,5 bo'lgan holatni ko'rib chiqing .
H ( X _ 0,5 funt 0,5 _ 1 bit
i = 1
Entropiya maksimal va 1 ga teng.
Ikkilik belgilar uchun H max = 1bit/dv.symbol.
Olingan natijalar n - elementlarning x 1 , x 2 ,..., x n-1 , x n ning X xabariga umumlashtiriladi . p(x i ) = 1, p(x j ) = 0, i j uchun H min (X) =0 .
n
Hmax _ ( X ) p ( x i ) jurnal p ( x i )
i = 1
p(x 1 )= uchun p(x 2 )= =p(x n-1 )= p ( xn ).
log n ,
Shuning uchun optimal kodlash uchun elementlarning paydo bo'lish ehtimolini tenglashtirish kerak.
3-ma'ruza
O'rtasida statistik aloqalar mavjudligida diskret xabarlarning entropiyasi
elementlar
Elementlar orasidagi statistik munosabatlar, agar x i elementining paydo bo'lish ehtimoli undan oldin qaysi element x i-1 bo'lganiga bog'liq bo'lsa, sodir bo'ladi .
Statistik bog'lanishlar qo'shni elementlarning juftlarini (bu holda ular oddiygina bog'langan Markov zanjiri), qo'shni elementlarning uchliklarini (ikki marta bog'langan Markov zanjiri), ..., n + 1 - qo'shni elementlarni (n - bog'langan Markov zanjiri, n) qamrab olishi mumkin.
).
Barcha haqiqiy xabarlar n - bog'langan Markov zanjirlari. Elementlarning X xabarini ko'rib chiqing x 1 , x 2 , , x n ifodalaydi o'zingiz
oddiygina bog'langan Markov zanjiri, ya'ni. qo'shni elementlarning juftlari statistik munosabatda bo'ladi.
Belgilang p(x i /x j ) - x i elementning paydo bo'lish ehtimoli , agar undan oldin x j elementi (j=i-1) bo'lsa. X 1 \u003d 1 yoki 0, x 2 \u003d 0 yoki 1 bo'lsin, keyin quyidagi holatlar mumkin
p(0/0) p(0/1)
p(1/0) p(1/1) .
Entropiya H * (x i ) = log 1/( p(x i /x j )). Barcha x i ni o'rtacha hisoblab, p(x i /x j ) va x j ni hisobga olgan holda, p( x j ni hisobga olgan holda , biz oddiy bog'langan Markov zanjiri entropiyasining o'rtacha qiymatini olamiz:
n n
H ( X ) p ( x / x ) p ( x ) H ( x )
i = 1
n n
j 1
i j j i
. (*)
- p ( x i / x j ) p ( x j ) log p ( x i / x j )
i 1 j 1
Ikki cheklovchi holat uchun (*) ifodasini ko'rib chiqing. x i va x j bir-biriga bog'liq emas, ya'ni. p(x i /x j ) = p(x i ) va
i
H ( X ) p ( x
i = 1
n
) log p ( x
i ) p ( x j )
j 1
H ( X ), t . ga . p ( x j ) 1.
j 1
i va x j elementlari o'rtasida to'liq funktsional bog'liqlik mavjud , ya'ni. p(x i /x j ) = 0 yoki 1 va keyin H * (X) = 0.
Shunday qilib, 0 H * (X) H(X). (**)
Binobarin, xabar elementlari o'rtasida statistik bog'lanishlarning mavjudligi entropiyani kamaytiradi va ko'proq darajada statistik bog'lanishlar bilan qoplangan qo'shni elementlarning soni shunchalik ko'p bo'ladi.
Rus tilidagi xabarning misolini ko'rib chiqing. Agar biz e va e , b va b ni ajratmasak va bo'sh joy kerakligini hisobga olsak, bizda 32 ta belgi mavjud. Maksimal entropiya qancha? Belgilarning teng ehtimoli va mustaqilligi shartida, har bir belgi uchun o'rtacha entropiya maksimal va teng bo'ladi.
H max \u003d lb 32 \u003d 5 bit / belgi.
Rus tilidagi so'zlardagi belgilarning paydo bo'lishi bir xil darajada emas. Agar belgilarning turli xil ehtimolini hisobga olsak, u holda
H 1 = 4,39 bit/belgi.
Ikki belgi o'rtasidagi statistik munosabatni hisobga olgan holda, entropiya qiymatga kamayadi
H 2 \u003d 3,52 bit / belgi (yakka bog'langan Markov zanjiri), uchta belgi orasida - qiymatgacha
H 3 \u003d 3,05 bit / belgi (ikki marta bog'langan Markov zanjiri),
......................
sakkizta belgi orasida - qiymatgacha
H 8 = 2 bit / belgi (etti bog'langan Markov zanjiri) va keyin o'zgarishsiz qoladi.
Xulosa:
Xabarlarni samarali kodlash uchun entropiyani oshirish kerak
tekshiring:
Belgilarning paydo bo'lish ehtimolini tekislash. Elementlar orasidagi statistik munosabatlarni yo'q qilish. Xabarning ortiqchaligi
Agar xabardagi elementlar bir xil ehtimolga ega bo'lsa va bir-biriga bog'liq bo'lmasa, bunday xabarni optimal tarzda kodlash mumkin. Bunday xabarni yuborish uchun siz n opt elementini yuborishingiz kerak. Agar xabar optimal tarzda kodlanmagan bo'lsa, uni uzatish uchun n n opt belgilar talab qilinadi . Bunday holda, ortiqchalik paydo bo'ladi, uning raqamli xarakteristikasi ortiqcha koeffitsientdir:
k va = (H max (X) - H (X))/ H max (X), bu erda
H max (X) - optimal kodlash uchun entropiya; H (X) - optimal bo'lmagan kodlash uchun entropiya.
Shunday qilib, 0 k va 1. Rus tili uchun k va = (5 - 2)/5 =0,6.
Do'stlaringiz bilan baham: |