Axborotning miqdoriy o'lchovi
Axborotning miqdoriy o'lchovi Klod Shennon tomonidan kiritilgan.
1 , x 2 , elementlaridan tashkil topgan X xabari bo'lsin . , x n . Har biriga
1 ), p (x 2 ) , paydo bo'lish ehtimoliga mos keladi . , p( xn ).
Da bino miqdoriy chora-tadbirlar Shennon edi ishlatilgan fon elementdagi ma'lumotlar miqdori ushbu elementning paydo bo'lish ehtimoliga teskari proportsionaldir; bular.
I(x i ) = 1/p(x i ) , (1)
Bu yerda I(x i ) - x i elementdagi axborot miqdori, p(x i ) esa x i elementining paydo bo‘lish ehtimoli .
Biroq, bu yondashuvning kamchiliklari bor: p(x i ) =1 bo'lganda, I(x i ) = 1, lekin u I(x i ) = 0 bo'lishi kerak.
Ikki element bilan x i va x j , I(x i , x j ) = I(x i ) I(x j ) va u I(x i ,x j ) = I(x i ) + I( boʻlishi kerak. x j ), ya'ni. axborot miqdorining qo'shilish qonuni buzilgan.
Logarifmik o'lchov bu ikki kamchilikdan xoli. Shuning uchun I(x i ) = jurnal 1/p(x i ). (2)
Bunday yondashuv bilan p(x i ) =1 , I(x i ) = 0.
x i , x j , I(x i ,x j )=log 1/p(x i ) p(x j )=log 1/p(x i )+log1/p(x j )=I(x i ) )+I(x j ).
(2) ga muvofiq axborotning o'lchov birliklari logarifm asosiga bog'liq: lg - [dit], ln - [nit], lb - [bit].
Formula (2) bitta elementdagi ma'lumotlar miqdorini belgilaydi. O'rtachani aniqlash uchun miqdori ma `lumot manba kerak aniqlash o'rtacha yoqilgan hamma elementlar, ularning paydo bo'lish ehtimolini hisobga olgan holda, bular.
I ( X ) p ( x i ) men ( x i )
i = 1
p ( x i ) jurnali
i = 1
n
1 _
p ( x i )
. (3)
p ( x i ) log p ( x i )
i = 1
Formula (3) xabardagi ma'lumotlarning o'rtacha miqdorini ifodalaydi.
Entropiya xabarning noaniqligi o'lchovi sifatida
Xabarni uzatish natijasida ma'lumot olishning zaruriy sharti qaysi xabarning uzatilishining noaniqligidir.
Bunday holda, xabarlarni uzatish natijasida olingan ma'lumotlarning miqdori qanchalik ko'p bo'lsa, uzatishdan oldin noaniqlik shunchalik katta bo'ladi.
Ma'lumot olish mexanizmini ko'rib chiqing:
OLDINDAN NOANIQLIKNI KEYIN O'TKAZISh MA'LUMOTNI O'TKAZISh
Shunday qilib, Shennonning noaniqligi entropiyadir. H. H(x i ) = bilan belgilanadi log 1/p(x i ). (4)
n
H ( X )
i = 1
p ( x i ) jurnal
p ( x i ) . (5)
Entropiya va ma'lumot uchun formulalar bir xil, ammo ma'nosi boshqacha. Entropiya aprior xususiyat (uzatishdan oldin), axborot posteriori xususiyat (uzatishdan keyin).
Agar biz ma'lumotlarni yo'qotishsiz uzatishni hisobga olsak, unda biz bor
OLDINDAN ENTROPIYA HAQIDA MA'LUMOT GEAR H(X) 0
KEYIN TRANSFERLAR 0 I(X)=H(X)
Axborotni kodlash sifati entropiya bilan belgilanadi:
H(X) max - kodlashning eng yaxshi usuli; H(X) min - eng yomon holatlarni kodlash.
Aytaylik, ma'lumot ikki usulda kodlangan:
H 1 (X) = 5 bit/belgi; H 2 (X) = 2 bit/belgi. Birinchi kodlash usuli yaxshiroq.
Optimal kodlash har bir elementning entropiyasini oshirishga qaratilgan bo'lishi kerak.
Do'stlaringiz bilan baham: |