Ця стаття не містить . (грудень 2018) |
Математична теорія інформації ґрунтується на теорії ймовірності й статистиці, і вимірює інформацію за допомогою декількох кількостей інформації (англ. quantities of information). Застосовувану в наступних формулах одиницю інформаційної ентропії визначає вибір логарифмічної основи. Найзвичнішою одиницею інформації є біт, що ґрунтується на двійковому логарифмі. До інших одиниць належать нат, що ґрунтується на натуральному логарифмі, та гартлі, що ґрунтується на десятковому логарифмі.
Надалі вираз вигляду , коли є нулем, вважається за згодою рівним нулеві. Це є виправданим, оскільки для будь-якої логарифмічної основи .
Власна інформація
Шеннон вивів міру інформаційного вмісту, названу власною інформацією (англ. self-information) або «несподіваністю» (англ. "surprisal") повідомлення :
де є ймовірністю обрання повідомлення з усіх можливих варіантів вибору в просторі повідомлень . Основа логарифма впливає лише на коефіцієнт масштабування, і, відтак, на одиниці, в яких виражається вимірюваний інформаційний вміст. Якщо основою логарифма є 2, то міра інформації виражається в одиницях бітів.
Інформація передається з джерела до отримувача лише якщо отримувач цієї інформації ще не мав її заздалегідь. Повідомлення, які передають інформацію, що відбувається напевно, і вже відома отримувачеві, реальної інформації не містять. Повідомлення, що трапляються нечасто, містять більше інформації, ніж повідомлення, які трапляються частіше. Цей факт віддзеркалено в наведеному вище рівнянні — незмінне повідомлення, тобто, з імовірністю 1, має нульову міру інформації. Крім того, складене повідомлення з двох (або більше) не пов'язаних (або взаємно незалежних) повідомлень матиме міру інформації, яка є сумою мір інформації кожного з повідомлень окремо. Цей факт також віддзеркалено в наведеному вище рівнянні, що підтверджує обґрунтованість його виведення.
Приклад. Повідомлення прогнозу погоди: «Прогноз на ніч: Темно. Тривала темрява, аж до широко розсіяного світла вранці.» Це повідомлення майже не містить інформації. Проте прогноз хуртовини безумовно міститиме інформацію, оскільки таке не трапляється щовечора. Величина інформації буде ще більшою в точному прогнозі снігу для теплого місця, такого як Маямі. Величина інформації в прогнозі снігу для місця, де сніг не йде ніколи (неможлива подія), є найвищою (нескінченність).
Ентропія
Ентропія (англ. entropy) дискретного простору повідомлень є мірою величини невизначеності (англ. uncertainty), що ми маємо стосовно того, яке повідомлення буде обрано. Її визначено як усереднену власну інформацію повідомлення з цього простору повідомлень:
де
- позначує операцію математичного сподівання (англ. expected value).
Важливою властивістю ентропії є те, що вона є найбільшою, коли всі повідомлення в просторі повідомлень є рівноймовірними (тобто, ). В цьому випадку .
Іноді функцію виражають в термінах імовірностей розподілу:
- де кожна та
Важливим особливим випадком цього є [en]:
Спільна ентропія
Спільну ентропію (англ. joint entropy) двох дискретних випадкових змінних та визначають як ентропію їхнього спільного розподілу:
Якщо та є незалежними, то ця спільна ентропія є просто сумою їхніх окремих ентропій.
(Зауваження: Спільну ентропію не слід плутати з перехресною ентропією, незважаючи на подібний запис.)
Умовна ентропія (ухильність)
За заданого конкретного значення випадкової змінної умовну ентропію за визначено як
де є умовною ймовірністю за заданого .
Умовну ентропію (англ. conditional entropy) за заданого , що також називають ухильністю (англ. equivocation) від , задають як
Вона використовує умовне математичне сподівання з теорії імовірності.
Базовою властивістю умовної ентропії є те, що
Відстань Кульбака — Лейблера (приріст інформації)
Відстань Кульбака — Лейблера (або розходження інформації, приріст інформації, або відносна ентропія, англ. Kullback–Leibler divergence, information divergence, information gain, relative entropy) є способом порівнювання двох розподілів, «істинного» розподілу ймовірності та довільного розподілу ймовірності . Якщо ми стискаємо дані таким чином, який передбачає, що є розподілом, що лежить в основі якихось даних, тоді як насправді правильним розподілом є , то відстань Кульбака — Лейблера є числом усереднених додаткових бітів над рівнем, необхідних для стискання, або, математично,
В якомусь сенсі вона дійсно є «відстанню» від до , хоча вона й не є справжньою метрикою через те, що вона не є симетричною.
Взаємна (передавана) інформація
Виявляється, що однією з найкорисніших та найважливіших мір інформації є взаємна інформація (англ. mutual information), або передавана інформація (англ. transinformation). Вона є мірою того, як багато інформації може бути отримано про одну випадкову змінну шляхом спостерігання іншої. Взаємну інформацію відносно (яка концептуально представляє усереднену величину інформації про , яку можна здобути спостеріганням ) задають як
Основною властивістю взаємної інформації є те, що
Тобто, знаючи , ми можемо заощадити в середньому бітів у кодуванні , у порівнянні з незнанням . Взаємна інформація є симетричною:
Взаємну інформацію можливо виразити як усереднену відстань Кульбака — Лейблера (приріст інформації) апостеріорного розподілу ймовірності за заданого значення відносно апріорного розподілу ймовірності :
Іншими словами, вона є мірою того, наскільки в середньому зміниться розподіл ймовірності , якщо ми отримаємо значення . Обчислюють її часто як розходження між добутком відособлених розподілів та справжнім спільним розподілом:
Взаємна інформація є тісно пов'язаною з перевіркою логарифмічним відношенням правдоподібностей в контексті таблиць спряженості та мультиноміального розподілу, та з критерієм χ2 Пірсона: взаємну інформацію можливо розглядати як статистику для оцінювання незалежності в парі змінних, і вона має добре визначений асимптотичний розподіл.
Диференціальна ентропія
Основні міри дискретної ентропії було аналогічно розширено на неперервні простори шляхом заміни сум інтегралами, та функцій маси ймовірності функціями густини ймовірності. І хоча в обох випадках взаємна інформація виражає число бітів інформації, спільне для цих двох джерел, ця аналогія не передбачає однакових властивостей: наприклад, диференціальна ентропія може бути від'ємною.
Диференціальні аналоги ентропії, спільної ентропії, умовної ентропії та взаємної інформації визначено таким чином:
де є функцією густини спільного розподілу, та є відособленими розподілами, а є умовним розподілом.
Див. також
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Cya stattya ne mistit posilan na dzherela Vi mozhete dopomogti polipshiti cyu stattyu dodavshi posilannya na nadijni avtoritetni dzherela Material bez dzherel mozhe buti piddano sumnivu ta vilucheno gruden 2018 Matematichna teoriya informaciyi gruntuyetsya na teoriyi jmovirnosti j statistici i vimiryuye informaciyu za dopomogoyu dekilkoh kilkostej informaciyi angl quantities of information Zastosovuvanu v nastupnih formulah odinicyu informacijnoyi entropiyi viznachaye vibir logarifmichnoyi osnovi Najzvichnishoyu odiniceyu informaciyi ye bit sho gruntuyetsya na dvijkovomu logarifmi Do inshih odinic nalezhat nat sho gruntuyetsya na naturalnomu logarifmi ta gartli sho gruntuyetsya na desyatkovomu logarifmi Prosta en sho pokazuye aditivni ta riznicevi vidnoshennya sered shennonovih bazovih kilkostej informaciyi dlya korelovanih zminnih X displaystyle X ta Y displaystyle Y Oblast yaka mistitsya v oboh kolah ye spilnoyu entropiyeyu H X Y displaystyle mathrm H X Y Kolo livoruch chervonij i fioletovij ye osobistoyu entropiyeyu H X displaystyle mathrm H X v yakomu chervone ye umovnoyu entropiyeyu H X Y displaystyle mathrm H X Y Kolo pravoruch sinij ta fioletovij ye H Y displaystyle mathrm H Y a sinye v nomu ye H Y X displaystyle mathrm H Y X Fioletove ye vzayemnoyu informaciyeyu I X Y displaystyle operatorname I X Y Nadali viraz viglyadu p log p displaystyle p log p koli p displaystyle p ye nulem vvazhayetsya za zgodoyu rivnim nulevi Ce ye vipravdanim oskilki dlya bud yakoyi logarifmichnoyi osnovi lim p 0 p log p 0 displaystyle lim p rightarrow 0 p log p 0 Vlasna informaciyaShennon viviv miru informacijnogo vmistu nazvanu vlasnoyu informaciyeyu angl self information abo nespodivanistyu angl surprisal povidomlennya m displaystyle m I m log 1 p m log p m displaystyle operatorname I m log left frac 1 p m right log p m de p m P r M m displaystyle p m mathrm Pr M m ye jmovirnistyu obrannya povidomlennya m displaystyle m z usih mozhlivih variantiv viboru v prostori povidomlen M displaystyle M Osnova logarifma vplivaye lishe na koeficiyent masshtabuvannya i vidtak na odinici v yakih virazhayetsya vimiryuvanij informacijnij vmist Yaksho osnovoyu logarifma ye 2 to mira informaciyi virazhayetsya v odinicyah bitiv Informaciya peredayetsya z dzherela do otrimuvacha lishe yaksho otrimuvach ciyeyi informaciyi she ne mav yiyi zazdalegid Povidomlennya yaki peredayut informaciyu sho vidbuvayetsya napevno i vzhe vidoma otrimuvachevi realnoyi informaciyi ne mistyat Povidomlennya sho traplyayutsya nechasto mistyat bilshe informaciyi nizh povidomlennya yaki traplyayutsya chastishe Cej fakt viddzerkaleno v navedenomu vishe rivnyanni nezminne povidomlennya tobto z imovirnistyu 1 maye nulovu miru informaciyi Krim togo skladene povidomlennya z dvoh abo bilshe ne pov yazanih abo vzayemno nezalezhnih povidomlen matime miru informaciyi yaka ye sumoyu mir informaciyi kozhnogo z povidomlen okremo Cej fakt takozh viddzerkaleno v navedenomu vishe rivnyanni sho pidtverdzhuye obgruntovanist jogo vivedennya Priklad Povidomlennya prognozu pogodi Prognoz na nich Temno Trivala temryava azh do shiroko rozsiyanogo svitla vranci Ce povidomlennya majzhe ne mistit informaciyi Prote prognoz hurtovini bezumovno mistitime informaciyu oskilki take ne traplyayetsya shovechora Velichina informaciyi bude she bilshoyu v tochnomu prognozi snigu dlya teplogo miscya takogo yak Mayami Velichina informaciyi v prognozi snigu dlya miscya de snig ne jde nikoli nemozhliva podiya ye najvishoyu neskinchennist EntropiyaEntropiya angl entropy diskretnogo prostoru povidomlen M displaystyle M ye miroyu velichini neviznachenosti angl uncertainty sho mi mayemo stosovno togo yake povidomlennya bude obrano Yiyi viznacheno yak userednenu vlasnu informaciyu povidomlennya m displaystyle m z cogo prostoru povidomlen H M E I M m M p m I m m M p m log p m displaystyle mathrm H M mathbb E left operatorname I M right sum m in M p m operatorname I m sum m in M p m log p m de E displaystyle mathbb E poznachuye operaciyu matematichnogo spodivannya angl expected value Vazhlivoyu vlastivistyu entropiyi ye te sho vona ye najbilshoyu koli vsi povidomlennya v prostori povidomlen ye rivnojmovirnimi tobto p m 1 M displaystyle p m 1 M V comu vipadku H M log M displaystyle mathrm H M log M Inodi funkciyu H displaystyle mathrm H virazhayut v terminah imovirnostej rozpodilu H p 1 p 2 p k i 1 k p i log p i displaystyle mathrm H p 1 p 2 ldots p k sum i 1 k p i log p i de kozhna p i 0 displaystyle p i geq 0 ta i 1 k p i 1 displaystyle sum i 1 k p i 1 Vazhlivim osoblivim vipadkom cogo ye en H b p H p 1 p p log p 1 p log 1 p displaystyle mathrm H mbox b p mathrm H p 1 p p log p 1 p log 1 p Spilna entropiyaSpilnu entropiyu angl joint entropy dvoh diskretnih vipadkovih zminnih X displaystyle X ta Y displaystyle Y viznachayut yak entropiyu yihnogo spilnogo rozpodilu H X Y E X Y log p x y x y p x y log p x y displaystyle mathrm H X Y mathbb E X Y left log p x y right sum x y p x y log p x y Yaksho X displaystyle X ta Y displaystyle Y ye nezalezhnimi to cya spilna entropiya ye prosto sumoyu yihnih okremih entropij Zauvazhennya Spilnu entropiyu ne slid plutati z perehresnoyu entropiyeyu nezvazhayuchi na podibnij zapis Umovna entropiya uhilnist Za zadanogo konkretnogo znachennya vipadkovoyi zminnoyi Y displaystyle Y umovnu entropiyu X displaystyle X za Y y displaystyle Y y viznacheno yak H X y E X Y log p x y x X p x y log p x y displaystyle mathrm H X y mathbb E left X Y right log p x y sum x in X p x y log p x y de p x y p x y p y displaystyle p x y frac p x y p y ye umovnoyu jmovirnistyu x displaystyle x za zadanogo y displaystyle y Umovnu entropiyu angl conditional entropy X displaystyle X za zadanogo Y displaystyle Y sho takozh nazivayut uhilnistyu angl equivocation X displaystyle X vid Y displaystyle Y zadayut yak H X Y E Y H X y y Y p y x X p x y log p x y x y p x y log p y p x y displaystyle mathrm H X Y mathbb E Y left mathrm H left X y right right sum y in Y p y sum x in X p x y log p x y sum x y p x y log frac p y p x y Vona vikoristovuye umovne matematichne spodivannya z teoriyi imovirnosti Bazovoyu vlastivistyu umovnoyi entropiyi ye te sho H X Y H X Y H Y displaystyle mathrm H X Y mathrm H X Y mathrm H Y Vidstan Kulbaka Lejblera pririst informaciyi Vidstan Kulbaka Lejblera abo rozhodzhennya informaciyi pririst informaciyi abo vidnosna entropiya angl Kullback Leibler divergence information divergence information gain relative entropy ye sposobom porivnyuvannya dvoh rozpodiliv istinnogo rozpodilu jmovirnosti p displaystyle p ta dovilnogo rozpodilu jmovirnosti q displaystyle q Yaksho mi stiskayemo dani takim chinom yakij peredbachaye sho q displaystyle q ye rozpodilom sho lezhit v osnovi yakihos danih todi yak naspravdi pravilnim rozpodilom ye p displaystyle p to vidstan Kulbaka Lejblera ye chislom userednenih dodatkovih bitiv nad rivnem neobhidnih dlya stiskannya abo matematichno D K L p X q X x X p x log p x q x displaystyle D mathrm KL bigl p X q X bigr sum x in X p x log frac p x q x V yakomus sensi vona dijsno ye vidstannyu vid q displaystyle q do p displaystyle p hocha vona j ne ye spravzhnoyu metrikoyu cherez te sho vona ne ye simetrichnoyu Vzayemna peredavana informaciyaViyavlyayetsya sho odniyeyu z najkorisnishih ta najvazhlivishih mir informaciyi ye vzayemna informaciya angl mutual information abo peredavana informaciya angl transinformation Vona ye miroyu togo yak bagato informaciyi mozhe buti otrimano pro odnu vipadkovu zminnu shlyahom sposterigannya inshoyi Vzayemnu informaciyu X displaystyle X vidnosno Y displaystyle Y yaka konceptualno predstavlyaye userednenu velichinu informaciyi pro X displaystyle X yaku mozhna zdobuti sposterigannyam Y displaystyle Y zadayut yak I X Y y Y p y x X p x y log p x y p x x y p x y log p x y p x p y displaystyle operatorname I X Y sum y in Y p y sum x in X p x y log frac p x y p x sum x y p x y log frac p x y p x p y Osnovnoyu vlastivistyu vzayemnoyi informaciyi ye te sho I X Y H X H X Y displaystyle operatorname I X Y mathrm H X mathrm H X Y Tobto znayuchi Y displaystyle Y mi mozhemo zaoshaditi v serednomu I X Y displaystyle operatorname I X Y bitiv u koduvanni X displaystyle X u porivnyanni z neznannyam Y displaystyle Y Vzayemna informaciya ye simetrichnoyu I X Y I Y X H X H Y H X Y displaystyle operatorname I X Y operatorname I Y X mathrm H X mathrm H Y mathrm H X Y Vzayemnu informaciyu mozhlivo viraziti yak userednenu vidstan Kulbaka Lejblera pririst informaciyi aposteriornogo rozpodilu jmovirnosti X displaystyle X za zadanogo znachennya Y displaystyle Y vidnosno apriornogo rozpodilu jmovirnosti X displaystyle X I X Y E p y D K L p X Y y p X displaystyle operatorname I X Y mathbb E p y left D mathrm KL bigl p X Y y p X bigr right Inshimi slovami vona ye miroyu togo naskilki v serednomu zminitsya rozpodil jmovirnosti X displaystyle X yaksho mi otrimayemo znachennya Y displaystyle Y Obchislyuyut yiyi chasto yak rozhodzhennya mizh dobutkom vidosoblenih rozpodiliv ta spravzhnim spilnim rozpodilom I X Y D K L p X Y p X p Y displaystyle operatorname I X Y D mathrm KL bigl p X Y p X p Y bigr Vzayemna informaciya ye tisno pov yazanoyu z perevirkoyu logarifmichnim vidnoshennyam pravdopodibnostej v konteksti tablic spryazhenosti ta multinomialnogo rozpodilu ta z kriteriyem x2 Pirsona vzayemnu informaciyu mozhlivo rozglyadati yak statistiku dlya ocinyuvannya nezalezhnosti v pari zminnih i vona maye dobre viznachenij asimptotichnij rozpodil Diferencialna entropiyaDokladnishe Diferencialna entropiya Osnovni miri diskretnoyi entropiyi bulo analogichno rozshireno na neperervni prostori shlyahom zamini sum integralami ta funkcij masi jmovirnosti funkciyami gustini jmovirnosti I hocha v oboh vipadkah vzayemna informaciya virazhaye chislo bitiv informaciyi spilne dlya cih dvoh dzherel cya analogiya ne peredbachaye odnakovih vlastivostej napriklad diferencialna entropiya mozhe buti vid yemnoyu Diferencialni analogi entropiyi spilnoyi entropiyi umovnoyi entropiyi ta vzayemnoyi informaciyi viznacheno takim chinom h X X f x log f x d x displaystyle h X int X f x log f x dx h X Y Y X f x y log f x y d x d y displaystyle h X Y int Y int X f x y log f x y dx dy h X y X f x y log f x y d x displaystyle h X y int X f x y log f x y dx h X Y Y X f x y log f y f x y d x d y displaystyle h X Y int Y int X f x y log frac f y f x y dx dy I X Y Y X f x y log f x y f x f y d x d y displaystyle operatorname I X Y int Y int X f x y log frac f x y f x f y dx dy de f x y displaystyle f x y ye funkciyeyu gustini spilnogo rozpodilu f x displaystyle f x ta f y displaystyle f y ye vidosoblenimi rozpodilami a f x y displaystyle f x y ye umovnim rozpodilom Div takozhTeoriya informaciyi