В теорії інформації вла́сна інформ́ація (англ. self-information), або несподі́ваність (англ. surprisal), — це міра кількості інформації, пов'язаної з подією в імовірнісному просторі, або зі значенням дискретної випадкової величини. Вона виражається в одиницях інформації, наприклад, в бітах, натах або гартлі, залежно від основи логарифма, який застосовується в обчисленнях.
Термін власна інформація іноді використовують як синонім такого пов'язаного поняття теорії інформації, як ентропія. Ці два значення не тотожні, і ця стаття описує лише перший сенс.
Визначення
За визначенням, кількість власної інформації, яка міститься в імовірнісній події, залежить лише від імовірності цієї події: що меншою є її ймовірність, то більшою є власна інформація, пов'язана з отриманням інформації про те, що ця подія дійсно відбулася.
Далі, за визначенням, міра власної інформації є додатною та адитивною. Якщо подія є перетином двох незалежних подій та , то кількість інформації при оголошенні про те, що подія сталася, дорівнює сумі кількостей інформації в оголошеннях про подію та подію відповідно:
- .
Із врахуванням цих властивостей, власною інформацією , пов'язаною з виходом з імовірністю , є
Це визначення відповідає наведеним вище умовам. У наведеному визначенні не вказано основу логарифма: при застосуванні основи 2 одиницями будуть біти. При застосуванні логарифма за основою одиницею буде нат. Для логарифма за основою 10 одиницею буде гартлі.
Як швидке пояснення, кількістю інформації, пов'язаною з випадінням 4 аверсів (або будь-якого конкретного виходу) в 4 послідовних підкиданнях монети, буде 4 біти (ймовірність 1/16), а кількістю інформації, пов'язаною з отриманням результату, відмінного від вказаного, буде 0.09 біт (імовірність 15/16). Див. докладніші приклади нижче.
Інформаційна ентропія випадкової події — це математичне сподівання її власної інформації.
Власна інформація є прикладом [en].
Приклади
- При підкиданні монети шансом «реверсу» є 0.5. Коли проголошується, що справді випав «реверс», то це дає кількість
- I(«реверс») = log2 (1/0.5) = log2 2 = 1 біт інформації.
- При викиданні правильного грального кубика ймовірність «четвірки» становить 1/6. Коли проголошується, що випала «четвірка», то кількістю власної інформації є
- I(«четвірка») = log2 (1/(1/6)) = log2 (6) = 2.585 бітів власної інформації.
- При незалежному викиданні двох гральних кубиків кількість інформації, пов'язаної з {викидання 1 = «два» і викидання 2 = «чотири»}, дорівнює
- I(«викиданням 1 є два і викиданням 2 є чотири») = log2 (1/P(викидання 1 = «два» і викидання 2 = «чотири»)) = log2 (1/(1/36)) = log2 (36) = 5.170 біт.
Цей вихід дорівнює сумі окремих кількостей власної інформації, пов'язаних із {викидання 1 = «два»} і {викидання 2 = «чотири»}; а саме, 2.585 + 2.585 = 5.170 біт.
- В тій самій ситуації з двома гральними кубиками ми можемо розглядати інформацію, присутню в твердженні «Сумою двох гральних кубиків є п'ять»
- I(«Сумою викидів 1 та 2 є п'ять») = log2 (1/P(«викиди 1 та 2 дають у сумі п'ять»)) = log2 (1/(4/36)) = 3.17 біт. Причиною (4/36) є те, що існує чотири варіанти з 36 можливих, щоби два кубики давали в сумі 5. Це показує, що складніші або неоднозначніші події теж можуть давати інформацію.
Власна інформація розбиття
Власною інформацією розбиття елементів у межах множини (або кластерування) є математичне сподівання інформації перевірного об'єкту; якщо ми обираємо елемент навмання, і спостерігаємо, в якому розділі/кластері він перебуває, то яку кількість інформації ми сподіваємося отримати? Інформацією розбиття , в якому позначає частку елементів у межах розділу , є
Відношення до ентропії
Ентропія — це математичне сподівання власної інформації значень дискретної випадкової величини. Іноді й саму ентропію називають «власною інформацією» випадкової величини, можливо, тому, що ентропія задовольняє , де є взаємною інформацією із самою собою.
Примітки
- Marina Meilă; Comparing clusterings—an information based distance; Journal of Multivariate Analysis, Volume 98, Issue 5, May 2007 (англ.)
- Thomas M. Cover, Joy A. Thomas; Elements of Information Theory; p. 20; 1991. (англ.)
Література
- C.E. Shannon, A Mathematical Theory of Communication, Bell Syst. Techn. J., Vol. 27, pp 379–423, (Part I), 1948. (англ.)
- Підручник «Теорія Інформації та Кодування» В. М. Плотніков
Посилання
- Приклади мір несподіваності [ 23 травня 2007 у Wayback Machine.] (англ.)
- (англ.)
- Баєсова теорія несподіваності [ 19 серпня 2012 у Wayback Machine.] (англ.)
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Zapit Kilkist informaciyi perenapravlyaye syudi pro reshtu mir kilkosti informaciyi div Kilkosti informaciyi V teoriyi informaciyi vla sna inform aciya angl self information abo nespodi vanist angl surprisal ce mira kilkosti informaciyi pov yazanoyi z podiyeyu v imovirnisnomu prostori abo zi znachennyam diskretnoyi vipadkovoyi velichini Vona virazhayetsya v odinicyah informaciyi napriklad v bitah natah abo gartli zalezhno vid osnovi logarifma yakij zastosovuyetsya v obchislennyah Termin vlasna informaciya inodi vikoristovuyut yak sinonim takogo pov yazanogo ponyattya teoriyi informaciyi yak entropiya Ci dva znachennya ne totozhni i cya stattya opisuye lishe pershij sens ViznachennyaZa viznachennyam kilkist vlasnoyi informaciyi yaka mistitsya v imovirnisnij podiyi zalezhit lishe vid imovirnosti ciyeyi podiyi sho menshoyu ye yiyi jmovirnist to bilshoyu ye vlasna informaciya pov yazana z otrimannyam informaciyi pro te sho cya podiya dijsno vidbulasya Dali za viznachennyam mira vlasnoyi informaciyi ye dodatnoyu ta aditivnoyu Yaksho podiya C displaystyle C ye peretinom dvoh nezalezhnih podij A displaystyle A ta B displaystyle B to kilkist informaciyi pri ogoloshenni pro te sho podiya C displaystyle C stalasya dorivnyuye sumi kilkostej informaciyi v ogoloshennyah pro podiyu A displaystyle A ta podiyu B displaystyle B vidpovidno I A B I A I B displaystyle operatorname I A cap B operatorname I A operatorname I B Iz vrahuvannyam cih vlastivostej vlasnoyu informaciyeyu I wn displaystyle operatorname I omega n pov yazanoyu z vihodom wn displaystyle omega n z imovirnistyu P wn displaystyle operatorname P omega n ye I wn log 1P wn log P wn displaystyle operatorname I omega n log left frac 1 operatorname P omega n right log operatorname P omega n Ce viznachennya vidpovidaye navedenim vishe umovam U navedenomu viznachenni ne vkazano osnovu logarifma pri zastosuvanni osnovi 2 odinicyami I wn displaystyle displaystyle I omega n budut biti Pri zastosuvanni logarifma za osnovoyu e displaystyle displaystyle e odiniceyu bude nat Dlya logarifma za osnovoyu 10 odiniceyu bude gartli Yak shvidke poyasnennya kilkistyu informaciyi pov yazanoyu z vipadinnyam 4 aversiv abo bud yakogo konkretnogo vihodu v 4 poslidovnih pidkidannyah moneti bude 4 biti jmovirnist 1 16 a kilkistyu informaciyi pov yazanoyu z otrimannyam rezultatu vidminnogo vid vkazanogo bude 0 09 bit imovirnist 15 16 Div dokladnishi prikladi nizhche Informacijna entropiya vipadkovoyi podiyi ce matematichne spodivannya yiyi vlasnoyi informaciyi Vlasna informaciya ye prikladom en PrikladiPri pidkidanni moneti shansom reversu ye 0 5 Koli progoloshuyetsya sho spravdi vipav revers to ce daye kilkistI revers log2 1 0 5 log2 2 1 bit informaciyi Pri vikidanni pravilnogo gralnogo kubika jmovirnist chetvirki stanovit 1 6 Koli progoloshuyetsya sho vipala chetvirka to kilkistyu vlasnoyi informaciyi yeI chetvirka log2 1 1 6 log2 6 2 585 bitiv vlasnoyi informaciyi Pri nezalezhnomu vikidanni dvoh gralnih kubikiv kilkist informaciyi pov yazanoyi z vikidannya 1 dva i vikidannya 2 chotiri dorivnyuyeI vikidannyam 1 ye dva i vikidannyam 2 ye chotiri log2 1 P vikidannya 1 dva i vikidannya 2 chotiri log2 1 1 36 log2 36 5 170 bit Cej vihid dorivnyuye sumi okremih kilkostej vlasnoyi informaciyi pov yazanih iz vikidannya 1 dva i vikidannya 2 chotiri a same 2 585 2 585 5 170 bit V tij samij situaciyi z dvoma gralnimi kubikami mi mozhemo rozglyadati informaciyu prisutnyu v tverdzhenni Sumoyu dvoh gralnih kubikiv ye p yat I Sumoyu vikidiv 1 ta 2 ye p yat log2 1 P vikidi 1 ta 2 dayut u sumi p yat log2 1 4 36 3 17 bit Prichinoyu 4 36 ye te sho isnuye chotiri varianti z 36 mozhlivih shobi dva kubiki davali v sumi 5 Ce pokazuye sho skladnishi abo neodnoznachnishi podiyi tezh mozhut davati informaciyu Vlasna informaciya rozbittyaVlasnoyu informaciyeyu rozbittya elementiv u mezhah mnozhini abo klasteruvannya ye matematichne spodivannya informaciyi perevirnogo ob yektu yaksho mi obirayemo element navmannya i sposterigayemo v yakomu rozdili klasteri vin perebuvaye to yaku kilkist informaciyi mi spodivayemosya otrimati Informaciyeyu rozbittya C displaystyle C v yakomu P k displaystyle operatorname P k poznachaye chastku elementiv u mezhah rozdilu k displaystyle k ye I C E log P C k 1nP k log P k displaystyle operatorname I C operatorname E log operatorname P C sum k 1 n operatorname P k log operatorname P k Vidnoshennya do entropiyiEntropiya ce matematichne spodivannya vlasnoyi informaciyi znachen diskretnoyi vipadkovoyi velichini Inodi j samu entropiyu nazivayut vlasnoyu informaciyeyu vipadkovoyi velichini mozhlivo tomu sho entropiya zadovolnyaye H X I X X displaystyle operatorname mathrm H X operatorname I X X de I X X displaystyle operatorname I X X ye vzayemnoyu informaciyeyu X displaystyle X iz samoyu soboyu PrimitkiMarina Meilă Comparing clusterings an information based distance Journal of Multivariate Analysis Volume 98 Issue 5 May 2007 angl Thomas M Cover Joy A Thomas Elements of Information Theory p 20 1991 angl LiteraturaC E Shannon A Mathematical Theory of Communication Bell Syst Techn J Vol 27 pp 379 423 Part I 1948 angl Pidruchnik Teoriya Informaciyi ta Koduvannya V M PlotnikovPosilannyaPrikladi mir nespodivanosti 23 travnya 2007 u Wayback Machine angl angl Bayesova teoriya nespodivanosti 19 serpnya 2012 u Wayback Machine angl