Ця стаття потребує істотної переробки. (29 жовтня 2021) |
Ця стаття є сирим з іншої мови. Можливо, вона створена за допомогою машинного перекладу або перекладачем, який недостатньо володіє обома мовами. (травень 2017) |
Теóрія інформáції — це розділ математики, який досліджує процеси зберігання, перетворення і передачі інформації. Теорія інформації тісно пов'язана з такими розділами математики як теорія ймовірностей і математична статистика. Вона пов'язана з інформаційною ентропією, комунікаційними системами, криптографією, і іншими важливими областями.
Основні розділи теорії інформації — кодування джерела (стискаюче кодування) і канальне (завадостійке) кодування. Теорія інформації тісно пов'язана з інформаційною ентропією, комунікаційними системами, криптографією і іншими суміжними дисциплінами[].
Аксіоми теорії інформації
- Інформація є лише там, де функціонують пристрої керування.
- Інформація зберігається і передається тільки на матеріальному носії.
- Інформація має ідеальний характер.
- Інформація має різні форми.
Базові закони теорії інформації
Закон 1: на отримання інформації будь-яка кібернетична система витрачає не менше деякої мінімальної кількості енергії.
Закон 2: кількість інформації, яку отримує кібернетична система в процесі розпізнавання після прийняття певного сигналу, дорівнює логарифму при основі m від кількості варіантів вибору, що передували розпізнаванню.
Закон 3: що меншою є ймовірність завершення якогось випробування з певним результатом, то більше інформації для будь-якої кібернетичної системи несе саме цей результат, і навпаки.
Закон 4: будь-які сигнали, отримані кібернетичною системою, впливають на цю систему.
Історія
Виникнення теорії інформації зазвичай пов'язують із появою у 1948 році фундаментальної праці американського науковця Клода Шеннона «Математична теорія зв'язку».
Теорія Шеннона (якого вважають «батьком» теорії інформації), з самого початку розглядалась як точно сформульована математична задача і дала можливість інженерам визначати ємність комунікаційного каналу.
В основному Шеннон розвивав напрямок робіт Гартлі, використовуючи поняття «інформації», але сам термін не пояснює, лише обумовлює, що повідомлення можуть мати якийсь «значення», тобто ставитися до системи, що має свою фізичну або умоглядну сутність (кібернетична система). Теорія Шеннона спочатку розглядалася як точно сформульована математична задача і дала можливість визначити пропускну здатність комунікаційного каналу з шумом.
Властивості інформації
- Достовірність — відповідність відображуваному об'єктові або реальному стану об'єктивної дійсності при відсутності прихованих помилок у такій інформації.
- Повнота — властивість інформації, що дозволяє характеризувати об'єкт вичерпним для споживача засобом, що й надає можливість ухвалювати на основі такої інформації управлінські рішення.
- Релевантність — відповідність потребам споживача, що характеризує, наскільки інформація сприяє досягненню поставлених перед споживачем цілей і завдань.
- Доступність — можливість одержання будь-яким споживачем.
- Актуальність — відповідність інформації теперішньому моменту часу.
- Коректність — властивість, що полягає в такому її зображенні, щоб інформація однозначно сприймалася всіма її споживачами.
- Захищеність — неможливість несанкціонованого доступу й цілеспрямованого спотворення інформації.
- Ергономічність — достатність обсягу і форми інформації для даного споживача.
Кодування інформації
Кодування є переходом від повідомлення на вході каналу зв'язку до коду повідомлення на виході, а декодування — зворотний процес переходу від коду повідомлення на виході каналу зв'язку до повідомлення на вході, при цьому повідомлення на вході й виході з каналу зв'язку повинні збігатися.
Більш суворо задачу кодування можна сформулювати в такий спосіб. Нехай є два алфавіти: алфавіт , що складається з символів і алфавіт , що складається з символів. Під алфавітним кодуванням розуміють таке відображення , яке кожному слову з непустої підмножини слів з алфавіту ставить у відповідність деяке слово з алфавіту . Слова з алфавіту B називаються кодовими послідовностями або кодами. Традиційно, відображення задається у вигляді деякого алгоритму й повинне задовольняти наступним вимогам:
- взаємна однозначність, тобто можливість для кожного повідомлення однозначно побудувати його код і, обернено, по кожному коду однозначно відновити вихідне повідомлення;
- завадостійкість, тобто можливість виявляти і виправляти помилки, які можуть виникнути при передачі коду повідомлення по каналу зв'язку під впливом джерела шуму;
- економність, тобто можливість побудови кодів мінімальної довжини для повідомлень, що зустрічаються найчастіше (реалізація ефективного стиснення).
Побудова ефективного алгоритму кодування — це пошук компромісу між другою і третьою вимогами, які суперечать одна одній, оскільки завадостійкість досягається за рахунок збільшення довжини кодових послідовностей.
Кодування являє собою процес переходу повідомлення на вході каналу зв'язку до коду повідомлення на виході, при цьому інформаційна цінність повідомлення повинна залишатися незмінною. У теорії інформації можна виділити наступні методи кодування:
1. Кодування дискретних джерел. Це гіпотетична модель кодування інформації «без втрат», яка проходить через канал зв'язку без шуму, стисненням інформації.
2. Кодування інформації при її передачі по каналу з шумом. Цей метод враховує і захищає інформацію від перешкод в каналі зв'язку.
Код є однозначно декодіруемой, якщо будь-яка послідовність символів з алфавіту коду (а, в основному, це 0 і 1) коду розбивається на окремі слова. Якщо жодне кодове слово не є початком іншого, код називається префіксним і він є однозначно декодіруемой. Отже, префіксних — достатня, але не необхідна умова однозначної декодіруемой. Вимога префіксних обмежує безліч довжин кодових слів і не дає можливості вибирати кодові слова занадто короткими. Необхідною і достатньою умовою існування префіксного коду обсягу з довжинами кодових слів є виконання нерівності Крафта.
Також потрібно розглянути код Шеннона-Фано — алгоритм префіксного неоднорідного кодування. Цей метод кодування використовує надмірність повідомлення, укладену в неоднорідному розподілі частот символів його алфавіту, тобто замінює коди більш частих символів короткими двійковими послідовностями, а коди більш рідкісних символів — довшими двійковими послідовностями. Розглянемо джерело, що вибирає букви з множествас можливостями. Вважаємо, що букви впорядковані за спаданням ймовірностей. Кодовим словом коду Шеннона для повідомлення з номером M є двійкова послідовність, що є першим розрядом після коми в двійковому запису числа.
3. Кодування із заданим критерієм якості. З огляду на те, що інформація аналогових джерел не може бути представлена в цифровій формі без спотворень, цей метод кодування забезпечує найкращий компроміс між якістю і витратами на передачу інформації. Він використовується в разі, коли кодування джерела здійснюється таким чином, що закодовані повідомлення відновлюються з деякою помилкою, що не більшою заданого значення. Один з найбільш актуальних методів кодування, оскільки знаходить широке застосування для цифрової передачі аудіо- та відеоінформації.
4. Кодування інформації для систем з багатьма користувачами описує оптимальну взаємодію абонентів, що використовують загальний ресурс, наприклад, канал зв'язку.
5. Секретний зв'язок, системи захисту інформації від несанкціонованого доступу. Цей тип активно використовуються і є актуальним. Зачіпає теорію інформації, теорії обчислювальної потужності алгоритмів, дослідження операцій, теорії чисел.
Кількість інформації
Ентропійний підхід
В основі теорії інформації лежить запропонований Шенноном спосіб обчислення кількості інформації як випадкової величини відносно іншої випадкової величини. Для випадкових величин X і Y, заданих законами розподілу і спільним законом розподілу , кількість інформації в X відносно Y, дорівнює
Кількість інформації в повідомленні визначається тим, наскільки зменшиться невизначеність після одержання повідомлення. З цього погляду, кількість інформації, що міститься в отриманому повідомленні, є тим більшою, чим більшою була невизначеність до передачі повідомлення.
Об'ємний підхід
Під обсягом інформації в повідомленні мають на увазі кількість символів цього повідомлення. Обсяг інформації — це досить груба кількісна характеристика інформації, оскільки суттєво залежить від форми подання інформації.
Алгоритмічний підхід
Згідно з алгоритмічним підходом за кількість інформації приймається значення деякої функції від складності кожного з об'єктів і довжини програми (алгоритму) перетворення одного об'єкта в інший. Інтуїтивно зрозуміло, що комп'ютерна програма, яка друкує повідомлення, що містить тільки нулі, украй проста. Усе, що потрібно робити цій програмі, — це друкувати один і той самий символ — нуль. Якщо ж повідомлення являє собою деяку послідовність, яка не підпорядковується ніяким закономірностям, то таке повідомлення не може бути реалізоване жодною «простою» програмою. У цьому випадку, довжина програми буде близька до довжини самої послідовності. Таким чином, кількість інформації в повідомленні визначається складністю програми, яка здатна відтворити це повідомлення — послідовність символів.
— вхідний об'єкт; — вихідний об'єкт; — програма перетворення; — функція отримання довжини програми (в бітах чи байтах).
Вадами цієї теорії є те, що вона:
- в методі вимірювання як параметр використовує довжину алгоритму, який залежить від кількості утворюючих його елементів, що дають змогу перетворити один об'єкт на інший (чим дрібнішими є елементи, тим довшою виявляється програма перетворення);
- не має методу, який дає змогу виміряти кількість інформації в одному об'єкті, оскільки для вимірювання їх завжди потрібно як мінімум два;
- не враховує, що одна й та ж програма може бути призначена для перетворення не одного слова, а цілого класу об'єктів; при цьому така програма матиме сталу довжину, хоча для різних об'єктів кількість виконаних команд може бути різною.
Бібліографія
- Claude E. Shannon, Warren Weaver. The Mathematical Theory of Communication. Univ of Illinois Press, 1963.
- Thomas M. Cover, Joy A. Thomas. Elements of information theory New York: Wiley, 1991.
- R. Landauer, Information is Physical Proc. Workshop on Physics and Computation PhysComp'92 (IEEE Comp. Sci.Press, Los Alamitos, 1993) pp. 1-4.
- Maxwell's Demon: Entropy, Information, Computing, H. S. Leff and A. F. Rex, Editors, Princeton University Press, Princeton, NJ (1990).
- Колмогоров А. Н. Три подхода к определению понятия «Количество информации»
- Гусєв О. Ю., Конахович Г. Ф., Пузиренко О. Ю. та ін. Теорія електричного зв'язку. Навчальний посібник. — Львів: «Магнолія 2006», 2010. — 364 с.[недоступне посилання з липня 2019] (PDF, 4,13 МБ, укр.)
- Білинський Й. Й., Огороднік К. В., Юкиш М. Й. Електронні системи. — Вінниця: ВНТУ, 2011. — 208 с. [ 13 червня 2016 у Wayback Machine.]
- Образна концепція теорії інформації = Image conception of the information theory / З. В. Партико; Львів. нац. ун-т ім. І. Франка. — Л., 2001. — 132 c.
Посилання
- «Енциклопедія кібернетики», відповідальний ред. В. Глушков, 2 тт., 1973, рос. вид. 1974;
- Shannon C.E. A Mathematical Theory of Communication [ 15 липня 1998 у Wayback Machine.] (PDF, 358 КБ, англ.)
- (PDF, 200 КБ, рос.)
Див. також
Це незавершена стаття з математики. Ви можете проєкту, виправивши або дописавши її. |
В іншому мовному розділі є повніша стаття Information theory(англ.). Ви можете допомогти, розширивши поточну статтю за допомогою з англійської.
|
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Cya stattya potrebuye istotnoyi pererobki Mozhlivo yiyi neobhidno dopovniti perepisati abo vikifikuvati Poyasnennya prichin ta obgovorennya na storinci Vikipediya Statti sho neobhidno polipshiti Tomu hto dodav shablon zvazhte na te shob povidomiti osnovnih avtoriv statti pro neobhidnist polipshennya dodavshi do yihnoyi storinki obgovorennya takij tekst subst polipshiti avtoru Teoriya informaciyi 29 zhovtnya 2021 a takozh ne zabudte opisati prichinu nominaciyi na pidstorinci Vikipediya Statti sho neobhidno polipshiti za vidpovidnij den 29 zhovtnya 2021 Cya stattya ye sirim perekladom z inshoyi movi Mozhlivo vona stvorena za dopomogoyu mashinnogo perekladu abo perekladachem yakij nedostatno volodiye oboma movami Bud laska dopomozhit polipshiti pereklad traven 2017 Teoriya informaciyi ce rozdil matematiki yakij doslidzhuye procesi zberigannya peretvorennya i peredachi informaciyi Teoriya informaciyi tisno pov yazana z takimi rozdilami matematiki yak teoriya jmovirnostej i matematichna statistika Vona pov yazana z informacijnoyu entropiyeyu komunikacijnimi sistemami kriptografiyeyu i inshimi vazhlivimi oblastyami Osnovni rozdili teoriyi informaciyi koduvannya dzherela stiskayuche koduvannya i kanalne zavadostijke koduvannya Teoriya informaciyi tisno pov yazana z informacijnoyu entropiyeyu komunikacijnimi sistemami kriptografiyeyu i inshimi sumizhnimi disciplinami dzherelo Aksiomi teoriyi informaciyiInformaciya ye lishe tam de funkcionuyut pristroyi keruvannya Informaciya zberigayetsya i peredayetsya tilki na materialnomu nosiyi Informaciya maye idealnij harakter Informaciya maye rizni formi Bazovi zakoni teoriyi informaciyiZakon 1 na otrimannya informaciyi bud yaka kibernetichna sistema vitrachaye ne menshe deyakoyi minimalnoyi kilkosti energiyi Zakon 2 kilkist informaciyi yaku otrimuye kibernetichna sistema v procesi rozpiznavannya pislya prijnyattya pevnogo signalu dorivnyuye logarifmu pri osnovi m vid kilkosti variantiv viboru sho pereduvali rozpiznavannyu Zakon 3 sho menshoyu ye jmovirnist zavershennya yakogos viprobuvannya z pevnim rezultatom to bilshe informaciyi dlya bud yakoyi kibernetichnoyi sistemi nese same cej rezultat i navpaki Zakon 4 bud yaki signali otrimani kibernetichnoyu sistemoyu vplivayut na cyu sistemu IstoriyaViniknennya teoriyi informaciyi zazvichaj pov yazuyut iz poyavoyu u 1948 roci fundamentalnoyi praci amerikanskogo naukovcya Kloda Shennona Matematichna teoriya zv yazku Teoriya Shennona yakogo vvazhayut batkom teoriyi informaciyi z samogo pochatku rozglyadalas yak tochno sformulovana matematichna zadacha i dala mozhlivist inzheneram viznachati yemnist komunikacijnogo kanalu V osnovnomu Shennon rozvivav napryamok robit Gartli vikoristovuyuchi ponyattya informaciyi ale sam termin ne poyasnyuye lishe obumovlyuye sho povidomlennya mozhut mati yakijs znachennya tobto stavitisya do sistemi sho maye svoyu fizichnu abo umoglyadnu sutnist kibernetichna sistema Teoriya Shennona spochatku rozglyadalasya yak tochno sformulovana matematichna zadacha i dala mozhlivist viznachiti propusknu zdatnist komunikacijnogo kanalu z shumom Vlastivosti informaciyiDostovirnist vidpovidnist vidobrazhuvanomu ob yektovi abo realnomu stanu ob yektivnoyi dijsnosti pri vidsutnosti prihovanih pomilok u takij informaciyi Povnota vlastivist informaciyi sho dozvolyaye harakterizuvati ob yekt vicherpnim dlya spozhivacha zasobom sho j nadaye mozhlivist uhvalyuvati na osnovi takoyi informaciyi upravlinski rishennya Relevantnist vidpovidnist potrebam spozhivacha sho harakterizuye naskilki informaciya spriyaye dosyagnennyu postavlenih pered spozhivachem cilej i zavdan Dostupnist mozhlivist oderzhannya bud yakim spozhivachem Aktualnist vidpovidnist informaciyi teperishnomu momentu chasu Korektnist vlastivist sho polyagaye v takomu yiyi zobrazhenni shob informaciya odnoznachno sprijmalasya vsima yiyi spozhivachami Zahishenist nemozhlivist nesankcionovanogo dostupu j cilespryamovanogo spotvorennya informaciyi Ergonomichnist dostatnist obsyagu i formi informaciyi dlya danogo spozhivacha Koduvannya informaciyiKoduvannya ye perehodom vid povidomlennya na vhodi kanalu zv yazku do kodu povidomlennya na vihodi a dekoduvannya zvorotnij proces perehodu vid kodu povidomlennya na vihodi kanalu zv yazku do povidomlennya na vhodi pri comu povidomlennya na vhodi j vihodi z kanalu zv yazku povinni zbigatisya Bilsh suvoro zadachu koduvannya mozhna sformulyuvati v takij sposib Nehaj ye dva alfaviti alfavit A displaystyle A sho skladayetsya z n displaystyle n simvoliv i alfavit B displaystyle B sho skladayetsya z m displaystyle m simvoliv Pid alfavitnim koduvannyam rozumiyut take vidobrazhennya F displaystyle F yake kozhnomu slovu z nepustoyi pidmnozhini sliv z alfavitu A displaystyle A stavit u vidpovidnist deyake slovo z alfavitu B displaystyle B Slova z alfavitu B nazivayutsya kodovimi poslidovnostyami abo kodami Tradicijno vidobrazhennya F displaystyle F zadayetsya u viglyadi deyakogo algoritmu j povinne zadovolnyati nastupnim vimogam vzayemna odnoznachnist tobto mozhlivist dlya kozhnogo povidomlennya odnoznachno pobuduvati jogo kod i oberneno po kozhnomu kodu odnoznachno vidnoviti vihidne povidomlennya zavadostijkist tobto mozhlivist viyavlyati i vipravlyati pomilki yaki mozhut viniknuti pri peredachi kodu povidomlennya po kanalu zv yazku pid vplivom dzherela shumu ekonomnist tobto mozhlivist pobudovi kodiv minimalnoyi dovzhini dlya povidomlen sho zustrichayutsya najchastishe realizaciya efektivnogo stisnennya Pobudova efektivnogo algoritmu koduvannya ce poshuk kompromisu mizh drugoyu i tretoyu vimogami yaki superechat odna odnij oskilki zavadostijkist dosyagayetsya za rahunok zbilshennya dovzhini kodovih poslidovnostej Koduvannya yavlyaye soboyu proces perehodu povidomlennya na vhodi kanalu zv yazku do kodu povidomlennya na vihodi pri comu informacijna cinnist povidomlennya povinna zalishatisya nezminnoyu U teoriyi informaciyi mozhna vidiliti nastupni metodi koduvannya 1 Koduvannya diskretnih dzherel Ce gipotetichna model koduvannya informaciyi bez vtrat yaka prohodit cherez kanal zv yazku bez shumu stisnennyam informaciyi 2 Koduvannya informaciyi pri yiyi peredachi po kanalu z shumom Cej metod vrahovuye i zahishaye informaciyu vid pereshkod v kanali zv yazku Kod ye odnoznachno dekodiruemoj yaksho bud yaka poslidovnist simvoliv z alfavitu kodu a v osnovnomu ce 0 i 1 kodu rozbivayetsya na okremi slova Yaksho zhodne kodove slovo ne ye pochatkom inshogo kod nazivayetsya prefiksnim i vin ye odnoznachno dekodiruemoj Otzhe prefiksnih dostatnya ale ne neobhidna umova odnoznachnoyi dekodiruemoj Vimoga prefiksnih obmezhuye bezlich dovzhin kodovih sliv i ne daye mozhlivosti vibirati kodovi slova zanadto korotkimi Neobhidnoyu i dostatnoyu umovoyu isnuvannya prefiksnogo kodu obsyagu z dovzhinami kodovih sliv ye vikonannya nerivnosti Krafta Takozh potribno rozglyanuti kod Shennona Fano algoritm prefiksnogo neodnoridnogo koduvannya Cej metod koduvannya vikoristovuye nadmirnist povidomlennya ukladenu v neodnoridnomu rozpodili chastot simvoliv jogo alfavitu tobto zaminyuye kodi bilsh chastih simvoliv korotkimi dvijkovimi poslidovnostyami a kodi bilsh ridkisnih simvoliv dovshimi dvijkovimi poslidovnostyami Rozglyanemo dzherelo sho vibiraye bukvi z mnozhestvas mozhlivostyami Vvazhayemo sho bukvi vporyadkovani za spadannyam jmovirnostej Kodovim slovom kodu Shennona dlya povidomlennya z nomerom M ye dvijkova poslidovnist sho ye pershim rozryadom pislya komi v dvijkovomu zapisu chisla 3 Koduvannya iz zadanim kriteriyem yakosti Z oglyadu na te sho informaciya analogovih dzherel ne mozhe buti predstavlena v cifrovij formi bez spotvoren cej metod koduvannya zabezpechuye najkrashij kompromis mizh yakistyu i vitratami na peredachu informaciyi Vin vikoristovuyetsya v razi koli koduvannya dzherela zdijsnyuyetsya takim chinom sho zakodovani povidomlennya vidnovlyuyutsya z deyakoyu pomilkoyu sho ne bilshoyu zadanogo znachennya Odin z najbilsh aktualnih metodiv koduvannya oskilki znahodit shiroke zastosuvannya dlya cifrovoyi peredachi audio ta videoinformaciyi 4 Koduvannya informaciyi dlya sistem z bagatma koristuvachami opisuye optimalnu vzayemodiyu abonentiv sho vikoristovuyut zagalnij resurs napriklad kanal zv yazku 5 Sekretnij zv yazok sistemi zahistu informaciyi vid nesankcionovanogo dostupu Cej tip aktivno vikoristovuyutsya i ye aktualnim Zachipaye teoriyu informaciyi teoriyi obchislyuvalnoyi potuzhnosti algoritmiv doslidzhennya operacij teoriyi chisel Kilkist informaciyiEntropijnij pidhid Dokladnishe Kilkosti informaciyi V osnovi teoriyi informaciyi lezhit zaproponovanij Shennonom sposib obchislennya kilkosti informaciyi yak vipadkovoyi velichini vidnosno inshoyi vipadkovoyi velichini Dlya vipadkovih velichin X i Y zadanih zakonami rozpodilu P X Xi pi P Y Yj qj displaystyle P X X i p i P Y Y j q j i spilnim zakonom rozpodilu P X Xi Y Yj pi j displaystyle P X X i Y Y j p i j kilkist informaciyi v X vidnosno Y dorivnyuye I X Y i jpi jlog2 pi jpiqj displaystyle I X Y sum i j p i j log 2 frac p i j p i q j Kilkist informaciyi v povidomlenni viznachayetsya tim naskilki zmenshitsya neviznachenist pislya oderzhannya povidomlennya Z cogo poglyadu kilkist informaciyi sho mistitsya v otrimanomu povidomlenni ye tim bilshoyu chim bilshoyu bula neviznachenist do peredachi povidomlennya Ob yemnij pidhid Pid obsyagom informaciyi v povidomlenni mayut na uvazi kilkist simvoliv cogo povidomlennya Obsyag informaciyi ce dosit gruba kilkisna harakteristika informaciyi oskilki suttyevo zalezhit vid formi podannya informaciyi Algoritmichnij pidhid Dokladnishe Algoritmichna teoriya informaciyi Zgidno z algoritmichnim pidhodom za kilkist informaciyi prijmayetsya znachennya deyakoyi funkciyi vid skladnosti kozhnogo z ob yektiv i dovzhini programi algoritmu peretvorennya odnogo ob yekta v inshij Intuyitivno zrozumilo sho komp yuterna programa yaka drukuye povidomlennya sho mistit tilki nuli ukraj prosta Use sho potribno robiti cij programi ce drukuvati odin i toj samij simvol nul Yaksho zh povidomlennya yavlyaye soboyu deyaku poslidovnist yaka ne pidporyadkovuyetsya niyakim zakonomirnostyam to take povidomlennya ne mozhe buti realizovane zhodnoyu prostoyu programoyu U comu vipadku dovzhina programi bude blizka do dovzhini samoyi poslidovnosti Takim chinom kilkist informaciyi v povidomlenni viznachayetsya skladnistyu programi yaka zdatna vidtvoriti ce povidomlennya poslidovnist simvoliv I L G A B displaystyle I L G A B A displaystyle A vhidnij ob yekt B displaystyle B vihidnij ob yekt G displaystyle G programa peretvorennya L displaystyle L funkciya otrimannya dovzhini programi v bitah chi bajtah Vadami ciyeyi teoriyi ye te sho vona v metodi vimiryuvannya yak parametr vikoristovuye dovzhinu algoritmu yakij zalezhit vid kilkosti utvoryuyuchih jogo elementiv sho dayut zmogu peretvoriti odin ob yekt na inshij chim dribnishimi ye elementi tim dovshoyu viyavlyayetsya programa peretvorennya ne maye metodu yakij daye zmogu vimiryati kilkist informaciyi v odnomu ob yekti oskilki dlya vimiryuvannya yih zavzhdi potribno yak minimum dva ne vrahovuye sho odna j ta zh programa mozhe buti priznachena dlya peretvorennya ne odnogo slova a cilogo klasu ob yektiv pri comu taka programa matime stalu dovzhinu hocha dlya riznih ob yektiv kilkist vikonanih komand mozhe buti riznoyu BibliografiyaClaude E Shannon Warren Weaver The Mathematical Theory of Communication Univ of Illinois Press 1963 ISBN 0 252 72548 4 Thomas M Cover Joy A Thomas Elements of information theory New York Wiley 1991 ISBN 0 471 06259 6 R Landauer Information is Physical Proc Workshop on Physics and Computation PhysComp 92 IEEE Comp Sci Press Los Alamitos 1993 pp 1 4 Maxwell s Demon Entropy Information Computing H S Leff and A F Rex Editors Princeton University Press Princeton NJ 1990 ISBN 0 691 08727 X Kolmogorov A N Tri podhoda k opredeleniyu ponyatiya Kolichestvo informacii Gusyev O Yu Konahovich G F Puzirenko O Yu ta in Teoriya elektrichnogo zv yazku Navchalnij posibnik Lviv Magnoliya 2006 2010 364 s nedostupne posilannya z lipnya 2019 PDF 4 13 MB ukr Bilinskij J J Ogorodnik K V Yukish M J Elektronni sistemi Vinnicya VNTU 2011 208 s 13 chervnya 2016 u Wayback Machine Obrazna koncepciya teoriyi informaciyi Image conception of the information theory Z V Partiko Lviv nac un t im I Franka L 2001 132 c Posilannya Enciklopediya kibernetiki vidpovidalnij red V Glushkov 2 tt 1973 ros vid 1974 Shannon C E A Mathematical Theory of Communication 15 lipnya 1998 u Wayback Machine PDF 358 KB angl PDF 200 KB ros Div takozhInformologiya Ce nezavershena stattya z matematiki Vi mozhete dopomogti proyektu vipravivshi abo dopisavshi yiyi V inshomu movnomu rozdili ye povnisha stattya Information theory angl Vi mozhete dopomogti rozshirivshi potochnu stattyu za dopomogoyu perekladu z anglijskoyi Divitis avtoperekladenu versiyu statti z movi anglijska Perekladach povinen rozumiti sho vidpovidalnist za kincevij vmist statti u Vikipediyi nese same avtor redaguvan Onlajn pereklad nadayetsya lishe yak korisnij instrument pereglyadu vmistu zrozumiloyu movoyu Ne vikoristovujte nevichitanij i nevidkorigovanij mashinnij pereklad u stattyah ukrayinskoyi Vikipediyi Mashinnij pereklad Google ye korisnoyu vidpravnoyu tochkoyu dlya perekladu ale perekladacham neobhidno vipravlyati pomilki ta pidtverdzhuvati tochnist perekladu a ne prosto skopiyuvati mashinnij pereklad do ukrayinskoyi Vikipediyi Ne perekladajte tekst yakij vidayetsya nedostovirnim abo neyakisnim Yaksho mozhlivo perevirte tekst za posilannyami podanimi v inshomovnij statti Dokladni rekomendaciyi div Vikipediya Pereklad