Как можете да измерите количеството информация

22.05.2019

Вярно ли е, че липсата на новини е добра новина сама по себе си? Каменната плоча, чието тегло е равна на три тона, може да даде на археолозите същото количество информация като висококачествена снимка в добра археологическа публикация, нали? И когато радио студио Киев съобщава последните новини, тогава и жителите на Киев, и жителя на Илхивск ще научат за всичко, независимо от факта, че енергията на радио вълните в Киев е много повече от стотици километри. Оказва се, че нито властта, нито размерът, нито количеството могат да играят ролята на мярка за информация. Тогава как можем да оценим това или онова количество данни? количество информация

новост

От компютърните науки знаем, че количеството информация, обработвана от компютрите, се измерва в битове, байтове и кратни на тях. Това обаче не обяснява как тези знания могат да бъдат приложени в ежедневния живот. Например, как бихте оценили получената информация в резултат на четенето на тази статия? Ще бъде ли справедливо да се каже, че колкото повече букви има, толкова повече ще се окаже? И ако, след като прочетете тази статия седмица по-късно, ще получите същото количество информация както преди? Отговорът е очевиден. Всичко това предполага идеята, че от гледна точка на новостта е просто невъзможно да бъде измерена. Тук няма да помогне. количество информация

обем

Но в техниката, количеството информация може да бъде измерено като брой символи или сигнали, които съхраняват, предават и обработват технически устройства. Този подход се основава на броене на символи във всяко конкретно съобщение. Например, думата "мир" в английската азбука е написана с пет букви - мир, на руски - три, а в KOI8, 24 бита се използват за нейното предаване: 111011011110100111110010. Тук намерят мястото на мегабайта, килобайта и терабайта. информационни мерки

вероятност

Има и друг подход, според който информацията се разглежда като вдигане на несигурност. От тази гледна точка, колкото повече данни получаваме, толкова по-малко нашето невежество и по-голяма осведоменост. Количеството информация тук също се дефинира в битове и един или друг вероятностен резултат от една двойка еднакво възможни събития ("не" или "да", "0" или "1") се приема като единица за измерване. Например, за изчертаване се хвърля монета. Орелът или опашките могат да паднат. Съобщението, че опашката е паднала, намалява несигурността наполовина, а нейният размер съответства на един бит. В случая, когато броят на еднакво възможни събития е повече от 2, се използва равенството на R. Hartley за оценяване на съобщението, което обикновено се пише като:

2 I = N или I = log 2 N, където

N е броят на всички възможни събития,

I - количеството информация в байтове.

Понякога тази формула е написана в модифицирана форма: I = log 2 (1 / p) = - log 2 p. Символът "p" в този случай означава вероятността от възникване на всеки един от също толкова вероятните резултати. Да предположим, например, че две редовни игрални зарове са хвърлени нагоре. Необходимо е да се определи колко битове носят съобщението, че един от тях има пет, а другият има две. Лесно е да се изчисли, че вероятността за всяко едно от тези събития е една шеста. Следователно, I = 2 * log 2 6 = 2 * 2,585 = 5.17 бита. Както виждате, измерването на информацията зависи до голяма степен от обхвата на неговото използване и от избрания подход. Трудно е да си представим колко е важно в момента. Вероятно след време това е най-важният ресурс, който един съвременен човек може да притежава.