Міжнародні інформаційні системи - Навчальний посібник

3.2. вимір кількості та якості інформації

Найважливішим етапом у розвитку теорії інформації явилася кількісна оцінка інформації. Зрозуміло, що ця оцінка не повинна бути пов'язана із змістовним боком інформації. Тільки в цьому випадку з'явиться можливість оцінки інформаційних потоків у таких різних по своїй природі об'єктах, як система зв'язку, обчислювальні машини, процеси керування, нервова система живого організму.

Лише приймаючи за основу новизну відомостей, можна дати кількісну оцінку інформації, тому що новизна відомостей є наслідком невизначеності відомостей про об'єкт, процес, явище, а невизначеність піддається виміру. Наприклад, повідомлення про ім'я перемігшого на виборах у президенти, якщо було усього два кандидати, несе меншу кількість інформації порівняно з випадком, якби вибори відбувалися в конкурентній боротьбі п'яти кандидатів.

Базуючись на ідеї, що інформація усуває деяку невизначеність, тобто незнання, опис будь-якої події або об'єкта формально можна розглядати як вказівку на те, у якому з можливих станів знаходиться об'єкт, що описується. Тоді протікання подій у часі є не що інше, як зміна станів, вибраних із деякою ймовірністю з числа усіх можливих. Чим більше невизначеність вибору, тим більше інформації, тому що результат вибору має великий ступінь несподіванки. От чому в теорії інформації кількість інформації є мірою зняття невизначеності однієї випадкової величини в результаті спостереження за іншою. Якщо величини незалежні, то кількість інформації дорівнює нулю.

Самим найпростішим випадком є вибір альтернативи з двох подій, тому за одиницю інформації доцільно прийняти кількість інформації, укладену у виборі одного з двох рівноймовірних подій. Ця одиниця називається “двійковою одиницею” або бітом (binary digit, binary unit) = bit. Подія є =1, події немає = 0.

8 бітів = 1 байт; 8192 бітів = 1024 байт = 1 Кбайт

Приблизно: 1000 Кбайт = 1 Мбайт;

1000 Мбайт = 1 Гбайт;

1000 Гбайт = 1 Нбайт.

Байтом знаків (сигналів) можна закодувати букви російського і латинського алфавітів, службові символи та ін. Байтовий алфавіт широко використовується в інформатиці.

Звертає на себе увагу чудова єдність, пов'язана з бінарною природою елементів , що переключають, бінарним представленням інформації і бінарною оцінкою його кількості. Справа в тому, що запам'ятовування інформації в обчислювальних машинах проводиться на елементах бінарного типу (феррітові кільця з прямокутною петлею гістерезиса, тригери, напівпровідникові вентилі), а інформація (букви, числа) у комп'ютері представляється в двійковій системі числення (0 і 1, тому і ємність пам'яті комп'ютера вимірюється кількістю бітів. Після того, як аналогову інформацію (промову, музику, кінофільми) стало можливим представити у вигляді 0 і 1, утворився єдиний процес обробки, запам'ятовування і передачі інформації будь-якої природи, виконуваний за допомогою фізичних елементів бінарного типу.

Вимір тільки кількості інформації не відповідає нагальним потребам сучасного суспільства - необхідна міра цінності інформації. Доречно пригадати зауваження академіка П.Н.Федосєєва: “У останні роки усе гостріше підводиться проблема так званого інформаційного вибуху. Потреба розвитку науки, задача оптимізації виробництва і переробки інформації потребують вирішення проблеми її змістовності, цінності. Як знайти критерій для виміру властивостей інформації? Ця “задача сторіччя” стоїть перед наукою в цілому... ”.

Проблема визначення цінності інформації винятково актуальна в даний час. Якщо в 50-ті роки ця наукова задача могла здатися дещо надуманою, то зараз, коли уже важко навіть за допомогою комп'ютера обробляти інформаційний потік, розроблені методи визначення цінності інформації зіграли б суттєву роль в одержані людиною необхідної інформації.

Однією з перших робіт з проблеми цінності інформації явилася стаття академіка А.А.Харкевича, у якій пропонувалося прийняти за міру цінності інформації кількість інформації, необхідну для досягнення поставленої цілі, тобто розраховувати збільшення можливості досягнення цілі. Так, якщо до одержання інформації можливість досягнення цілі рівнялася Р0, а після одержання - Р1, то цінність інформації визначається як логарифм відношення Р1/Р0. Цінність інформації при цьому вимірюється в бітах.

Інформація називається корисною, якщо вона зменшує невизначеність вирішального алгоритму. Академік М.М.Бонгард відзначає, що не має сенсу говорити про корисну інформацію, що утримується в сигналі, якщо не показана задача, що вирішується, початковий стан вирішального алгоритму і властивості декодуючого алгоритму.

Таким чином, різноманітні підходи до вирішення проблеми цінності інформації мають принципові загальні риси: вони пропонують вимірювати цінність інформації через її кількість, зв'язують цінність інформації з поставленою задачею.

Поки можна зробити висновок, що задача визначення цінності інформації при достатньому ступені формалізації, що потрібний при комп'ютеризованій оцінці, ще не вирішена, проте це не означає неможливості її вирішення в майбутньому.