КОЛИЧЕСТВЕННАЯ ОЦЕНКА ИНФОРМАЦИИ.

 

Общее число неповторяющихся сообщений, которое может быть составлено из алфавита m путем комбинирования по n символов сообщений,

clip_image002 (1)

Неопределенность, приходящаяся на символ первичного (кодируемого)[1] алфавита, составленного из равновероятных и взаимно зависимых символов,

clip_image004 (2)

Основание логарифма влияет лишь на удобство вычисления. В случае оценки энтропии:

а) в двоичных единицахclip_image006 бит/символ;

б) в десятичных единицахclip_image008 бит/символ, где clip_image010, 1 бит clip_image012 0,3 бит;

в) в натуральных единицах clip_image014 нат/символ, где clip_image016, 1 бит clip_image012[1] 0,69нат.

Так как информация есть неопределенность, снимаемая при получении сообщения, то количество информации может быть представлено как произведение общего числа сообщений k на среднюю энтропию H, приходящуюся на одно сообщение:

clip_image018 бит. (3)

Для случаев равновероятных и взаимонезависимых символов первичного алфавита количество информации в k сообщениях алфавита m равно:clip_image020 бит.

Для неравновероятных алфавитов энтропия на символ алфавита:

clip_image022 бит/символ, (4)

а количество информации в сообщении, составленном из clip_image024 неравноверновероятных символов,

clip_image026 бит. (5)

При решении задач, в которых энтропия вычисляется как сумма произведений вероятностей на их логарифмы, вероятности всегда должны представлять группу полных событий, независимо от того, являются ли они безусловными clip_image028, условнымиclip_image030 или вероятностями совместных событий clip_image032.

Количество информации определяется исключительно характеристиками первичного алфавита, объем – характеристиками вторичного алфавита. Объем1 информации

clip_image034, (6)

где clip_image036- средняя длина кодовых слов вторичного алфавита. Для равномерных кодов (все комбинации кода содержат одинаковое количество разрядов)clip_image038,

где n – длина кода (число элементарных посылок в коде). Согласно (3), объём равен количеству информации, если clip_image040, т.е. в случае максимальной информационной нагрузки на символ сообщения. Во всех случаях I<Q.

Например, если кодировать в коде Бодо (см. приложение 3) некоторый равновероятный алфавит, состоящий из 32 символов, то clip_image042 бит;

clip_image044.

Если кодировать в коде Бодо русский 32-буквенный алфавит, то без учета корреляции между буквами количество информации

clip_image046бит; clip_image048clip_image050,

т.е. если в коде существует избыточность и clip_image052, то объём в битах всегда дольше количества информации в тех же единицах.

Контрольные задачи

1.Указать наименьшее количество вопросов, позволяющих всегда угадать день рождения любого человека при ответах: «Да», «Нет».

2. Составить равномерный двоичный код для передачи слов некоторого условного языка, алфавит которого состоит из 20 букв. Чему равен объём информации при передаче семибуквенного слова в этом алфавите?

3. Чему равно количество информации о неисправности n транзисторов после температурных испытаний партии транзисторов из N штук, выпущенной в один и тот же день, одним и тем же заводом?

4. Чему равна энтропия украинского алфавита, если вероятности появления букв в украинских текстах соответствуют табл. 3 приложения 5?

5. Определить энтропию физической системы B, в которой может находиться в одном из 10 состояний. Вероятности состояний системы B:

clip_image054.

6. Определить объём и количество информации в принятом тексте:

«Товарищ, верь: взойдёт она,

Звезда пленительного счастья,

Россия вспрянет ото сна…»

7. Определить объём и количество информации при следующих исходных условиях: а)алфавит clip_image056,clip_image058, …, clip_image060 равновероятный, символы вторичного алфавита комбинируются в равномерные коды, число качественных признаков, из которых комбинируются вторичные сообщения, clip_image062б) первичный алфавит содержит 8 букв, clip_image064 вероятности появления букв первичного алфавита на выходе источника сообщений соответственно равны: clip_image066 коды вторичного алфавита равномерные, clip_image062[1] в) первичный алфавит состоит из 5 букв, которые встречаются в текстах с равными вероятностями, вторичные сообщения составлены из равномерных кодов с числом качественных признаков clip_image062[2] г) первичный алфавит равновероятный, clip_image064[1] а вторичный алфавит построен из кодов, способных обнаруживать одиночную ошибку, коды вторичного алфавита – равной длины.

8. Длина кода во вторичном алфавите равна 10 символам. Количество информации на символ первичного алфавита равно 2,5 бит/символ. Какое количество информации мы получим, если примем: а) 7 символов вторичного алфавита? Б) 17 символов вторичного алфавита?

9. Определить энтропию трехуровневой симметричной иерархической системы, основание которой равно 2, если: а) на первом уровне один элемент системы с равной вероятностью может находиться в двух состояниях, другой – с равной вероятностью может находиться в трёх состояниях; б) на втором уровне каждый элемент системы может находиться в двух состояниях с вероятностями соответственно: I- 0.2 и 0,8; II - 0,3 и 0,7; III – 0,4 и 0,6; IV – 0,38 и 0,62; в) на третьем иерархическом уровне системы четыре элемента системы с равной вероятностью могут находиться в трех состояниях, два элемента – в двух и два элемента в четырёх состояниях. Зависит ли общая энтропия системы от того, какие именно (первые или последние) элементы третьего уровня могут с равной вероятностью находиться в четырёх состояниях?


Предлагаю ознакомиться с аналогичными статьями: