УСЛОВНАЯ ЭНТРОПИЯ И ЭНТРОПИЯ ОБЪЕДИЕНИЯ.

 

Понятие условной энтропии в теории информации используется при определении взаимозависимости1между символами кодируемого алфавита, для определения потерь при передаче информации по каналам связи, при вычислении энтропии объединения.

Во всех случаях при вычислении условной энтропии в том или ином виде используются условные вероятности.

Если при передаче n сообщений символ А появился m раз, символ B появился l раз, а символ А вместе с символом В - clip_image002 раз, то вероятность появления символа А clip_image004 вероятность появления символа В clip_image006; вероятность совместного появления А и В clip_image008 условная вероятность появления символа А относительно символа В и условная вероятность появления символа В относительно символа А

clip_image010 (7)

Если известна условная вероятность, то можно легко определить и вероятность совместного появления символов А и В, используя выражение (7)

clip_image012 (8)

От классического выражения (4) формула условной энтропии отличается тем, что в ней вероятности – условные:

clip_image014 (9)

clip_image016 (10)

где индекс i выбран для характеристики произвольного состояния источника сообщений А, индекс j выбран для характеристики произвольного состояния адресата В.

Различают понятия частной и общей условной энтропии. Выражения (9) и (10) предоставляют собой частные условные энтропии.

Общая условная энтропия сообщения В относительно сообщения А характеризует количество информации, содержащейся в любом символе алфавита, и определяется усреднением по всем символам, т.е. по всем состояниям с учетом вероятности появления каждого из состояний, и равна сумме вероятностей появления символов алфавита на неопределённость, которая остаётся после того, как адресат принял сигнал

clip_image018 (11)

Выражение (11) является общим выражением для определения количества информации на один символ сообщения для случая неравномерных и взаимозависимых символов.

Так как clip_image020представляет собой вероятность совместного появления двух событий clip_image022 то формулу (11) можно записать следующим образом:

clip_image024 (12)

Понятие общей и частной условной энтропии широко используется при вычислении информационных потерь в каналах связи с шумами.

В общем случае, если мы передаём m сигналов А и ожидаем получить m сигналов В, влияние помех в канале связи полностью описывается канальной матрицей, которую мы приводим ниже:

В

А

b1

b2

bj

bm

a1

clip_image026

clip_image028

…,

clip_image030

…,

clip_image032

a2

clip_image034

clip_image036

…,

clip_image038

…,

clip_image040

………...…

………...…

………...…

………...…

………...…

………...…

ai

clip_image042

clip_image044

…,

clip_image046

…,

clip_image048

………...…

………...…

…,

………...…

…,

………...…

am

clip_image050

clip_image052

…,

clip_image054

…,

clip_image056

Вероятности, которые расположены по диагонали (выделенные полужирным шрифтом), определяют правильный приём, остальные – ложный. Значение цифр, заполняющих колонки канальной матрицы, обычно уменьшается по мере удаления от главной диагонали и при полном отсутствии помех все, кроме цифр, расположенных на главной диагонали, равны нулю.

Если описывать канал связи со стороны источника сообщений, то прохождение данного вида сигнала в данном канале связи описывается распределением условных вероятностей вида clip_image046[1] так для сигнала ai распределением вида

clip_image059 (13)

Сумма вероятностей распределения (13) всегда должна равняться 1. Потери информации, которые приходятся на долю сигнала a1, описываются при помощи частной условной энтропии вида

clip_image061. (14)

Суммирование производиться по j, так как i-е cсостояние (в данном случае первое) остаётся постоянным.

Чтобы учесть потери при передаче всех сигналов по данному каналу связи, следует просуммировать все частные условные энтропии, т.е. произвести двойное суммирование по i и по j. При этом в случае равновероятных появлений сигналов на выходе источника сообщений

clip_image063 (15)

(на m делим, так как энтропия есть неопределённость на один символ).

В случае неравновероятного появления символов источника сообщений следует учесть вероятность появления каждого символа, умножив на неё соответствующую частную условную энтропию. При этом общая условная энтропия

clip_image065 (16)

Если мы исследуем канал связи со стороны приёмника сообщений, то с получением сигнала bj предполагаем, что был послан какой-то из сигналов a1,a2,…,ai,…,am. При этом канальная матрица будет иметь вид

В

А

b1

b2

bj

bm

a1

clip_image067

clip_image069

…,

clip_image071

…,

clip_image073

a2

clip_image075

clip_image077

…,

clip_image079

…,

clip_image081

………...…

………...…

………...…

………...…

………...…

………...…

ai

clip_image083

clip_image085

…,

clip_image087

…,

clip_image087[1]

………...…

………...…

…,

 

…,

………...…

am

clip_image090

clip_image092

…,

clip_image094

…,

clip_image096

В этом случае единице должны равняться суммы условных вероятностей не по строкам, а по столбцам канальной матрицы

clip_image098

Частная условная энтропия

clip_image100 (17)

а общая условная энтропия

clip_image102 (18)

Так как clip_image104то для вычисления общей условной энтропии наравне с выражением (16) может быть использовано следующее выражение:

clip_image106 (19)

Если заданы канальная матрица вида clip_image108(частная условная энтропия в этом случае соответствует (14) и безусловные вероятности вида clip_image110, то безусловные вероятности приемника clip_image112 находим как clip_image114 т. е. Если заданы безусловные вероятности источника и канальная матрица, то может быть вычислена энтропия приёмника

clip_image116

и наоборот, если заданы вероятности вида clip_image112[1] и канальная матрица, описывающая канал связи со стороны приемника сообщений

(частная условная энтропия при этом соответствует выражению (17)), то clip_image119 а значит может быть определена энтропия источника сообщений clip_image121

Если взаимозависимость связывает 3 элемента ai, aj, ak, то условная энтропия вычисляется по формулеclip_image123

аналогично и для 4, 5, …, n элементов.

Энтропия объединения используется для вычисления энтропии совместного появления статистически зависимых сообщений. Например, передав сто раз цифру 5 по каналу связи с помехами, заметим, что цифра 5 была принята 90 раз, цифра 6 – 8 раз и цифра 4 – 2 раза.

Неопределённость возникновения комбинаций вида 5 – 4, 5 – 5, 5 – 6, при передаче цифры 5 может быть описана при помощи энтропии объединения. H(A,B) – неопределенность того, что будет послано А, а принято В. Для ансамблей переданных сообщений и принятых сообщений В энтропия объединения представляет собой сумму вида

clip_image125 бит/два символа . (20)

Энтропия объединения и условная энтропия связаны между собой следующими соотношениями:

clip_image127

clip_image129

Энтропия объединения может быть подсчитана при помощи матрицы вида

clip_image131.

Такая матрица обладает замечательным свойством: clip_image133 при этом clip_image135. Это свойство, в свою очередь, позволяет вычислять энтропию - как источника, так и приёмника сообщений непосредственно по канальной матрице

clip_image137 (21)

clip_image139 (22)

Суммирование производим по i и j, так как для того, чтобы найти безусловные вероятности, необходимо суммировать их по одной координате (имея в виду матричное представление вероятностей) для нахождения Н суммирование производится по другой координате.

Условные вероятности вида clip_image141 и clip_image143 вычисляются следующим образом:

clip_image145

Количество информации на символ сообщения, переданного по каналу связи, в котором влияние помех описывается при помощи энтропии объединения, подсчитывается следующим образом:clip_image147

Контрольные задачи

1.В результате статистических испытаний канала связи № 1 со стороны источника сообщений были получены следующие условные вероятности: clip_image1490,9; clip_image1510,1; clip_image1530; clip_image1550,1; clip_image1570,8; clip_image1590,1; clip_image1610;clip_image1630; clip_image1650,9.

При испытании канала связи № 2 со стороны приёмника сообщений получины условные вероятности: clip_image1670,9; clip_image1690,08; clip_image1710; clip_image1730,1; clip_image1750,8; clip_image1770,0; clip_image1790;clip_image1810,12; clip_image1830,92.

Построить соответствующие канальные матрицы и определить частные условные энтропии относительно сигнала а2 (со стороны источника сообщений) и сигнала b3( со стороны приёмника).

2.Определить все возможные информационные характеристики канала связи, в котором взаимосвязь источника с приёмником может быть описана матрицей вида:

clip_image185

3.Вероятности появления сигналов на входе приемника сообщений равны соответственно: p(b1) = 0,2; p(b2) = 0,3; p(b3) = 0,3. Канал связи описан следующей канальной матрицей:

clip_image187

Определить энтропию источника сообщений.

4.Определить частотную энтропию относительно каждого символа источника сообщений при передаче по каналу связи, описанному следующей канальной матрицей:

clip_image189

5.В результате статистических испытаний канала связи были получены следующие условные вероятности перехода одного сигнала в другой : clip_image149[1]0,85; clip_image151[1]0,1; clip_image153[1]0,05; clip_image155[1]0,09; clip_image157[1]0,91; clip_image159[1]0; clip_image161[1]0;clip_image163[1]0,08; clip_image165[1]0,92. Построить канальную матрицу и определить общую условную энтропию сообщений, передаваемых по данному каналу связи.

6.Построить произвольные канальные матрицы, описывающие канал связи как со стороны источника сообщений, так и со стороны приёмника. В чём разница таких матриц? Как определить частные условные энтропии по одной и по другой матрице?

7.Построить произвольную матрицу некоторой объединенной системы. Какие замечательные свойства такой матрицы?

8.Показать процесс перехода от матрицы с вероятностями вида p(a,b) к матрице с вероятностями вида p(b/a).

9.Определить полные условные энтропии двух систем А и В, если матрица вероятностей системы, полученной в результате объединения систем А и В, имеет вид:

clip_image199


1 Суть взаимозависимости символов букв алфавита заключается в том, что вероятность появления i-й буквы в любом месте сообщения зависит от того, какие буквы стоят перед ней и после неё, и будет отличаться от безусловной вероятности pi, известной из статистических свойств данного алфавита.

Предлагаю ознакомиться с аналогичными статьями: