ВЫЧИСЛЕНИЕ СКОРОСТИ ПЕРЕДАЧИ ИНФОРМАЦИИ И ПРОПУСКНОЙ СПОСОБНОСТИ КАНАЛОВ СВЯЗИ

 

В условиях отсутствия помех скорость передачи информации определяется количеством информации определяется количество информации, переносимых символом сообщения в единицу времени, и равна:

clip_image002, (29)

где n – количество символов, вырабатываемых источником сообщений за единицу времени; H – энтропия (неопределённость), снимаемая при

получении одного символа сообщений, вырабатываемых данным источником.

Скорость передачи информации также может быть предоставлена как

clip_image004бит/сек, (30)

где clip_image006 – время передачи одного двоичного символа.

Скорость передачи информации всегда определяется относительно первичного алфавита и зависит от его энтропии, а скорость передачи сигналов вычисляется относительно вторичного алфавита(если аппаратура обеспечивает передачу всех качественных признаков вторичного алфавита). Таким образом, скорость передачи информации зависит от информационных характеристик источника сообщений, а скорость передачи сигналов – от быстродействия аппаратуры. Величины эти не следует путать, так как они вычисляются по разным формулам и имеют разные размерности. Так, в отличие от (30), скорость передачи сигналов вычисляется по формуле

clip_image008 символ/сек,

где clip_image006[1] – время передачи одного символа вторичного алфавита.

Для сообщений, составленных из равновероятных взаимозаменяемых символов равной длительности, скорость передачи информации

clip_image010 бит/сек. (31)

В случае неравновероятных символов равной длительности clip_image012 бит/сек. (32)

В случае неравновероятных и взаимозависимых символов разной длительности

clip_image014бит/сек. (33)

Пропускная способность(или ёмкость канала связи) – есть максимальная скорость передачи информации по данному каналу связи. Под каналом связи подразумевается совокупность средств, предназначенных для передачи информации от данного источника сообщений

к адресату. Выражение для пропускной способности отличается от выражения (29) тем, что пропускную способность характеризует максимальная энтропия:

clip_image016 бит/сек. (34)

Для двоичного код clip_image018бит/сек.

При наличии помех пропускная способность канала связи вычисляется как произведение количества принятых в секунду знаков n на разность энтропии источника сообщений и условной энтропии источника сообщений относительно принятого сигнала:

clip_image020 бит/сек, (35)

или

clip_image022бит/сек.

В общем случае

clip_image024

clip_image026 бит/сек. (36)

Если символы источника сообщений неравновероятны и взаимозависимы, то энтропия источника считается по формуле общей условной энтропии. Действие помех в канале связи также может быть подсчитано по формуле условной энтропии. Противоречий тут нет, так как в этом случае в формулах условных энтропий будут участвовать разные условные вероятности. В первом случае это будут условные вероятности появления одного символа в зависимости от вероятности появления некоторого другого символа, а во втором случае это будут условные вероятности перехода одного символа в другой под действием помех в канале связи. Безусловные вероятности появления символов на выходе источника сообщений (или на входе приёмника) должны быть заданы или определены по условию.

Для симметричных бинарных каналов, в которых сигналы передаются при помощи двух качественных признаков и вероятность ложного приёма pл = p(1/0) = p(1/1), а вероятность правильного приёма clip_image028, потери учитываются при помощи условной энтропии вида

clip_image030бит/сек, (37)

пропускная способность таких каналов

clip_image032 бит/сек. (38)

Для несимметричного бинарного канала связи

clip_image034

clip_image036

+clip_image038. (39)

На практике чаще всего приходится решать задачу определения пропускной способности при заданном проценте искажения в канале связи. В случае бинарных каналов задаётся вероятность или процент соотношение перехода 1 в 0 и наоборот.

Пропускную способность бинарных каналов с заданным процентом искажений удобно вычислить при помощи таблиц, аналогичных табл. 4.1.

Для симметричных дискретных каналов связи с числом качественных признаков m > 2 пропускная способность

clip_image040 бит/сек. (40)

Свойства симметричного канала связи:

1) В симметрическом канале связи

clip_image042.

2) Условная энтропия

clip_image044.

3) Среднее количество информации в принятом ансамбля сообщений относительно преданного

clip_image046

clip_image048.

4) Канальная матрица для симметричного канала связи со стороны источника и со стороны приёмника выглядит одинокого.

5) В симметричном канале связи сумма вероятностей в каждой стороне и в каждом столбце равна единице.

6) Пропускная способность симметричного канала связи от А к В равна пропускной особенности того же канала связи от В к А.

Скорость передачи информации зависит от экономности вторичного алфавита. Чем больше избыточность кода, тем меньше скорость передачи информации.

Часто бывает удобно оценивать возможную скорость передачи информации независимо от реальных характеристик канала связи,а по информационным характеристикам кода. В этом случае выражение для скорости передачи информации можно записать в виде

clip_image050элементов/ед.времени,

где clip_image052; n – число сигналов (элементарных посылок), которые можно передать по данному каналу связи за единицу времени.

Таблица 4.1.

Априорная вероятность

Условная вероятность

Вероятность совместных событий

Значение энтропий

Относительно принятого сигнала

Относительно посланного сигнала

clip_image054

clip_image056

clip_image058

clip_image060

clip_image062

clip_image064

clip_image066

clip_image068

clip_image070

clip_image072

clip_image074

clip_image076

clip_image078

clip_image080

clip_image082

clip_image084

clip_image086

clip_image088

clip_image090

clip_image092

clip_image094

clip_image096

clip_image098

clip_image100

clip_image102

clip_image104

clip_image106

clip_image108

clip_image110

clip_image112

clip_image114

clip_image116

clip_image118

clip_image120

clip_image122

clip_image124

clip_image126

clip_image128

clip_image130

clip_image132

clip_image134

clip_image136

clip_image138

clip_image140

clip_image142

clip_image144

clip_image146

clip_image148

clip_image150

Для двоичных кодов длиной в n символов наибольшая скорость передачи

clip_image152 бит/ед.времени clip_image154 букв/ед.времени,

где H следует понимать как энтропию источника сообщений (первичного алфавита). В этом случае каждая возможная комбинация символов вторичного алфавита соответствует одному из передаваемых сообщений независимо от того, буква это или i-е состояние системы.

Для кодов, обнаруживающих одиночную ошибку (см. тему 6), число кодовых комбинаций длиной в L равно 2L-1, т. е. Для передачи сообщений используется только половина всех возможных комбинаций символов вторичного алфавита (например, только с четным числом единиц). Скорость передачи в этом случае равна

clip_image156 бит/ед.времени clip_image158 букв/ед.времени.

Для кодов, исправляющих одиночную ошибку, число добавочных символов должно быть не меньше трёх, т.е. они обладают большей избыточностью, чем коды, обнаруживающие одиночную ошибку, и меньшей скоростью передачи информации, которая в этом случае равна

clip_image160 бит/ед.времени clip_image162букв/ед.времени. (41)

Число контрольных символов k может быть вычислено из соотношения

clip_image164.

Для кодов Хемминга, исправляющих одиночную ошибку, k может быть определенно как clip_image166, где квадратные скобки означают, что берётся ближайшее округленное в большую сторону целое число.

Относительная скорость передачи информации одним сигналом кода, исправляющего одиночную ошибку,

clip_image168 бит/ед.времени. (42)

Так как для кодов, исправляющих ошибки,

clip_image170,

то

clip_image172 бит/ед.времени. (43)

Для кодов, исправляющих r ошибок,

clip_image174 бит/ед.времени. (44)

Предлагаю ознакомиться с аналогичными статьями: