В условиях отсутствия помех скорость передачи информации определяется количеством информации определяется количество информации, переносимых символом сообщения в единицу времени, и равна:
где n – количество символов, вырабатываемых источником сообщений за единицу времени; H – энтропия (неопределённость), снимаемая при
получении одного символа сообщений, вырабатываемых данным источником.
Скорость передачи информации также может быть предоставлена как
где – время передачи одного двоичного символа.
Скорость передачи информации всегда определяется относительно первичного алфавита и зависит от его энтропии, а скорость передачи сигналов вычисляется относительно вторичного алфавита(если аппаратура обеспечивает передачу всех качественных признаков вторичного алфавита). Таким образом, скорость передачи информации зависит от информационных характеристик источника сообщений, а скорость передачи сигналов – от быстродействия аппаратуры. Величины эти не следует путать, так как они вычисляются по разным формулам и имеют разные размерности. Так, в отличие от (30), скорость передачи сигналов вычисляется по формуле
где – время передачи одного символа вторичного алфавита.
Для сообщений, составленных из равновероятных взаимозаменяемых символов равной длительности, скорость передачи информации
В случае неравновероятных символов равной длительности бит/сек. (32)
В случае неравновероятных и взаимозависимых символов разной длительности
Пропускная способность(или ёмкость канала связи) – есть максимальная скорость передачи информации по данному каналу связи. Под каналом связи подразумевается совокупность средств, предназначенных для передачи информации от данного источника сообщений
к адресату. Выражение для пропускной способности отличается от выражения (29) тем, что пропускную способность характеризует максимальная энтропия:
При наличии помех пропускная способность канала связи вычисляется как произведение количества принятых в секунду знаков n на разность энтропии источника сообщений и условной энтропии источника сообщений относительно принятого сигнала:
или
В общем случае
Если символы источника сообщений неравновероятны и взаимозависимы, то энтропия источника считается по формуле общей условной энтропии. Действие помех в канале связи также может быть подсчитано по формуле условной энтропии. Противоречий тут нет, так как в этом случае в формулах условных энтропий будут участвовать разные условные вероятности. В первом случае это будут условные вероятности появления одного символа в зависимости от вероятности появления некоторого другого символа, а во втором случае это будут условные вероятности перехода одного символа в другой под действием помех в канале связи. Безусловные вероятности появления символов на выходе источника сообщений (или на входе приёмника) должны быть заданы или определены по условию.
Для симметричных бинарных каналов, в которых сигналы передаются при помощи двух качественных признаков и вероятность ложного приёма pл = p(1/0) = p(1/1), а вероятность правильного приёма , потери учитываются при помощи условной энтропии вида
пропускная способность таких каналов
Для несимметричного бинарного канала связи
На практике чаще всего приходится решать задачу определения пропускной способности при заданном проценте искажения в канале связи. В случае бинарных каналов задаётся вероятность или процент соотношение перехода 1 в 0 и наоборот.
Пропускную способность бинарных каналов с заданным процентом искажений удобно вычислить при помощи таблиц, аналогичных табл. 4.1.
Для симметричных дискретных каналов связи с числом качественных признаков m > 2 пропускная способность
Свойства симметричного канала связи:
1) В симметрическом канале связи
2) Условная энтропия
3) Среднее количество информации в принятом ансамбля сообщений относительно преданного
4) Канальная матрица для симметричного канала связи со стороны источника и со стороны приёмника выглядит одинокого.
5) В симметричном канале связи сумма вероятностей в каждой стороне и в каждом столбце равна единице.
6) Пропускная способность симметричного канала связи от А к В равна пропускной особенности того же канала связи от В к А.
Скорость передачи информации зависит от экономности вторичного алфавита. Чем больше избыточность кода, тем меньше скорость передачи информации.
Часто бывает удобно оценивать возможную скорость передачи информации независимо от реальных характеристик канала связи,а по информационным характеристикам кода. В этом случае выражение для скорости передачи информации можно записать в виде
где ; n – число сигналов (элементарных посылок), которые можно передать по данному каналу связи за единицу времени.
Таблица 4.1.
Априорная вероятность | Условная вероятность | Вероятность совместных событий | Значение энтропий | |
Относительно принятого сигнала | Относительно посланного сигнала | |||
Для двоичных кодов длиной в n символов наибольшая скорость передачи
бит/ед.времени букв/ед.времени,
где H следует понимать как энтропию источника сообщений (первичного алфавита). В этом случае каждая возможная комбинация символов вторичного алфавита соответствует одному из передаваемых сообщений независимо от того, буква это или i-е состояние системы.
Для кодов, обнаруживающих одиночную ошибку (см. тему 6), число кодовых комбинаций длиной в L равно 2L-1, т. е. Для передачи сообщений используется только половина всех возможных комбинаций символов вторичного алфавита (например, только с четным числом единиц). Скорость передачи в этом случае равна
бит/ед.времени букв/ед.времени.
Для кодов, исправляющих одиночную ошибку, число добавочных символов должно быть не меньше трёх, т.е. они обладают большей избыточностью, чем коды, обнаруживающие одиночную ошибку, и меньшей скоростью передачи информации, которая в этом случае равна
бит/ед.времени букв/ед.времени. (41)
Число контрольных символов k может быть вычислено из соотношения
Для кодов Хемминга, исправляющих одиночную ошибку, k может быть определенно как , где квадратные скобки означают, что берётся ближайшее округленное в большую сторону целое число.
Относительная скорость передачи информации одним сигналом кода, исправляющего одиночную ошибку,
Так как для кодов, исправляющих ошибки,
то
Для кодов, исправляющих r ошибок,
0 коммент.:
Отправить комментарий