Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В теории информации , то показатель ошибки из кода канала или исходного кода по длине блока кода является скорость , при которой вероятность ошибки экспоненциально убывает с длиной блока кода. Формально он определяется как предельное отношение отрицательного логарифма вероятности ошибки к длине блока кода для больших длин блоков. Например, если вероятность ошибки в виде декодера капель , как , где длина блока, показатель ошибки . В этом примере подходит для больших . Многие теоретико-информационныетеоремы имеют асимптотический характер, например, теорема канального кодирования утверждает, что для любой скорости, меньшей, чем пропускная способность канала, вероятность ошибки канального кода может быть обращена к нулю, когда длина блока стремится к бесконечности. В практических ситуациях существуют ограничения на задержку связи, и длина блока должна быть конечной. Поэтому важно изучить, как уменьшается вероятность ошибки, когда длина блока стремится к бесконечности.

Показатель ошибки в кодировании канала [ править ]

Для инвариантных во времени DMC [ править ]

Теорема канального кодирования утверждает, что для любого ε> 0 и для любой скорости, меньшей, чем пропускная способность канала, существует схема кодирования и декодирования, которая может использоваться, чтобы гарантировать, что вероятность ошибки блока меньше, чем ε> 0 для достаточно длинного сообщения. блок - Х . Кроме того, для любой скорости, превышающей пропускную способность канала, вероятность ошибки блока на приемнике становится равной единице, поскольку длина блока стремится к бесконечности.

Предполагая, что настройка кодирования канала выглядит следующим образом: канал может передавать любое из сообщений, передавая соответствующее кодовое слово (которое имеет длину n ). Каждый компонент в кодовой книге обращается IID в соответствии с некоторым распределением вероятностей с вероятностью функции масс Q . В конце декодирования выполняется декодирование с максимальной вероятностью.

Пусть будет е случайное кодовое слово в кодовой книге, где идет от к . Предположим, что выбрано первое сообщение, и кодовое слово передается. Учитывая, что это получено, вероятность того, что кодовое слово будет неправильно обнаружено, как есть:

Функция имеет верхнюю границу

для Таким образом,

Поскольку имеется всего M сообщений, а записи в кодовой книге имеют iid, вероятность, которую путают с любым другим сообщением, умножается на указанное выше выражение. Используя границу объединения, вероятность запутаться с любым сообщением ограничивается:

для любого . Усреднение по всем комбинациям :

Выбор и объединение двух сумм в приведенной выше формуле:

Используя природу независимости элементов кодового слова и дискретную природу канала без памяти:

Используя тот факт, что каждый элемент кодового слова одинаково распределен и, следовательно, является стационарным:

Замена M на 2 nR и определение

вероятность ошибки становится

Q и следует выбирать так, чтобы граница была самой высокой. Таким образом, показатель ошибки можно определить как

Показатель ошибки в исходной кодировке [ править ]

Для инвариантных во времени дискретных источников без памяти [ править ]

Теорема кодирования источника утверждает, что для любого источника iid с дискретным временем, такого как и для любой скорости, меньшей, чем энтропия источника, существует достаточно большой кодер, который принимает повторение iid источника и отображает его в двоичный биты, так что исходные символы могут быть восстановлены из двоичных битов, по крайней мере, с вероятностью .

Позвольте быть общим количеством возможных сообщений. Затем сопоставьте каждую из возможных исходных выходных последовательностей с одним из сообщений случайным образом с использованием равномерного распределения и независимо от всего остального. Когда источник генерируется, соответствующее сообщение затем передается в пункт назначения. Сообщение декодируется в одну из возможных исходных строк. Чтобы минимизировать вероятность ошибки, декодер будет декодировать исходную последовательность, которая максимизируется , где обозначает событие, при котором сообщение было передано. Это правило эквивалентно поиску исходной последовательности среди набора исходных последовательностей, которые сопоставляются с сообщением, которое максимизирует. Это сокращение следует из того, что сообщения присваивались случайным образом и независимо от всего остального.

Таким образом, в качестве примера возникновения ошибки предполагается, что исходная последовательность была сопоставлена ​​с сообщением, как и исходная последовательность . Если был сгенерирован в источнике, но затем возникает ошибка.

Позвольте обозначить событие, при котором исходная последовательность была сгенерирована в источнике, так что тогда вероятность ошибки может быть разбита как Таким образом, внимание может быть сосредоточено на поиске верхней границы для .

Позвольте обозначить событие, что исходная последовательность была сопоставлена ​​с тем же сообщением, что и исходная последовательность и это . Таким образом, позволяя обозначить событие, при котором две исходные последовательности и сопоставляются с одним и тем же сообщением, мы получаем, что

и используя тот факт, что и независимо от всего остального

Простая верхняя оценка члена слева может быть установлена ​​как

для некоторого произвольного действительного числа. Эту верхнюю границу можно проверить, отметив, что либо равно, либо потому, что вероятности данной входной последовательности полностью детерминированы. Таким образом, если тогда так, что неравенство выполняется в этом случае. Неравенство справедливо и в другом случае, поскольку

для всех возможных исходных строк. Таким образом, комбинируя все и вводя некоторые , получаем, что

Где неравенство вытекает из варианта ограничения Союза. Наконец, применив эту верхнюю границу к суммированию для :

Где сумма теперь может быть взята за все, потому что это только увеличит границу. В конечном итоге давая это

Теперь для простоты позвольте так, чтобы подстановка этого нового значения в приведенную выше границу вероятности ошибки и использование того факта, что это всего лишь фиктивная переменная в сумме, дает следующее в качестве верхней границы вероятности ошибки:

и каждый из компонентов независим. Таким образом, упрощение приведенного выше уравнения дает

Член в показателе экспоненты должен быть максимальным , чтобы достичь наивысшей верхней границы вероятности ошибки.

Убедившись, что показатель степени ошибки для случая исходного кодирования равен:

См. Также [ править ]

  • Исходное кодирование
  • Кодирование каналов

Ссылки [ править ]

Р. Галлагер, Теория информации и надежная коммуникация , Wiley, 1968 г.