Они объяснят ошибку
В этой статье есть несколько проблем. Пожалуйста, помогите улучшить его или обсудите эти проблемы на странице обсуждения . ( Узнайте, как и когда удалять эти шаблонные сообщения )
|
В теории информации показатель ошибки или канального кода исходного кода по длине блока кода — это скорость, с которой вероятность ошибки экспоненциально убывает с длиной блока кода. Формально он определяется как предельное отношение отрицательного логарифма вероятности ошибки к длине блока кода для больших длин блоков. Например, если вероятность ошибки декодера падает как , где длина блока, показатель ошибки равен . В этом примере подходы для больших . Многие теоремы теории информации носят асимптотический характер, например, теорема о канальном кодировании утверждает, что для любой скорости, меньшей, чем пропускная способность канала, вероятность ошибки канального кода может быть обращена к нулю по мере увеличения длины блока. уходит в бесконечность. В практических ситуациях существуют ограничения на задержку связи, и длина блока должна быть конечной. Поэтому важно изучить, как падает вероятность ошибки при стремлении длины блока к бесконечности.
Показатель ошибки при кодировании канала [ править ]
Для не зависящих от времени DMC [ править ]
Теорема канального кодирования утверждает, что для любого ε > 0 и для любой скорости, меньшей пропускной способности канала, существует схема кодирования и декодирования, которую можно использовать, чтобы гарантировать, что вероятность ошибки блока будет меньше ε > 0 для достаточно длинного сообщения. блок Х. Кроме того, для любой скорости, превышающей пропускную способность канала, вероятность ошибки блока в приемнике стремится к единице, поскольку длина блока стремится к бесконечности.
Предположим, что канальное кодирование настроено следующим образом: канал может передавать любое из сообщения, передавая соответствующее кодовое слово (длиной n ). Каждый компонент в кодовой книге рисуется iid в соответствии с некоторым распределением вероятностей с массы вероятности Q. функцией В конце декодирования выполняется декодирование максимального правдоподобия.
Позволять быть случайное кодовое слово в кодовой книге, где идет от к . Предположим, выбрано первое сообщение, поэтому кодовое слово передается. При условии получено, вероятность того, что кодовое слово будет неправильно обнаружено как является:
Функция имеет верхнюю границу
для Таким образом,
Поскольку всего имеется M сообщений, а записи в кодовой книге имеют идентификатор iid, вероятность того, что путается с любым другим сообщением раз больше приведенного выше выражения. Используя оценку объединения, вероятность спутать с любым сообщением ограничено:
для любого . Усреднение по всем комбинациям :
Выбор и объединив две суммы по в приведенной выше формуле:
Использование независимого характера элементов кодового слова и дискретного характера канала без памяти:
Используя тот факт, что каждый элемент кодового слова одинаково распределен и, следовательно, стационарен:
Замена М на 2 н и определение
вероятность ошибки становится
Вопрос и следует выбирать так, чтобы граница была максимально жесткой. Таким образом, показатель ошибки можно определить как
Экспонента ошибки в исходном коде [ править ]
Для инвариантных во времени дискретных источников без памяти [ править ]
Теорема исходного кодирования утверждает, что для любого и любой источник идентификаторов дискретного времени, например и для любой скорости , меньшей энтропии источника, существует достаточно большое и кодер, который принимает iid повторение источника, и сопоставляет его с двоичные биты такие, что исходные символы восстанавливаются из двоичных битов с вероятностью не менее .
Позволять быть общим количеством возможных сообщений. Затем сопоставьте каждую из возможных выходных последовательностей источника с одним из сообщений случайным образом, используя равномерное распределение и независимо от всего остального. При появлении источника генерируется соответствующее сообщение затем передается по назначению. Сообщение декодируется в одну из возможных исходных строк. Чтобы минимизировать вероятность ошибки, декодер будет декодировать исходную последовательность. это максимизирует , где обозначает событие, о котором сообщается было передано. Это правило эквивалентно поиску исходной последовательности среди набора исходных последовательностей, которые соответствуют сообщению это максимизирует . Такое сокращение следует из того, что сообщения распределялись случайным образом и независимо от всего остального.
Таким образом, в качестве примера возникновения ошибки предположим, что исходная последовательность было сопоставлено с сообщением как и исходная последовательность . Если был сгенерирован в источнике, но тогда возникает ошибка.
Позволять обозначают событие, когда исходная последовательность был сгенерирован в источнике, так что Тогда вероятность ошибки можно представить как Таким образом, внимание можно сосредоточить на нахождении верхней границы .
Позволять обозначают событие, когда исходная последовательность было сопоставлено с тем же сообщением, что и исходная последовательность и это . Таким образом, позволив обозначают событие, когда две исходные последовательности и сопоставление с тем же сообщением, у нас есть это
и используя тот факт, что и независим от всего остального
Простую верхнюю оценку члена слева можно установить как
для некоторого произвольного действительного числа Эту верхнюю оценку можно проверить, заметив, что либо равно или потому что вероятности данной входной последовательности полностью детерминированы. Таким образом, если затем так что неравенство в этом случае выполнено. Неравенство справедливо и в другом случае, поскольку
для всех возможных исходных строк. Таким образом, объединив все и введя некоторые , возьми это
Где неравенства следуют из вариации Union Bound. Наконец, применив эту верхнюю оценку к суммированию для есть это:
Где теперь можно взять сумму за все потому что это только увеличит границу. В конечном итоге это дает
Теперь для простоты позвольте так что Подставив это новое значение в приведенную выше оценку вероятности ошибки и используя тот факт, что — это всего лишь фиктивная переменная в сумме, что дает в качестве верхней границы вероятности ошибки следующее:
- и каждый из компонентов независимы. Таким образом, упрощение приведенного выше уравнения дает
Член в показателе степени должен быть максимизирован за для достижения наивысшей верхней границы вероятности ошибки.
Сдача в аренду увидите, что показатель ошибки для случая исходного кодирования:
См. также [ править ]
Ссылки [ править ]
Р. Галлагер, Теория информации и надежная связь , Wiley, 1968 г.