Бинарный симметричный канал (или BSC p ) — это распространенная модель канала связи, используемая в теории кодирования и теории информации . В этой модели передатчик хочет отправить бит (ноль или единицу), а получатель получит бит. Бит будет «перевернут» с « вероятностью пересечения » p , а в противном случае будет принят правильно. Эту модель можно применять к различным каналам связи, таким как телефонные линии или дисковые накопители.
применима теорема кодирования шумного канала К BSC p , утверждающая, что информация может передаваться на любой скорости, вплоть до пропускной способности канала, со сколь угодно малой ошибкой. Пропускная способность канала биты, где — двоичная функция энтропии . Коды, включая код Форни, были разработаны для эффективной передачи информации по каналу.
Двоичный симметричный канал воспринимает каждый бит сообщения, переданного правильно с вероятностью 1– p и неправильно с вероятностью p из-за шума в среде передачи.
Двоичный симметричный канал с вероятностью пересечения , обозначенный BSC p , представляет собой канал с двоичным входом и двоичным выходом и вероятностью ошибки. . То есть, если – передаваемая случайная величина и полученной переменной, то канал характеризуется условными вероятностями : [1]
Предполагается, что . Если , то приемник может поменять выходной сигнал (интерпретировать 1, когда он видит 0, и наоборот) и получить эквивалентный канал с вероятностью пересечения .
График, показывающий долю пропускной способности канала ( ось Y ), которая может быть использована для полезной нагрузки, в зависимости от уровня шума канала (вероятность переворота битов; ось X ).
The capacity is defined as the maximum mutual information between input and output for all possible input distributions :
The mutual information can be reformulated as
where the first and second step follows from the definition of mutual information and conditional entropy respectively. The entropy at the output for a given and fixed input symbol () equals the binary entropy function, which leads to the third line and this can be further simplified.
In the last line, only the first term depends on the input distribution . The entropy of a binary variable is at most 1 bit, and equality is attained if its probability distribution is uniform. It therefore suffices to exhibit an input distribution that yields a uniform probability distribution for the output . For this, note that it is a property of any binary symmetric channel that a uniform probability distribution of the input results in a uniform probability distribution of the output. Hence the value will be 1 when we choose a uniform distribution for . We conclude that the channel capacity for our binary symmetric channel is .
Теорема Шеннона о кодировании шумного канала дает результат о скорости передачи информации по каналу связи со сколь угодно малой ошибкой. Мы изучаем частный случай .
Шум это характеризует — случайная величина, состоящая из n независимых случайных битов (n определено ниже), где каждый случайный бит представляет собой с вероятностью и с вероятностью . Мы обозначаем это, написав « ".
Теорема — Для всех все , все достаточно большие (в зависимости от и ), и все , существует пара функций кодирования и декодирования и соответственно, так что каждое сообщение имеет следующее свойство:
.
На самом деле из этой теоремы следует, что сообщение, выбранное из , закодированный с помощью функции случайного кодирования и отправили через шумный , существует очень высокая вероятность восстановления исходного сообщения путем декодирования, если или, по сути, скорость канала ограничена величиной, указанной в теореме. Вероятность ошибки декодирования экспоненциально мала.
Теорему можно доказать непосредственно вероятностным методом . Рассмотрим функцию кодирования который выбирается случайно. Это означает, что для каждого сообщения , значение выбирается случайным образом (с равными вероятностями). Для данной функции кодирования , функция декодирования указывается следующим образом: учитывая любое полученное кодовое слово , мы находим сообщение такое, что расстояние Хэмминга как можно меньше (с произвольным разрывом связей). ( называется функцией декодирования максимального правдоподобия .)
Доказательство продолжается, показывая, что по крайней мере один такой выбор удовлетворяет заключению теоремы путем интегрирования по вероятностям. Предполагать и фиксированы. Сначала покажем, что для фиксированного и выбрано случайно, вероятность неудачи в течение шум экспоненциально мал по n . На этом этапе доказательство работает для фиксированного сообщения. . Далее мы расширим этот результат, чтобы он работал для всех сообщений. . Мы достигаем этого, исключая половину кодовых слов из кода, аргументируя это тем, что доказательство вероятности ошибки декодирования справедливо по крайней мере для половины кодовых слов. Последний метод называется очисткой. Это дает всему процессу название «случайное кодирование с удалением» .
Продолжение доказательства (набросок)
Fix and . Given a fixed message , we need to estimate the expected value of the probability of the received codeword along with the noise does not give back on decoding. That is to say, we need to estimate:
Let be the received codeword. In order for the decoded codeword not to be equal to the message , one of the following events must occur:
does not lie within the Hamming ball of radius centered at . This condition is mainly used to make the calculations easier.
There is another message such that . In other words, the errors due to noise take the transmitted codeword closer to another encoded message.
We can apply the Chernoff bound to ensure the non occurrence of the first event; we get:
This is exponentially small for large (recall that is fixed).
For the second event, we note that the probability that is where is the Hamming ball of radius centered at vector and is its volume. Using approximation to estimate the number of codewords in the Hamming ball, we have . Hence the above probability amounts to . Now using the union bound, we can upper bound the existence of such an by which is , as desired by the choice of .
Продолжение доказательства (подробное)
From the above analysis, we calculate the probability of the event that the decoded codeword plus the channel noise is not the same as the original message sent. We shall introduce some symbols here. Let denote the probability of receiving codeword given that codeword was sent. Let denote
We get the last inequality by our analysis using the Chernoff bound above. Now taking expectation on both sides we have,
by appropriately choosing the value of . Since the above bound holds for each message, we have
Now we can change the order of summation in the expectation with respect to the message and the choice of the encoding function . Hence:
Hence in conclusion, by probabilistic method, we have some encoding function and a corresponding decoding function such that
At this point, the proof works for a fixed message . But we need to make sure that the above bound holds for all the messages simultaneously. For that, let us sort the messages by their decoding error probabilities. Now by applying Markov's inequality, we can show the decoding error probability for the first messages to be at most . Thus in order to confirm that the above bound to hold for every message , we could just trim off the last messages from the sorted order. This essentially gives us another encoding function with a corresponding decoding function with a decoding error probability of at most with the same rate. Taking to be equal to we bound the decoding error probability to . This expurgation process completes the proof.
Обратная теорема о емкости по существу утверждает, что — это лучшая скорость, которую можно достичь по двоичному симметричному каналу. Формально теорема гласит:
Однако интуиция, лежащая в основе доказательства, показывает, что количество ошибок быстро растет по мере того, как скорость выходит за пределы пропускной способности канала. Идея заключается в том, что отправитель генерирует сообщения размером , в то время как канал вносит ошибки передачи. Когда пропускная способность канала , количество ошибок обычно для кода длиной блока . Максимальное количество сообщений . Выход канала, с другой стороны, имеет возможные значения. Если между любыми двумя сообщениями есть какая-либо путаница, вполне вероятно, что . Следовательно, мы имели бы , случая, которого нам хотелось бы избежать, чтобы вероятность ошибки декодирования была экспоненциально малой.
Совсем недавно была проделана и ведется большая работа по разработке явных кодов, исправляющих ошибки, для достижения возможностей нескольких стандартных каналов связи. Смысл разработки таких кодов заключается в том, чтобы связать скорость кода с долей ошибок, которые он может исправить.
Подход к разработке кодов, соответствующих пропускной способности каналов или канал двоичного стирания Целью было исправить меньшее количество ошибок с высокой вероятностью и достичь максимально возможной скорости. Теорема Шеннона дает нам наилучшую скорость, которую можно достичь за , но это не дает нам представления о каких-либо явных кодах, которые достигают такой скорости. Фактически такие коды обычно создаются для исправления лишь небольшой части ошибок с высокой вероятностью, но при этом достигают очень хорошей скорости. Первый такой код был создан Джорджем Д. Форни в 1966 году. Этот код представляет собой составной код, образованный путем объединения двух разных типов кодов.
Форни построил составной код. для достижения пропускной способности теоремы кодирования шумного канала для . В его коде
Внешний код это код длины блока и оцените над полем , и . Кроме того, у нас есть декодирования алгоритм для который может исправить до доля ошибок в худшем случае и выполняется в время.
Внутренний код это код длины блока , измерение , и скорость . Кроме того, у нас есть алгоритм декодирования для с вероятностью ошибки декодирования не более над и вбегает время.
Для внешнего кода , код Рида-Соломона был первым кодом, который пришел на ум. Однако мы увидим, что построение такого кода не может быть выполнено за полиномиальное время. Вот почему двоичный линейный код используется для .
Для внутреннего кода мы находим линейный код путем исчерпывающего поиска по линейному коду длины блока и размер , скорость которого соответствует мощности , по теореме кодирования канала с шумом.
Ставка что почти соответствует емкость. Далее отметим, что кодирование и декодирование можно сделать за полиномиальное время относительно . По сути, кодировка требует времени . Кроме того, описанный алгоритм декодирования требует времени пока ; и .
Обратите внимание, что каждый блок кода для считается символом . Теперь, поскольку вероятность ошибки по любому индексу для самое большее и ошибки в независимы, ожидаемое количество ошибок для самое большее по линейности ожидания. Теперь, применяя оценку Чернова , мы имеем ограниченную вероятность ошибки более чем возникающие ошибки . Поскольку внешний код максимум могу исправить ошибок, это декодирования вероятность ошибки . Если это выразить в асимптотических терминах, это дает нам вероятность ошибки . Таким образом, достигнутая вероятность ошибки декодирования экспоненциально мало, как и теорема о кодировании канала с шумом.
Мы дали общую методику построения . Более подробные описания на и пожалуйста, прочитайте следующие ссылки. Недавно было также разработано несколько других кодов для достижения этих возможностей. LDPC из-за их более быстрого времени декодирования. Для этой цели были рассмотрены коды [4]
Двоичный симметричный канал может моделировать диск, используемый для хранения данных: вход канала представляет собой бит, записываемый на диск, а выход соответствует биту, который позже будет прочитан. Ошибка может возникнуть из-за перемагничивания, фонового шума или ошибки пишущей головки. Другие объекты, которые может моделировать бинарный симметричный канал, включают телефонную или радиолинию связи или деление клеток , из которых дочерние клетки содержат ДНК из своей родительской клетки. информацию [5]
Этот канал часто используется теоретиками, поскольку это один из самых простых с шумом для анализа каналов . Многие проблемы теории коммуникации можно свести к BSC. И наоборот, возможность эффективной передачи по BSC может привести к появлению решений для более сложных каналов.
Arc.Ask3.Ru Номер скриншота №: 7192bdba814a566da3c73371261ad19c__1705580580 URL1:https://arc.ask3.ru/arc/aa/71/9c/7192bdba814a566da3c73371261ad19c.html Заголовок, (Title) документа по адресу, URL1: Binary symmetric channel - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)