Jump to content

Условная взаимная информация

Диаграмма Венна теоретико-информационных мер для трех переменных , , и , представленный нижним левым, нижним правым и верхним кружками соответственно. Условная взаимная информация , и представлены желтыми, голубыми и пурпурными областями соответственно.

В теории вероятностей , особенно в теории информации , условная взаимная информация [1] [2] в своей самой простой форме — это ожидаемое значение взаимной информации двух случайных величин с учетом значения третьей.

Определение [ править ]

Для случайных величин , , и с наборами поддержки , и , мы определяем условную взаимную информацию как

Это можно записать с помощью оператора ожидания: .

Таким образом ожидаемое (по отношению к ) Расхождение Кульбака – Лейблера от условного совместного распределения к произведению условных маргиналов и . Сравните с определением взаимной информации .

С точки зрения PMF дискретных для распределений

Для дискретных случайных величин , , и с наборами поддержки , и , условная взаимная информация заключается в следующем

где маргинальные, совместные и/или условные массовые функции вероятности обозначаются через с соответствующим индексом. Это можно упростить как

Что касается PDF-файлов для непрерывного распространения [ править ]

Для (абсолютно) непрерывных случайных величин , , и с наборами поддержки , и , условная взаимная информация заключается в следующем

где маргинальные, совместные и/или условные функции плотности вероятности обозначаются через с соответствующим индексом. Это можно упростить как

Некоторые личности [ править ]

В качестве альтернативы мы можем написать в терминах совместной и условной энтропии как [3]

Это можно переписать, чтобы показать его связь с взаимной информацией.

обычно преобразуется в правило цепочки для взаимной информации

или

Другая эквивалентная форма вышеизложенного:

Другой эквивалентной формой условной взаимной информации является

Как и взаимная информация, условная взаимная информация может быть выражена как расхождение Кульбака – Лейблера :

Или как ожидаемое значение более простых расхождений Кульбака – Лейблера:

,
.

Более общее определение [ править ]

Более общее определение условной взаимной информации, применимое к случайным величинам с непрерывным или другим произвольным распределением, будет зависеть от концепции регулярной условной вероятности . [4]

Позволять вероятностное пространство , и пусть случайные величины , , и каждая определяется как измеримая по Борелю функция из к некоторому пространству состояний, наделенному топологической структурой.

Рассмотрим борелевскую меру (на σ-алгебре, порожденной открытыми множествами) в пространстве состояний каждой случайной величины, определенной путем присвоения каждому борелевскому множеству -мера его прообраза в . Это называется мерой продвижения Носителем случайной величины называется топологический носитель этой меры, т.е.

Теперь мы можем формально определить меру условной вероятности, учитывая значение одной (или, через топологию произведения , более) случайных величин. Позволять быть измеримым подмножеством (т.е. ) и пусть Тогда, используя теорему распада :

где предел берется по открытым окрестностям из , поскольку им разрешено становиться сколь угодно меньшими по отношению к включению множества .

Наконец, мы можем определить условную взаимную информацию посредством интегрирования Лебега :

где подынтегральная функция представляет собой логарифм производной Радона–Никодима, включающей некоторые из только что определенных нами условных вероятностных мер.

Примечание по обозначениям [ править ]

В таком выражении, как и не обязательно ограничивается представлением отдельных случайных величин, но может также представлять совместное распределение любого набора случайных величин, определенных в одном и том же вероятностном пространстве . Как это принято в теории вероятностей , мы можем использовать запятую для обозначения такого совместного распределения, например Отсюда использование точки с запятой (иногда двоеточия или даже клина). ) для разделения основных аргументов символа взаимной информации. (В символе совместной энтропии такое различие не требуется , поскольку совместная энтропия любого количества случайных величин равна энтропии их совместного распределения.)

Свойства [ править ]

Неотрицательность [ править ]

Это всегда правда, что

,

для дискретных, совместно распределенных случайных величин , и . Этот результат был использован в качестве основного строительного блока для доказательства других неравенств в теории информации , в частности, известных как неравенства типа Шеннона. Условная взаимная информация также неотрицательна для непрерывных случайных величин при определенных условиях регулярности. [5]

Информация о взаимодействии [ править ]

Обуславливание третьей случайной величиной может либо увеличить, либо уменьшить взаимную информацию: то есть разница , называемая информацией о взаимодействии , может быть положительной, отрицательной или нулевой. Это происходит даже тогда, когда случайные величины попарно независимы. Так обстоит дело, когда:

в этом случае , и попарно независимы и, в частности, , но

Цепное правило для взаимной информации [ править ]

Цепное правило (выведенное выше) предоставляет два способа разложения :

Неравенство обработки данных тесно связано с условной взаимной информацией и может быть доказано с помощью правила цепочки.

Информация о взаимодействии [ править ]

Условная взаимная информация используется для индуктивного определения информации взаимодействия , обобщения взаимной информации, следующим образом:

где

Поскольку условная взаимная информация может быть больше или меньше, чем ее безусловный аналог, информация о взаимодействии может быть положительной, отрицательной или нулевой, что затрудняет ее интерпретацию.

Ссылки [ править ]

  1. ^ Винер, AD (1978). «Определение условной взаимной информации для произвольных ансамблей» . Информация и контроль . 38 (1): 51–59. дои : 10.1016/s0019-9958(78)90026-8 .
  2. ^ Добрушин Р.Л. (1959). «Общая формулировка основной теоремы Шеннона в теории информации». Успехи мат. Наук . 14 :3–104.
  3. ^ Кавер, Томас ; Томас, Джой А. (2006). Элементы теории информации (2-е изд.). Нью-Йорк: Wiley-Interscience . ISBN  0-471-24195-4 .
  4. ^ Д. Леао-младший и др. Регулярная условная вероятность, распад вероятностей и пространства Радона. Прогнозы. Том 23, № 1, с. 15–29 мая 2004 г., Католический университет дель Норте, Антофагаста, Чили PDF
  5. ^ Полянский, Юрий; Ву, Ихонг (2017). Конспекты лекций по теории информации (PDF) . п. 30.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 0c6b80363a2edff0d4da77e506a8d642__1689826980
URL1:https://arc.ask3.ru/arc/aa/0c/42/0c6b80363a2edff0d4da77e506a8d642.html
Заголовок, (Title) документа по адресу, URL1:
Conditional mutual information - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)