Условная взаимная информация
Теория информации |
---|
![]() |

В теории вероятностей , особенно в теории информации , условная взаимная информация [1] [2] в своей самой простой форме — это ожидаемое значение взаимной информации двух случайных величин с учетом значения третьей.
Определение [ править ]
Для случайных величин , , и с наборами поддержки , и , мы определяем условную взаимную информацию как
Это можно записать с помощью оператора ожидания: .
Таким образом ожидаемое (по отношению к ) Расхождение Кульбака – Лейблера от условного совместного распределения к произведению условных маргиналов и . Сравните с определением взаимной информации .
С точки зрения PMF дискретных для распределений
Для дискретных случайных величин , , и с наборами поддержки , и , условная взаимная информация заключается в следующем
где маргинальные, совместные и/или условные массовые функции вероятности обозначаются через с соответствующим индексом. Это можно упростить как
Что касается PDF-файлов для непрерывного распространения [ править ]
Для (абсолютно) непрерывных случайных величин , , и с наборами поддержки , и , условная взаимная информация заключается в следующем
где маргинальные, совместные и/или условные функции плотности вероятности обозначаются через с соответствующим индексом. Это можно упростить как
Некоторые личности [ править ]
В качестве альтернативы мы можем написать в терминах совместной и условной энтропии как [3]
Это можно переписать, чтобы показать его связь с взаимной информацией.
обычно преобразуется в правило цепочки для взаимной информации
или
Другая эквивалентная форма вышеизложенного:
Другой эквивалентной формой условной взаимной информации является
Как и взаимная информация, условная взаимная информация может быть выражена как расхождение Кульбака – Лейблера :
Или как ожидаемое значение более простых расхождений Кульбака – Лейблера:
- ,
- .
Более общее определение [ править ]
Более общее определение условной взаимной информации, применимое к случайным величинам с непрерывным или другим произвольным распределением, будет зависеть от концепции регулярной условной вероятности . [4]
Позволять — вероятностное пространство , и пусть случайные величины , , и каждая определяется как измеримая по Борелю функция из к некоторому пространству состояний, наделенному топологической структурой.
Рассмотрим борелевскую меру (на σ-алгебре, порожденной открытыми множествами) в пространстве состояний каждой случайной величины, определенной путем присвоения каждому борелевскому множеству -мера его прообраза в . Это называется мерой продвижения Носителем случайной величины называется топологический носитель этой меры, т.е.
Теперь мы можем формально определить меру условной вероятности, учитывая значение одной (или, через топологию произведения , более) случайных величин. Позволять быть измеримым подмножеством (т.е. ) и пусть Тогда, используя теорему распада :
где предел берется по открытым окрестностям из , поскольку им разрешено становиться сколь угодно меньшими по отношению к включению множества .
Наконец, мы можем определить условную взаимную информацию посредством интегрирования Лебега :
где подынтегральная функция представляет собой логарифм производной Радона–Никодима, включающей некоторые из только что определенных нами условных вероятностных мер.
Примечание по обозначениям [ править ]
В таком выражении, как и не обязательно ограничивается представлением отдельных случайных величин, но может также представлять совместное распределение любого набора случайных величин, определенных в одном и том же вероятностном пространстве . Как это принято в теории вероятностей , мы можем использовать запятую для обозначения такого совместного распределения, например Отсюда использование точки с запятой (иногда двоеточия или даже клина). ) для разделения основных аргументов символа взаимной информации. (В символе совместной энтропии такое различие не требуется , поскольку совместная энтропия любого количества случайных величин равна энтропии их совместного распределения.)
Свойства [ править ]
Неотрицательность [ править ]
Это всегда правда, что
- ,
для дискретных, совместно распределенных случайных величин , и . Этот результат был использован в качестве основного строительного блока для доказательства других неравенств в теории информации , в частности, известных как неравенства типа Шеннона. Условная взаимная информация также неотрицательна для непрерывных случайных величин при определенных условиях регулярности. [5]
Информация о взаимодействии [ править ]
Обуславливание третьей случайной величиной может либо увеличить, либо уменьшить взаимную информацию: то есть разница , называемая информацией о взаимодействии , может быть положительной, отрицательной или нулевой. Это происходит даже тогда, когда случайные величины попарно независимы. Так обстоит дело, когда:
Цепное правило для взаимной информации [ править ]
Цепное правило (выведенное выше) предоставляет два способа разложения :
Неравенство обработки данных тесно связано с условной взаимной информацией и может быть доказано с помощью правила цепочки.
Информация о взаимодействии [ править ]
Условная взаимная информация используется для индуктивного определения информации взаимодействия , обобщения взаимной информации, следующим образом:
где
Поскольку условная взаимная информация может быть больше или меньше, чем ее безусловный аналог, информация о взаимодействии может быть положительной, отрицательной или нулевой, что затрудняет ее интерпретацию.
Ссылки [ править ]
- ^ Винер, AD (1978). «Определение условной взаимной информации для произвольных ансамблей» . Информация и контроль . 38 (1): 51–59. дои : 10.1016/s0019-9958(78)90026-8 .
- ^ Добрушин Р.Л. (1959). «Общая формулировка основной теоремы Шеннона в теории информации». Успехи мат. Наук . 14 :3–104.
- ^ Кавер, Томас ; Томас, Джой А. (2006). Элементы теории информации (2-е изд.). Нью-Йорк: Wiley-Interscience . ISBN 0-471-24195-4 .
- ^ Д. Леао-младший и др. Регулярная условная вероятность, распад вероятностей и пространства Радона. Прогнозы. Том 23, № 1, с. 15–29 мая 2004 г., Католический университет дель Норте, Антофагаста, Чили PDF
- ^ Полянский, Юрий; Ву, Ихонг (2017). Конспекты лекций по теории информации (PDF) . п. 30.