Jump to content

Условная энтропия

Диаграмма Венна, показывающая аддитивные и вычитающие отношения, различные информационные меры , связанные с коррелирующими переменными. и . Площадь, содержащаяся в обоих кругах, представляет собой совместную энтропию. . Круг слева (красный и фиолетовый) — это индивидуальная энтропия. , где красный цвет — условная энтропия . Круг справа (синий и фиолетовый) , с синим существом . Фиолетовый – это взаимная информация .

В теории информации условная энтропия количественно определяет количество информации, необходимой для описания результата случайной величины. учитывая, что значение другой случайной величины известно. Здесь информация измеряется в шеннонах , натсах или хартли . Энтропия обусловлено написано как .

Определение

[ редактировать ]

Условная энтропия данный определяется как

( Уравнение 1 )

где и обозначаем опорные множества и .

Примечание. Здесь принято соглашение о том, что выражение следует считать равным нулю. Это потому, что . [1]

Интуитивно заметим, что по определению значения и условной вероятности ожидаемого можно записать как , где определяется как . Можно подумать о как связывание каждой пары с величиной, измеряющей информационное содержание данный . Это количество напрямую связано с объемом информации, необходимой для описания события. данный . Следовательно, вычислив ожидаемое значение по всем парам значений , условная энтропия измеряет, сколько информации в среднем содержит переменная кодирует около .

Мотивация

[ редактировать ]

Позволять быть энтропией дискретной случайной величины обусловленное дискретной случайной величиной принимая определенное значение . Обозначим опорные множества и к и . Позволять иметь функцию массы вероятности . Безусловная энтропия рассчитывается как , то есть

где это информативность результатов принимая значение . Энтропия обусловлено принимая значение определяется аналогично условным ожиданием :

Обратите внимание, что это результат усреднения по всем возможным значениям что может возьму. Кроме того, если вышеуказанная сумма взята за выборку , ожидаемое значение известен в некоторых областях как двусмысленность . [2]

Даны дискретные случайные величины с изображением и с изображением , условная энтропия данный определяется как взвешенная сумма для каждого возможного значения , с использованием как веса: [3] : 15 

Характеристики

[ редактировать ]

Условная энтропия равна нулю

[ редактировать ]

тогда и только тогда, когда значение полностью определяется стоимостью .

Условная энтропия независимых случайных величин

[ редактировать ]

Наоборот, тогда и только тогда, когда и являются независимыми случайными величинами .

Правило цепочки

[ редактировать ]

Предположим, что объединенная система, определяемая двумя случайными величинами и имеет совместную энтропию , то есть нам нужно бит информации в среднем для описания его точного состояния. Теперь, если мы сначала узнаем ценность , мы получили биты информации. Один раз известно, нам нужно только биты для описания состояния всей системы. Это количество точно , что дает цепное правило условной энтропии:

[3] : 17 

Цепное правило следует из приведенного выше определения условной энтропии:

В общем случае действует цепное правило для нескольких случайных величин:

[3] : 22 

Оно имеет форму, аналогичную цепному правилу в теории вероятностей, за исключением того, что вместо умножения используется сложение.

Правило Байеса

[ редактировать ]

Правило Байеса для состояний условной энтропии

Доказательство. и . Симметрия влечет за собой . Вычитание двух уравнений подразумевает правило Байеса.

Если зависит условно не от данный у нас есть:

Другие объекты недвижимости

[ редактировать ]

Для любого и :

где это взаимная информация между и .

Для независимых и :

и

Хотя конкретно-условная энтропия может быть как меньше, так и больше, чем для данной случайной величины из , никогда не может превысить .

Условная дифференциальная энтропия

[ редактировать ]

Определение

[ редактировать ]

Приведенное выше определение относится к дискретным случайным величинам. Непрерывная версия дискретной условной энтропии называется условной дифференциальной (или непрерывной) энтропией . Позволять и быть непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная условная энтропия определяется как [3] : 249 

( Уравнение 2 )

Характеристики

[ редактировать ]

В отличие от условной энтропии для дискретных случайных величин, условная дифференциальная энтропия может быть отрицательной.

Как и в дискретном случае, существует цепное правило для дифференциальной энтропии:

[3] : 253 

Однако обратите внимание, что это правило может быть неверным, если задействованная дифференциальная энтропия не существует или бесконечна.

Совместная дифференциальная энтропия также используется при определении взаимной информации между непрерывными случайными величинами:

с равенством тогда и только тогда, когда и независимы. [3] : 253 

Связь с ошибкой оценщика

[ редактировать ]

Условная дифференциальная энтропия дает нижнюю границу ожидаемой квадратичной ошибки оценщика . Для любой случайной величины , наблюдение и оценщик имеет место следующее: [3] : 255 

Это связано с принципом неопределенности из квантовой механики .

Обобщение на квантовую теорию

[ редактировать ]

В квантовой теории информации условная энтропия обобщается до условной квантовой энтропии . Последний может принимать отрицательные значения, в отличие от своего классического аналога.

См. также

[ редактировать ]
  1. ^ «Дэвид Маккей: Теория информации, распознавание образов и нейронные сети: Книга» . www.inference.org.uk . Проверено 25 октября 2019 г.
  2. ^ Хеллман, М.; Равив, Дж. (1970). «Вероятность ошибки, двусмысленность и граница Чернова». Транзакции IEEE по теории информации . 16 (4): 368–372. CiteSeerX   10.1.1.131.2865 . дои : 10.1109/TIT.1970.1054466 .
  3. ^ Jump up to: а б с д и ж г Т. Обложка ; Дж. Томас (1991). Элементы теории информации . Уайли. ISBN  0-471-06259-6 .
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: c47fe4470078fca954e4138133f514fd__1720733940
URL1:https://arc.ask3.ru/arc/aa/c4/fd/c47fe4470078fca954e4138133f514fd.html
Заголовок, (Title) документа по адресу, URL1:
Conditional entropy - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)