В теории информации условная энтропия количественно определяет количество информации, необходимой для описания результата случайной величины. учитывая, что значение другой случайной величины известно. Здесь информация измеряется в шеннонах , натсах или хартли . Энтропия обусловлено написано как .
Примечание. Здесь принято соглашение о том, что выражение следует считать равным нулю. Это потому, что . [1]
Интуитивно заметим, что по определению значения и условной вероятности ожидаемого можно записать как , где определяется как . Можно подумать о как связывание каждой пары с величиной, измеряющей информационное содержание данный . Это количество напрямую связано с объемом информации, необходимой для описания события. данный . Следовательно, вычислив ожидаемое значение по всем парам значений , условная энтропия измеряет, сколько информации в среднем содержит переменная кодирует около .
Позволять быть энтропией дискретной случайной величины обусловленное дискретной случайной величиной принимая определенное значение . Обозначим опорные множества и к и . Позволять иметь функцию массы вероятности . Безусловная энтропия рассчитывается как , то есть
Обратите внимание, что это результат усреднения по всем возможным значениям что может возьму. Кроме того, если вышеуказанная сумма взята за выборку , ожидаемое значение известен в некоторых областях как двусмысленность . [2]
Даны дискретные случайные величины с изображением и с изображением , условная энтропия данный определяется как взвешенная сумма для каждого возможного значения , с использованием как веса: [3] : 15
Предположим, что объединенная система, определяемая двумя случайными величинами и имеет совместную энтропию , то есть нам нужно бит информации в среднем для описания его точного состояния. Теперь, если мы сначала узнаем ценность , мы получили биты информации. Один раз известно, нам нужно только биты для описания состояния всей системы. Это количество точно , что дает цепное правило условной энтропии:
Приведенное выше определение относится к дискретным случайным величинам. Непрерывная версия дискретной условной энтропии называется условной дифференциальной (или непрерывной) энтропией . Позволять и быть непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная условная энтропия определяется как [3] : 249
Условная дифференциальная энтропия дает нижнюю границу ожидаемой квадратичной ошибки оценщика . Для любой случайной величины , наблюдение и оценщик имеет место следующее: [3] : 255
Arc.Ask3.Ru Номер скриншота №: c47fe4470078fca954e4138133f514fd__1720733940 URL1:https://arc.ask3.ru/arc/aa/c4/fd/c47fe4470078fca954e4138133f514fd.html Заголовок, (Title) документа по адресу, URL1: Conditional entropy - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)