Совместная энтропия
Теория информации |
---|
![]() |

В теории информации совместная энтропия является мерой неопределенности, связанной с набором переменных . [2]
Определение [ править ]
Совместная энтропия Шеннона (в битах ) двух дискретных случайных величин и с изображениями и определяется как [3] : 16
( Уравнение 1 ) |
где и представляют собой особые ценности и , соответственно, - совместная вероятность того, что эти значения встречаются вместе, и определяется как 0, если .
Для более чем двух случайных величин это распространяется на
( Уравнение 2 ) |
где представляют собой особые ценности , соответственно, - вероятность того, что эти значения встречаются вместе, и определяется как 0, если .
Свойства [ править ]
Неотрицательность [ править ]
Совместная энтропия набора случайных величин является неотрицательным числом.
Больше, индивидуальная чем энтропия
Совместная энтропия набора переменных больше или равна максимуму всех отдельных энтропий переменных в наборе.
Меньше или равно сумме отдельных энтропий [ править ]
Совместная энтропия набора переменных меньше или равна сумме отдельных энтропий переменных в наборе. Это пример субаддитивности . Это неравенство является равенством тогда и только тогда, когда и независимы статистически . [3] : 30
с другими энтропии Связь мерами
Совместная энтропия используется в определении условной энтропии. [3] : 22
- ,
и
В квантовой теории информации совместная энтропия обобщается в совместную квантовую энтропию .
Совместная дифференциальная энтропия
Определение [ править ]
Приведенное выше определение относится к дискретным случайным величинам и так же справедливо и в случае непрерывных случайных величин. Непрерывная версия дискретной совместной энтропии называется совместной дифференциальной (или непрерывной) энтропией . Позволять и быть непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная совместная энтропия определяется как [3] : 249
( Уравнение 3 ) |
Для более чем двух непрерывных случайных величин определение обобщается до:
( Уравнение 4 ) |
Интеграл берется по носителю . Возможно, что интеграл не существует, и в этом случае мы говорим, что дифференциальная энтропия не определена.
Свойства [ править ]
Как и в дискретном случае, совместная дифференциальная энтропия набора случайных величин меньше или равна сумме энтропий отдельных случайных величин:
- [3] : 253
Следующее цепное правило справедливо для двух случайных величин:
В случае более чем двух случайных величин это обобщается следующим образом: [3] : 253
Совместная дифференциальная энтропия также используется при определении взаимной информации между непрерывными случайными величинами:
Ссылки [ править ]
- ^ DJC Маккей (2003). Теория информации, выводы и алгоритмы обучения . Бибкод : 2003itil.book.....М . : 141
- ^ Тереза М. Корн ; Корн, Гранино Артур (январь 2000 г.). Математический справочник для ученых и инженеров: определения, теоремы и формулы для справки и обзора . Нью-Йорк: Dover Publications. ISBN 0-486-41147-8 .
- ^ Jump up to: а б с д и ж г Томас М. Кавер; Джой А. Томас (18 июля 2006 г.). Элементы теории информации . Хобокен, Нью-Джерси: Уайли. ISBN 0-471-24195-4 .