~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 2E16AF02AA17BB19AF1638A9923A7E50__1634799000 ✰
Заголовок документа оригинал.:
✰ Joint entropy - Wikipedia ✰
Заголовок документа перевод.:
✰ Совместная энтропия — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Joint_entropy ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/2e/50/2e16af02aa17bb19af1638a9923a7e50.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/2e/50/2e16af02aa17bb19af1638a9923a7e50__translat.html ✰
Дата и время сохранения документа:
✰ 18.06.2024 16:55:04 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 21 October 2021, at 09:50 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Совместная энтропия — Википедия Jump to content

Совместная энтропия

Из Википедии, бесплатной энциклопедии
Вводящий в заблуждение [1] Диаграмма Венна, показывающая аддитивные и субтрактивные отношения между различными информационными мерами , связанными с коррелирующими переменными X и Y. Область, содержащаяся в обоих кругах, представляет собой совместную энтропию H (X, Y). Круг слева (красный и фиолетовый) — это индивидуальная энтропия H(X), а красный — условная энтропия H(X|Y). Круг справа (синий и фиолетовый) — это H(Y), синий — H(Y|X). Фиолетовый — это взаимная информация I(X;Y).

В теории информации совместная энтропия является мерой неопределенности, связанной с набором переменных . [2]

Определение [ править ]

Совместная энтропия Шеннона битах ) двух дискретных случайных величин и с изображениями и определяется как [3] : 16 

( Уравнение 1 )

где и представляют собой особые ценности и , соответственно, - совместная вероятность того, что эти значения встречаются вместе, и определяется как 0, если .

Для более чем двух случайных величин это распространяется на

( Уравнение 2 )

где представляют собой особые ценности , соответственно, - вероятность того, что эти значения встречаются вместе, и определяется как 0, если .

Свойства [ править ]

Неотрицательность [ править ]

Совместная энтропия набора случайных величин является неотрицательным числом.

чем индивидуальная энтропия Больше ,

Совместная энтропия набора переменных больше или равна максимуму всех отдельных энтропий переменных в наборе.

сумме энтропий Меньше или равно отдельных

Совместная энтропия набора переменных меньше или равна сумме отдельных энтропий переменных в наборе. Это пример субаддитивности . Это неравенство является равенством тогда и только тогда, когда и независимы статистически . [3] : 30 

с другими энтропии Связь мерами

Совместная энтропия используется в определении условной энтропии. [3] : 22 

,

и

Он также используется в определении взаимной информации. [3] : 21 

В квантовой теории информации совместная энтропия обобщается в совместную квантовую энтропию .

дифференциальная энтропия Совместная

Определение [ править ]

Приведенное выше определение относится к дискретным случайным величинам и так же справедливо и в случае непрерывных случайных величин. Непрерывная версия дискретной совместной энтропии называется совместной дифференциальной (или непрерывной) энтропией . Позволять и быть непрерывными случайными величинами с совместной функцией плотности вероятности . Дифференциальная совместная энтропия определяется как [3] : 249 

( Уравнение 3 )

Для более чем двух непрерывных случайных величин определение обобщается до:

( Уравнение 4 )

Интеграл носителю берется по . Возможно, что интеграл не существует, и в этом случае мы говорим, что дифференциальная энтропия не определена.

Свойства [ править ]

Как и в дискретном случае, совместная дифференциальная энтропия набора случайных величин меньше или равна сумме энтропий отдельных случайных величин:

[3] : 253 

Следующее цепное правило справедливо для двух случайных величин:

В случае более чем двух случайных величин это обобщается следующим образом: [3] : 253 

Совместная дифференциальная энтропия также используется при определении взаимной информации между непрерывными случайными величинами:

Ссылки [ править ]

  1. ^ DJC Маккей (2003). Теория информации, выводы и алгоритмы обучения . Бибкод : 2003itil.book.....М . : 141 
  2. ^ Тереза ​​М. Корн ; Корн, Гранино Артур (январь 2000 г.). Математический справочник для ученых и инженеров: определения, теоремы и формулы для справки и обзора . Нью-Йорк: Dover Publications. ISBN  0-486-41147-8 .
  3. ^ Перейти обратно: а б с д Это ж г Томас М. Кавер; Джой А. Томас (18 июля 2006 г.). Элементы теории информации . Хобокен, Нью-Джерси: Уайли. ISBN  0-471-24195-4 .
Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 2E16AF02AA17BB19AF1638A9923A7E50__1634799000
URL1:https://en.wikipedia.org/wiki/Joint_entropy
Заголовок, (Title) документа по адресу, URL1:
Joint entropy - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)