Неравенство Гиббса
В теории информации неравенство Гиббса — это утверждение об информационной энтропии дискретного распределения вероятностей . Несколько других оценок энтропии вероятностных распределений выводятся из неравенства Гиббса, включая неравенство Фано .Впервые он был представлен Дж. Уиллардом Гиббсом в 19 веке.
Неравенство Гиббса
[ редактировать ]Предположим, что и являются дискретными распределениями вероятностей . Затем
с равенством тогда и только тогда, когда для . [1] : 68 Проще говоря, информационная энтропия распределения меньше или равна его перекрестной энтропии с любым другим распределением .
Разница между этими двумя величинами представляет собой дивергенцию Кульбака – Лейблера или относительную энтропию, поэтому неравенство также можно записать: [2] : 34
Обратите внимание, что использование логарифмов по основанию 2 не является обязательным, и позволяет называть величины, стоящие в каждой части неравенства, «средний сюрприз » измеряется в битах .
Доказательство
[ редактировать ]Для простоты докажем утверждение, используя натуральный логарифм, обозначаемый ln , поскольку
поэтому конкретное основание логарифма b > 1 , которое мы выбираем, масштабирует соотношение только на коэффициент 1/ln b .
Позволять обозначаем множество всех для которого p i не равно нулю. Тогда, поскольку для всех x > 0 с равенством тогда и только тогда, когда x=1 , мы имеем:
Последнее неравенство является следствием того, что p i и q i являются частью распределения вероятностей. В частности, сумма всех ненулевых значений равна 1. Однако некоторые ненулевые значения q i могут быть исключены, поскольку выбор индексов обусловлен тем, что не pi равно нулю. Следовательно, сумма q i может быть меньше 1.
До сих пор по набору индексов , у нас есть:
- ,
или эквивалентно
- .
Обе суммы можно распространить на все , то есть в том числе , напомнив, что выражение стремится к 0, так как стремится к 0, а имеет тенденцию как стремится к 0. Приходим к
Для того чтобы равенство имело место, нам потребуется
- для всех так что равенство держит,
- и что означает если , то есть, если .
Это может произойти тогда и только тогда, когда для .
Альтернативные доказательства
[ редактировать ]Альтернативно результат можно доказать, используя неравенство Йенсена , неравенство логарифмической суммы или тот факт, что расхождение Кульбака-Лейблера является формой расхождения Брегмана .
Доказательство с помощью неравенства Йенсена.
[ редактировать ]Поскольку log — вогнутая функция, у нас есть следующее:
При этом первое неравенство обусловлено неравенством Йенсена, а последнее равенство обусловлено той же причиной, что и в приведенном выше доказательстве.
Кроме того, поскольку строго вогнута, то по условию равенства неравенства Йенсена мы получаем равенство, когда
и
Предположим, что это соотношение , тогда у нас есть это
Где мы используем тот факт, что являются вероятностными распределениями. Следовательно, равенство имеет место, когда .
Доказательство с помощью дивергенции Брегмана.
[ редактировать ]Альтернативно это можно доказать, заметив, что для всех , с соблюдением равенства iff . Затем, суммируя по состояниям, мы имеем с равенством, если и только если .
Это связано с тем, что КЛ-дивергенция — это дивергенция Брегмана , порожденная функцией .
Следствие
[ редактировать ]Энтропия ограничено: [1] : 68
Доказательство тривиально – просто положить для всех я .
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Jump up to: а б Пьер Бремо (6 декабря 2012 г.). Введение в вероятностное моделирование . Springer Science & Business Media. ISBN 978-1-4612-1046-7 .
- ^ Дэвид Дж. К. Маккей (25 сентября 2003 г.). Теория информации, логический вывод и алгоритмы обучения . Издательство Кембриджского университета. ISBN 978-0-521-64298-9 .