Предельная плотность дискретных точек
Теория информации |
---|
![]() |
В теории информации предельная плотность дискретных точек является корректировкой формулы Клода Шеннона для дифференциальной энтропии .
Он был сформулирован Эдвином Томпсоном Джейнсом для устранения дефектов первоначального определения дифференциальной энтропии.
Определение [ править ]
Первоначально Шеннон записал следующую формулу для энтропии непрерывного распределения, известную как дифференциальная энтропия :
Однако, в отличие от формулы Шеннона для дискретной энтропии, она не является результатом какого-либо вывода (Шеннон просто заменил символ суммирования в дискретной версии интегралом), и в ней отсутствуют многие свойства, которые делают дискретную энтропию полезной мерой неопределенность. В частности, оно не инвариантно при замене переменных и может стать отрицательным. Кроме того, это даже не правильно по размеру. С будет безразмерным, должны иметь единицы , что означает, что аргумент логарифма не является безразмерным, как требуется.
Джейнс утверждал, что формулу непрерывной энтропии следует вывести, взяв предел все более плотных дискретных распределений. [1] [2] Предположим, что у нас есть набор дискретные точки , такой, что в пределе их плотность приближается к функции называется «инвариантной мерой»:
Джейнс вывел из этого следующую формулу для непрерывной энтропии, которую, как он утверждал, следует считать правильной формулой:
Обычно, когда это пишут, термин опускается, поскольку обычно оно не является конечным. Таким образом, фактическое общее определение таково:
В тех случаях, когда неясно, является ли термин следует опустить, можно было бы написать
Обратите внимание, что в формуле Джейнса – плотность вероятности. Для любого конечного что [ нужны дальнейшие объяснения ] — это равномерная плотность при квантовании непрерывного пространства, которая используется в сумме Римана. В пределе, - это непрерывная предельная плотность точек при квантовании, используемая для представления непрерывной переменной .
Предположим, у вас есть числовой формат, который принял возможные значения, распределенные согласно . Затем (если достаточно велика, чтобы можно было использовать непрерывное приближение) — это дискретная энтропия переменной в этой кодировке. Это равно среднему количеству бит, необходимых для передачи этой информации, и составляет не более . Поэтому, можно рассматривать как количество информации, полученной благодаря знанию того, что переменная следует за распределением , и не распределяется равномерно по возможным квантованным значениям, как это было бы в случае, если бы это следовало . на самом деле это (отрицательное) расхождение Кульбака – Лейблера от к , которая считается информацией, полученной в результате изучения того, что переменная, ранее считавшаяся распределенной как фактически распределяется как .
Формула непрерывной энтропии Джейнса обладает свойством инвариантности относительно замены переменных при условии, что и преобразуются таким же образом. (Это объясняет название «инвариантная мера» для m .) Это решает многие трудности, возникающие при применении формулы непрерывной энтропии Шеннона. Сам Джейнс уронил термин, поскольку он не имел отношения к его работе (распределения максимальной энтропии), и несколько неудобно иметь в расчетах бесконечный член. К сожалению, с этим ничего не поделаешь, если квантование сделать сколь угодно точным, как это было бы в случае непрерывного предела. Обратите внимание, что как определено здесь (без член) всегда будет неположительным, потому что расхождение KL всегда будет неотрицательным.
Если это так, постоянен в некотором интервале размеров , и вне этого интервала практически равна нулю, то предельная плотность дискретных точек (LDDP) тесно связана с дифференциальной энтропией :
Ссылки [ править ]
- ^ Джейнс, ET (1963). «Теория информации и статистическая механика». В К. Форде (ред.). Статистическая физика (PDF) . Бенджамин, Нью-Йорк. п. 181.
- ^ Джейнс, ET (1968). «Априорные вероятности» (PDF) . Транзакции IEEE по системным наукам и кибернетике . SSC-4 (3): 227–241. дои : 10.1109/TSSC.1968.300117 .
Дальнейшее чтение [ править ]
- Джейнс, ET (2003). Теория вероятностей: логика науки . Издательство Кембриджского университета. ISBN 978-0521592710 .