Дифференциальная энтропия (также называемая непрерывной энтропией ) — это концепция теории информации , которая возникла как попытка Клода Шеннона распространить идею энтропии (Шеннона) — меры среднего (сюрприза) случайной величины — на непрерывные распределения вероятностей. . К сожалению, Шеннон не вывел эту формулу, а просто предположил, что это правильный непрерывный аналог дискретной энтропии, но это не так. [1] : 181–218 Фактическая непрерывная версия дискретной энтропии — это предельная плотность дискретных точек (LDDP). Дифференциальная энтропия (описанная здесь) часто встречается в литературе, но это предельный случай LDDP, который теряет свою фундаментальную связь с дискретной энтропией .
С точки зрения теории меры , дифференциальная энтропия вероятностной меры — это отрицательная относительная энтропия от этой меры до меры Лебега , причем последняя рассматривается так, как если бы она была вероятностной мерой, несмотря на то, что она ненормирована.
Для распределений вероятностей, которые не имеют явного выражения функции плотности, но имеют явное выражение функции квантиля : , затем можно определить через производную т.е. функция плотности квантиля как [3] : 54–59
.
Как и в случае с его дискретным аналогом, единицы дифференциальной энтропии зависят от основания логарифма , которое обычно равно 2 (т. е. единицами являются биты ). См. логарифмические единицы для логарифмов, взятых в разных основаниях. Связанные понятия, такие как совместная , условная дифференциальная энтропия и относительная энтропия, определяются аналогичным образом. В отличие от дискретного аналога, дифференциальная энтропия имеет смещение, которое зависит от единиц измерения. . [4] : 183–184 Например, дифференциальная энтропия величины, измеренной в миллиметрах, будет на log(1000) больше, чем такая же величина, измеренная в метрах; безразмерная величина будет иметь дифференциальную энтропию log(1000) больше, чем такая же величина, деленная на 1000.
Следует проявлять осторожность, пытаясь применить свойства дискретной энтропии к дифференциальной энтропии, поскольку функции плотности вероятности могут быть больше 1. Например, равномерное распределение имеет отрицательную дифференциальную энтропию; т. е. он лучше упорядочен, чем как показано сейчас
быть меньше, чем у который имеет нулевую дифференциальную энтропию. Таким образом, дифференциальная энтропия не обладает всеми свойствами дискретной энтропии.
Непрерывная взаимная информация отличается тем, что сохраняет свое фундаментальное значение как мера дискретной информации, поскольку фактически является пределом дискретной взаимной разделов информации и поскольку эти перегородки становятся все тоньше и тоньше. Таким образом, оно инвариантно относительно нелинейных гомеоморфизмов (непрерывных и однозначно обратимых отображений), [5] в том числе линейный [6] трансформации и , и по-прежнему представляет собой количество дискретной информации, которая может быть передана по каналу, допускающему непрерывное пространство значений.
В общем случае для преобразования случайного вектора в другой случайный вектор той же размерности , соответствующие энтропии связаны соотношением
где является якобианом преобразования . [7] Приведенное выше неравенство становится равенством, если преобразование является биекцией. Кроме того, когда представляет собой жесткое вращение, перемещение или их комбинацию, определитель Якобиана всегда равен 1, и .
Однако дифференциальная энтропия не обладает другими желательными свойствами:
Он не инвариантен при изменении переменных и поэтому наиболее полезен при работе с безразмерными переменными.
Оно может быть отрицательным.
Модификацией дифференциальной энтропии, устраняющей эти недостатки, является относительная информационная энтропия , также известная как дивергенция Кульбака – Лейблера, которая включает в себя инвариантный коэффициент меры (см. предельную плотность дискретных точек ).
Максимизация в нормальном распределении [ править ]
При нормальном распределении дифференциальная энтропия максимизируется для заданной дисперсии. Гауссова случайная величина имеет наибольшую энтропию среди всех случайных величин с равной дисперсией или, альтернативно, максимальное распределение энтропии при ограничениях среднего значения и дисперсии является гауссовым. [2] : 255
Позволять быть гауссовой PDF со средним значением µ и дисперсией и произвольный PDF-файл с той же дисперсией. Поскольку дифференциальная энтропия является трансляционно-инвариантной, мы можем предположить, что имеет то же самое значение как .
где g(x) — некоторая функция со средним µ. Когда энтропия g(x) максимальна и уравнения ограничений, состоящие из условия нормировки и требование фиксированной дисперсии , оба удовлетворены, то небольшое изменение δg ( x ) относительно g ( x ) приведет к изменению δL относительно L , которое равно нулю:
Поскольку это должно выполняться для любого малого δ g ( x ), член в скобках должен быть равен нулю, и решение для g(x) дает:
Использование уравнений ограничений для решения λ 0 и λ дает нормальное распределение:
Дифференциальная энтропия дает нижнюю границу ожидаемой квадратичной ошибки оценщика . Для любой случайной величины и оценщик имеет место следующее: [2]
с равенством тогда и только тогда, когда является гауссовой случайной величиной и это среднее значение .
Дифференциальная энтропия различных для распределений
Как описано выше, дифференциальная энтропия не обладает всеми свойствами дискретной энтропии. Например, дифференциальная энтропия может быть отрицательной; также оно не инвариантно относительно непрерывных преобразований координат. Эдвин Томпсон Джейнс фактически показал, что приведенное выше выражение не является правильным пределом выражения для конечного набора вероятностей. [10] : 181–218
Определение дифференциальной энтропии, приведенное выше, можно получить путем разделения диапазона в контейнеры длины с соответствующими точками отбора проб внутри бункеров, для Интегрируемая по Риману. Это дает квантованную версию , определяется если . Тогда энтропия является [2]
Первый член справа аппроксимирует дифференциальную энтропию, а второй член примерно . Обратите внимание, что эта процедура предполагает, что энтропия в дискретном смысле непрерывной случайной величины должна быть равна .
^ Лазо, А. и П. Рэти (1978). «Об энтропии непрерывных вероятностных распределений». Транзакции IEEE по теории информации . 24 (1): 120–122. дои : 10.1109/TIT.1978.1055832 .
Arc.Ask3.Ru Номер скриншота №: 9C95ED0B4CA0A29F67ACC74FA53C18F6__1715740320 URL1:https://en.wikipedia.org/wiki/Differential_entropy Заголовок, (Title) документа по адресу, URL1: Differential entropy - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)