Теория информации и теория меры
Эта статья включает список литературы , связанную литературу или внешние ссылки , но ее источники остаются неясными, поскольку в ней отсутствуют встроенные цитаты . ( декабрь 2023 г. ) |
Эта статья , возможно, содержит оригинальные исследования . ( декабрь 2023 г. ) |
В этой статье рассматривается, как теория информации (раздел математики, изучающий передачу, обработку и хранение информации ) связана с теорией меры (раздел математики, связанный с интегрированием и вероятностью ).
в информации теории Меры
Многие понятия теории информации имеют отдельные определения и формулы для непрерывных и дискретных случаев. Например, энтропия обычно определяется для дискретных случайных величин, тогда как для непрерывных случайных величин родственное понятие дифференциальной энтропии , записанное , (см. Cover and Thomas, 2006, глава 8). Обе эти концепции представляют собой математические ожидания , но ожидание определяется интегралом для непрерывного случая и суммой для дискретного случая.
Эти отдельные определения могут быть более тесно связаны с точки зрения теории меры . Для дискретных случайных величин функции вероятностной массы можно рассматривать как функции плотности относительно считающей меры. Представление об интеграле и сумме как об интегрировании в пространстве меры позволяет обеспечить единый подход.
Рассмотрим формулу дифференциальной энтропии непрерывной случайной величины с диапазоном и функция плотности вероятности :
Обычно это можно интерпретировать как следующий интеграл Римана – Стилтьеса :
где есть мера Лебега .
Если вместо этого дискретен, с диапазоном конечное множество, представляет собой функцию массы вероятности на , и является мерой счетной , мы можем написать:
Интегральное выражение и общее понятие в непрерывном случае тождественны; единственная разница заключается в используемой мере. В обоих случаях функция плотности вероятности – производная Радона–Никодима вероятностной меры по мере, по которой ведется интеграл.
Если – вероятностная мера, индуцированная , то интеграл можно взять и непосредственно по :
Если вместо базовой меры µ мы возьмем другую вероятностную меру , мы приходим к расходимости Кульбака–Лейблера : пусть и быть вероятностными мерами в одном и том же пространстве. Тогда, если непрерывен абсолютно относительно , написано производная Радона – Никодима существует, и расхождение Кульбака–Лейблера можно выразить в полной общности:
пробегает носитель где интеграл Обратите внимание, что мы опустили отрицательный знак: расходимость Кульбака – Лейблера всегда неотрицательна из-за неравенства Гиббса .
Энтропия как «мера» [ править ]
Этот раздел нуждается в дополнительных цитатах для проверки . ( Апрель 2017 г. ) |
Существует аналогия между Шеннона основными « мерами » информационного содержания случайных величин и мерой над множествами. А именно, совместную энтропию , условную энтропию и взаимную информацию можно рассматривать как меру объединения множеств , разницы множеств и пересечения множеств соответственно (Реза, стр. 106–108).
Если мы свяжем существование абстрактных множеств и к произвольным дискретным случайным величинам X и Y , каким-то образом представляющим информацию, которую несут X и Y соответственно, такие, что:
- всякий раз, когда X и Y безусловно независимы , и
- всякий раз, когда X и Y таковы, что один полностью определяется другим (т. е. биекцией);
где является знаковой мерой по этим наборам, и мы установили:
мы обнаруживаем, что «мера» информационного содержания Шеннона удовлетворяет всем постулатам и основным свойствам формальной знаковой меры множеств, как это обычно иллюстрируется информационной диаграммой . Это позволяет записать сумму двух мер:
и аналог теоремы Байеса ( ) позволяет записать разницу двух мер:
это может быть удобным мнемоническим средством В некоторых ситуациях , например
что меры (ожидаемые значения логарифма) истинных вероятностей называются «энтропией» и обычно обозначаются буквой H , тогда как другие меры часто называются «информацией» или «корреляцией» и обычно обозначаются буквой I. Обратите внимание , буква I. Для простоты обозначений для всех мер иногда используется
Многомерная взаимная информация [ править ]
Определенные расширения определений основных мер информации Шеннона необходимы для работы с σ-алгеброй, порожденной множествами, которые будут связаны с тремя или более произвольными случайными величинами. (Неофициальное, но довольно полное обсуждение см. на стр. 106–108 Резы.) А именно необходимо определить очевидным образом как энтропию совместного распределения и многомерную взаимную информацию. определены подходящим образом, чтобы мы могли установить:
чтобы определить (подписанную) меру во всей σ-алгебре. Не существует единого общепринятого определения многомерной взаимной информации, но то, которое здесь соответствует мере пересечения множеств, принадлежит Фано (1966: стр. 57-59). Определение рекурсивно. В базовом случае взаимная информация одной случайной величины определяется как ее энтропия: . Тогда для мы устанавливаем
где условная взаимная информация определяется как
Первый шаг рекурсии дает определение Шеннона Многомерная взаимная информация (такая же, как информация о взаимодействии , но с изменением знака) трех или более случайных величин может быть как положительной, так и отрицательной: пусть X и Y будут двумя независимыми честными подбрасываниями монеты, и пусть Z будет их исключительным или . Затем кусочек.
Возможны многие другие варианты трех и более случайных величин: например, - это взаимная информация совместного распределения X и Y относительно Z , и ее можно интерпретировать как Многие более сложные выражения могут быть построены таким образом и при этом иметь смысл, например или
Ссылки [ править ]
- Томас М. Ковер и Джой А. Томас. Элементы теории информации , второе издание, 2006 г. Нью-Джерси: Wiley and Sons. ISBN 978-0-471-24195-9 .
- Фазлолла М. Реза. Введение в теорию информации . Нью-Йорк: МакГроу – Хилл, 1961. Нью-Йорк: Дувр, 1994. ISBN 0-486-68210-2
- Фано, Р.М. (1966), Передача информации: статистическая теория коммуникаций , MIT Press , ISBN 978-0-262-56169-3 , OCLC 804123877
- Р.В. Юнг, «Об энтропии, информационном неравенстве и группах». ПС