Jump to content

Теория информации и теория меры

В этой статье рассматривается, как теория информации (раздел математики, изучающий передачу, обработку и хранение информации ) связана с теорией меры (раздел математики, связанный с интегрированием и вероятностью ).

в информации теории Меры

Многие понятия теории информации имеют отдельные определения и формулы для непрерывных и дискретных случаев. Например, энтропия обычно определяется для дискретных случайных величин, тогда как для непрерывных случайных величин родственное понятие дифференциальной энтропии , записанное , (см. Cover and Thomas, 2006, глава 8). Обе эти концепции представляют собой математические ожидания , но ожидание определяется интегралом для непрерывного случая и суммой для дискретного случая.

Эти отдельные определения могут быть более тесно связаны с точки зрения теории меры . Для дискретных случайных величин функции вероятностной массы можно рассматривать как функции плотности относительно считающей меры. Представление об интеграле и сумме как об интегрировании в пространстве меры позволяет обеспечить единый подход.

Рассмотрим формулу дифференциальной энтропии непрерывной случайной величины с диапазоном и функция плотности вероятности :

Обычно это можно интерпретировать как следующий интеграл Римана – Стилтьеса :

где есть мера Лебега .

Если вместо этого дискретен, с диапазоном конечное множество, представляет собой функцию массы вероятности на , и является мерой счетной , мы можем написать:

Интегральное выражение и общее понятие в непрерывном случае тождественны; единственная разница заключается в используемой мере. В обоих случаях функция плотности вероятности производная Радона–Никодима вероятностной меры по мере, по которой ведется интеграл.

Если – вероятностная мера, индуцированная , то интеграл можно взять и непосредственно по :

Если вместо базовой меры µ мы возьмем другую вероятностную меру , мы приходим к расходимости Кульбака–Лейблера : пусть и быть вероятностными мерами в одном и том же пространстве. Тогда, если непрерывен абсолютно относительно , написано производная Радона – Никодима существует, и расхождение Кульбака–Лейблера можно выразить в полной общности:

пробегает носитель где интеграл Обратите внимание, что мы опустили отрицательный знак: расходимость Кульбака – Лейблера всегда неотрицательна из-за неравенства Гиббса .

Энтропия как «мера» [ править ]

Диаграмма Венна связанных с коррелирующими переменными X и Y. для различных информационных мер , Площадь, содержащаяся в обоих кругах, представляет собой совместную энтропию H ( X , Y ). Круг слева (красный и голубой) — это индивидуальная энтропия H ( X ), а красный — условная энтропия H ( X | Y ). Круг справа (синий и голубой) — это H ( Y ), а синий — H ( Y | X ). Голубой — это взаимная информация I ( X ; Y ).
Диаграмма Венна теоретико-информационных мер для трех переменных x , y и z . Каждый круг представляет собой отдельную энтропию : H ( x ) — нижний левый круг, H ( y ) — нижний правый, а H ( z ) — верхний круг. Пересечения любых двух кругов представляют собой взаимную информацию для двух связанных переменных (например, I ( x ; z ) — желтый и серый). Объединение любых двух кругов — это совместная энтропия двух связанных переменных (например, H ( x , y ) — все, кроме зеленого). Совместная энтропия H ( x , y , z ) всех трех переменных представляет собой объединение всех трех кругов. Он разделен на 7 частей: красный, синий и зеленый — это условные энтропии H ( x | y , z ), H ( y | x , z ), H ( z | x , y ) соответственно, желтый, пурпурный и голубой. это условная взаимная информация I ( x ; z | y ), I ( y ; z | x ) и I ( x ; y | z ) соответственно, а серый цвет представляет собой многомерную взаимную информацию I ( x ; y ; z ). Многомерная взаимная информация – единственная из всех, которая может быть отрицательной.

Существует аналогия между Шеннона основными « мерами » информационного содержания случайных величин и мерой над множествами. А именно, совместную энтропию , условную энтропию и взаимную информацию можно рассматривать как меру объединения множеств , разницы множеств и пересечения множеств соответственно (Реза, стр. 106–108).

Если мы свяжем существование абстрактных множеств и к произвольным дискретным случайным величинам X и Y , каким-то образом представляющим информацию, которую несут X и Y соответственно, такие, что:

  • всякий раз, когда X и Y безусловно независимы , и
  • всякий раз, когда X и Y таковы, что один полностью определяется другим (т. е. биекцией);

где является знаковой мерой по этим наборам, и мы установили:

мы обнаруживаем, что «мера» информационного содержания Шеннона удовлетворяет всем постулатам и основным свойствам формальной знаковой меры множеств, как это обычно иллюстрируется информационной диаграммой . Это позволяет записать сумму двух мер:

и аналог теоремы Байеса ( ) позволяет записать разницу двух мер:

это может быть удобным мнемоническим средством В некоторых ситуациях , например

что меры (ожидаемые значения логарифма) истинных вероятностей называются «энтропией» и обычно обозначаются буквой H , тогда как другие меры часто называются «информацией» или «корреляцией» и обычно обозначаются буквой I. Обратите внимание , буква I. Для простоты обозначений для всех мер иногда используется

Многомерная взаимная информация [ править ]

Определенные расширения определений основных мер информации Шеннона необходимы для работы с σ-алгеброй, порожденной множествами, которые будут связаны с тремя или более произвольными случайными величинами. (Неофициальное, но довольно полное обсуждение см. на стр. 106–108 Резы.) А именно необходимо определить очевидным образом как энтропию совместного распределения и многомерную взаимную информацию. определены подходящим образом, чтобы мы могли установить:

чтобы определить (подписанную) меру во всей σ-алгебре. Не существует единого общепринятого определения многомерной взаимной информации, но то, которое здесь соответствует мере пересечения множеств, принадлежит Фано (1966: стр. 57-59). Определение рекурсивно. В базовом случае взаимная информация одной случайной величины определяется как ее энтропия: . Тогда для мы устанавливаем

где условная взаимная информация определяется как

Первый шаг рекурсии дает определение Шеннона Многомерная взаимная информация (такая же, как информация о взаимодействии , но с изменением знака) трех или более случайных величин может быть как положительной, так и отрицательной: пусть X и Y будут двумя независимыми честными подбрасываниями монеты, и пусть Z будет их исключительным или . Затем кусочек.

Возможны многие другие варианты трех и более случайных величин: например, - это взаимная информация совместного распределения X и Y относительно Z , и ее можно интерпретировать как Многие более сложные выражения могут быть построены таким образом и при этом иметь смысл, например или

Ссылки [ править ]

  • Томас М. Ковер и Джой А. Томас. Элементы теории информации , второе издание, 2006 г. Нью-Джерси: Wiley and Sons. ISBN   978-0-471-24195-9 .
  • Фазлолла М. Реза. Введение в теорию информации . Нью-Йорк: МакГроу – Хилл, 1961. Нью-Йорк: Дувр, 1994. ISBN   0-486-68210-2
  • Фано, Р.М. (1966), Передача информации: статистическая теория коммуникаций , MIT Press , ISBN  978-0-262-56169-3 , OCLC   804123877
  • Р.В. Юнг, «Об энтропии, информационном неравенстве и группах». ПС

См. также [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 7c43fc7e998e403d52d1f95bd39134ee__1703559840
URL1:https://arc.ask3.ru/arc/aa/7c/ee/7c43fc7e998e403d52d1f95bd39134ee.html
Заголовок, (Title) документа по адресу, URL1:
Information theory and measure theory - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)