Количество информации
Эта статья нуждается в дополнительных цитатах для проверки . ( сентябрь 2012 г. ) |

Математическая теория информации основана на теории вероятностей и статистике и измеряет информацию с помощью нескольких количеств информации . Выбор логарифмической основы в следующих формулах определяет единицу информационной энтропии используемую . Наиболее распространенной единицей информации является бит , или, точнее, шеннон . [2] на основе двоичного логарифма . Хотя «бит» чаще используется вместо «шеннон», его имя не отличается от бита , который используется при обработке данных для обозначения двоичного значения или потока независимо от его энтропии (информационного содержания). Другие единицы включают в себя nat. , основанный на натуральном логарифме , и Хартли , основанный на десятичном или десятичном логарифме .
Далее выражение вида по соглашению считается равным нулю всякий раз, когда равен нулю. Это оправдано, поскольку для любого логарифмического основания. [3]
Самоинформация [ править ]
Шеннон вывел меру информационного содержания, названную самоинформацией или « сюрпризом» сообщения. :
где вероятность того, что сообщение выбирается из всех возможных вариантов в пространстве сообщений . Основание логарифма влияет только на коэффициент масштабирования и, следовательно, на единицы, в которых выражается измеренное содержание информации. Если логарифм имеет основание 2, мера информации выражается в единицах Шеннон или, чаще, просто в «битах» ( бит в других контекстах скорее определяется как «двоичная цифра», среднее информационное содержание которой составляет не более 1 Шеннона). .
Информация из источника получается получателем только в том случае, если у получателя еще не было этой информации с самого начала. Сообщения, которые передают информацию об определенном (P=1) событии (или о событии, которое точно известно , например, через обратный канал), не предоставляют никакой информации, как показывает приведенное выше уравнение. Редко встречающиеся сообщения содержат больше информации, чем более часто встречающиеся сообщения.
Также можно показать, что составное сообщение из двух (или более) несвязанных сообщений будет содержать количество информации, которое является суммой мер информации каждого сообщения в отдельности. Это можно получить, используя это определение, рассматривая составное сообщение. предоставление информации о значениях двух случайных величин M и N с использованием сообщения, которое представляет собой объединение элементарных сообщений m и n , информационное содержание каждого из которых определяется выражением и соответственно. Если сообщения m и n зависят каждое только от M и N, а процессы M и N независимы , то, поскольку (определение статистической независимости) из приведенного выше определения ясно, что .
Пример: прогноз погоды звучит так: «Прогноз на сегодня: темно. Продолжается темнота, пока утром не станет рассеянным свет». Это сообщение практически не содержит никакой информации. Однако прогноз метели наверняка будет содержать информацию, поскольку такое случается не каждый вечер. , будет еще больше информации В точном прогнозе выпадения снега для теплого места, такого как Майами . Объем информации в прогнозе выпадения снега для места, где снег никогда не идет (невозможное событие), является самым высоким (бесконечность).
Энтропия [ править ]
Энтропия дискретного пространства сообщений является мерой степени неопределенности относительно того, какое сообщение будет выбрано. Он определяется как средняя информативность сообщения. из этого пространства сообщений:
где
- обозначает операцию ожидаемого значения .
Важным свойством энтропии является то, что она максимизируется, когда все сообщения в пространстве сообщений равновероятны (например, ). В этом случае .
Иногда функция выражается через вероятности распределения:
- где каждый и
Важным частным случаем этого является функция двоичной энтропии :
энтропия Совместная
Совместная энтропия двух дискретных случайных величин и определяется как энтропия совместного распределения и :
Если и независимы , то общая энтропия представляет собой просто сумму их индивидуальных энтропий.
(Примечание: совместную энтропию не следует путать с перекрестной энтропией , несмотря на схожие обозначения.)
Условная энтропия (двусмысленность) [ править ]
Учитывая конкретное значение случайной величины , условная энтропия данный определяется как:
где это условная вероятность данный .
Условная энтропия данный называемый двусмысленностью , также о тогда дается:
При этом используется условное ожидание теории вероятностей.
Основное свойство условной энтропии заключается в том, что:
– Лейблера (прирост информации Кульбака Расхождение )
Дивергенция Кульбака -Лейблера (или информационная дивергенция , прирост информации или относительная энтропия ) — это способ сравнения двух распределений, «истинное» распределение вероятностей. и произвольное распределение вероятностей . Если мы сжимаем данные таким образом, который предполагает — это распределение, лежащее в основе некоторых данных, тогда как на самом деле – правильное распределение, расхождение Кульбака – Лейблера – это среднее количество дополнительных битов на единицу данных, необходимое для сжатия, или, математически,
В некотором смысле это «расстояние» от к , хотя это не настоящая метрика, поскольку она несимметрична.
Взаимная информация (трансинформация) [ править ]
Оказывается, одной из самых полезных и важных мер информации является взаимная информация , или трансинформация . Это мера того, сколько информации можно получить об одной случайной величине, наблюдая за другой. Взаимная информация относительно (что концептуально представляет собой средний объем информации о что можно получить, наблюдая ) дается:
Основное свойство взаимной информации заключается в том, что:
То есть, зная , мы можем сэкономить в среднем биты в кодировке по сравнению с незнанием . Взаимная информация симметрична :
Взаимную информацию можно выразить как среднее расхождение Кульбака – Лейблера (прирост информации) апостериорного вероятностей распределения учитывая ценность к предыдущему распределению по :
Другими словами, это мера того, насколько в среднем распределение вероятностей на изменится, если нам дать значение . Это часто пересчитывается как расхождение произведения предельных распределений к фактическому совместному распределению:
Взаимная информация тесно связана с тестом логарифмического отношения правдоподобия в контексте таблиц сопряженности и полиномиального распределения, а также с критерием Пирсона χ. 2 тест : взаимная информация может рассматриваться как статистика для оценки независимости между парой переменных и имеет четко определенное асимптотическое распределение.
Дифференциальная энтропия [ править ]
Основные меры дискретной энтропии были расширены по аналогии с непрерывными пространствами путем замены сумм интегралами и функций массы вероятности функциями плотности вероятности . Хотя в обоих случаях взаимная информация выражает количество битов информации, общих для двух рассматриваемых источников, аналогия не предполагает идентичных свойств; например, дифференциальная энтропия может быть отрицательной.
Дифференциальные аналогии энтропии, совместной энтропии, условной энтропии и взаимной информации определяются следующим образом:
где - функция плотности соединений, и являются маргинальными распределениями, и это условное распределение.
См. также [ править ]
Ссылки [ править ]
- ^ DJC Маккей (2003). Теория информации, выводы и алгоритмы обучения . Бибкод : 2003itil.book.....М . : 141
- ^ Стам, Эй Джей (1959). «Некоторые неравенства, удовлетворяемые количествами информации Фишера и Шеннона» . Информация и контроль . 2 (2): 101–112. дои : 10.1016/S0019-9958(59)90348-1 .
- ^ «Три подхода к определению понятия «количество информации» » (PDF) .