~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ BDA68D36E2B6CA18DFEABED4B55501ED__1716098820 ✰
Заголовок документа оригинал.:
✰ Quantities of information - Wikipedia ✰
Заголовок документа перевод.:
✰ Количество информации — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Quantities_of_information ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/bd/ed/bda68d36e2b6ca18dfeabed4b55501ed.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/bd/ed/bda68d36e2b6ca18dfeabed4b55501ed__translat.html ✰
Дата и время сохранения документа:
✰ 18.06.2024 17:09:01 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 19 May 2024, at 09:07 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Количество информации — Википедия Jump to content

Количество информации

Из Википедии, бесплатной энциклопедии
Вводящий в заблуждение [1] информационная диаграмма , показывающая аддитивные и субтрактивные отношения между переменных основными количествами информации Шеннона для коррелирующих и . Площадь, содержащаяся в обоих кругах, представляет собой совместную энтропию. . Круг слева (красный и фиолетовый) — это индивидуальная энтропия. , где красный цвет — условная энтропия . Круг справа (синий и фиолетовый) , с синим существом . Фиолетовый – это взаимная информация .

Математическая теория информации основана на теории вероятностей и статистике и измеряет информацию с помощью нескольких количеств информации . Выбор логарифмической основы в следующих формулах определяет единицу информационной энтропии используемую . Наиболее распространенной единицей информации является бит , или, точнее, шеннон . [2] на основе двоичного логарифма . Хотя «бит» чаще используется вместо «Шеннон», его имя не отличается от бита, который используется при обработке данных для обозначения двоичного значения или потока независимо от его энтропии (информационного содержания). Другие единицы включают в себя nat. , основанный на натуральном логарифме , и Хартли , основанный на десятичном или десятичном логарифме .

Далее выражение вида по соглашению считается равным нулю всякий раз, когда равен нулю. Это оправдано, поскольку для любого логарифмического основания. [3]

Самоинформация [ править ]

Шеннон вывел меру информационного содержания, называемую самоинформацией или « сюрпризом» сообщения. :

где вероятность того, что сообщение выбирается из всех возможных вариантов в пространстве сообщений . Основание логарифма влияет только на коэффициент масштабирования и, следовательно, на единицы, в которых выражается измеренное содержание информации. Если логарифм имеет основание 2, мера информации выражается в единицах Шеннон или , чаще, просто в «битах» ( бит в других контекстах скорее определяется как «двоичная цифра», среднее информационное содержание которой составляет не более 1 Шеннона). .

Информация из источника получается получателем только в том случае, если у получателя еще не было этой информации с самого начала. Сообщения, которые передают информацию об определенном (P=1) событии (или о событии, которое точно известно , например, через обратный канал), не предоставляют никакой информации, как показывает приведенное выше уравнение. Редко встречающиеся сообщения содержат больше информации, чем более часто встречающиеся сообщения.

Также можно показать, что составное сообщение из двух (или более) несвязанных сообщений будет содержать количество информации, которое является суммой мер информации каждого сообщения в отдельности. Это можно получить, используя это определение, рассматривая составное сообщение. предоставление информации о значениях двух случайных величин M и N с использованием сообщения, которое представляет собой объединение элементарных сообщений m и n , информационное содержание каждого из которых определяется выражением и соответственно. Если сообщения m и n зависят каждое только от M и N, а процессы M и N независимы , то, поскольку (определение статистической независимости) из приведенного выше определения ясно, что .

Пример: прогноз погоды звучит так: «Прогноз на сегодня: темно. Продолжается темнота, пока утром не станет рассеянным свет». Это сообщение практически не содержит никакой информации. Однако прогноз метели наверняка будет содержать информацию, поскольку такое случается не каждый вечер. , будет еще больше информации В точном прогнозе выпадения снега для теплого места, такого как Майами . Объем информации в прогнозе выпадения снега для места, где снег никогда не идет (невозможное событие), является самым высоким (бесконечность).

Энтропия [ править ]

Энтропия сообщений дискретного пространства является мерой степени неопределенности относительно того, какое сообщение будет выбрано. Он определяется как средняя информативность сообщения. из этого пространства сообщений:

где

обозначает операцию ожидаемого значения .

Важным свойством энтропии является то, что она максимизируется, когда все сообщения в пространстве сообщений равновероятны (например, ). В этом случае .

Иногда функция выражается через вероятности распределения:

где каждый и

Важным частным случаем этого является функция двоичной энтропии :

Совместная энтропия [ править ]

Совместная энтропия двух дискретных случайных величин и определяется как энтропия распределения совместного и :

Если и независимы , то общая энтропия представляет собой просто сумму их индивидуальных энтропий.

(Примечание: совместную энтропию не следует путать с перекрестной энтропией , несмотря на схожие обозначения.)

Условная энтропия (двусмысленность) [ править ]

Учитывая конкретное значение случайной величины , условная энтропия данный определяется как:

где это вероятность условная данный .

Условная энтропия данный также называемый двусмысленностью , о тогда дается:

При этом используется условное ожидание теории вероятностей.

Основное свойство условной энтропии заключается в том, что:

Кульбака – Лейблера (прирост ) информации Расхождение

Дивергенция Кульбака -Лейблера (или информационная дивергенция , прирост информации или относительная энтропия ) — это способ сравнения двух распределений, «истинное» распределение вероятностей. и произвольное распределение вероятностей . Если мы сжимаем данные таким образом, который предполагает — это распределение, лежащее в основе некоторых данных, тогда как на самом деле – правильное распределение, расхождение Кульбака – Лейблера – это количество в среднем дополнительных битов на единицу данных, необходимое для сжатия, или, математически,

В некотором смысле это «расстояние» от к , хотя это не настоящая метрика, поскольку она несимметрична.

Взаимная информация (трансинформация) [ править ]

Оказывается, одной из самых полезных и важных мер информации является взаимная информация , или трансинформация . Это мера того, сколько информации можно получить об одной случайной величине, наблюдая за другой. Взаимная информация относительно (что концептуально представляет собой средний объем информации о что можно получить, наблюдая ) дан кем-то:

Основное свойство взаимной информации заключается в том, что:

То есть, зная , мы можем сэкономить в среднем биты в кодировке по сравнению с незнанием . Взаимная информация симметрична :


Взаимную информацию можно выразить как среднее расхождение Кульбака – Лейблера (прирост информации) апостериорного распределения вероятностей учитывая ценность к предыдущему распределению по :

Другими словами, это мера того, насколько в среднем распределение вероятностей на изменится, если нам дать значение . Это часто пересчитывается как расхождение произведения предельных распределений к фактическому совместному распределению:

Взаимная информация тесно связана с тестом логарифмического отношения правдоподобия в контексте таблиц сопряженности и полиномиального распределения , а также с критерием Пирсона χ. 2 тест : взаимная информация может рассматриваться как статистика для оценки независимости между парой переменных и имеет четко определенное асимптотическое распределение.

Дифференциальная энтропия [ править ]

Основные меры дискретной энтропии были расширены по аналогии с непрерывными пространствами путем замены сумм интегралами и функций массы вероятности функциями плотности вероятности . Хотя в обоих случаях взаимная информация выражает количество битов информации, общих для двух рассматриваемых источников, аналогия не подразумевает идентичных свойств; например, дифференциальная энтропия может быть отрицательной.

Дифференциальные аналогии энтропии, совместной энтропии, условной энтропии и взаимной информации определяются следующим образом:

где - функция плотности соединений, и являются маргинальными распределениями, и это условное распределение.

См. также [ править ]

Ссылки [ править ]

  1. ^ DJC Маккей (2003). Теория информации, выводы и алгоритмы обучения . Бибкод : 2003itil.book.....М . : 141 
  2. ^ Стам, Эй Джей (1959). «Некоторые неравенства, удовлетворяемые количествами информации Фишера и Шеннона» . Информация и контроль . 2 (2): 101–112. дои : 10.1016/S0019-9958(59)90348-1 .
  3. ^ «Три подхода к определению понятия «количество информации» » (PDF) .
Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: BDA68D36E2B6CA18DFEABED4B55501ED__1716098820
URL1:https://en.wikipedia.org/wiki/Quantities_of_information
Заголовок, (Title) документа по адресу, URL1:
Quantities of information - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)