~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ E63B82F0908FB4BE14AF35F9FA59BF5B__1718326740 ✰
Заголовок документа оригинал.:
✰ Mutual information - Wikipedia ✰
Заголовок документа перевод.:
✰ Взаимная информация — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Mutual_information ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/e6/5b/e63b82f0908fb4be14af35f9fa59bf5b.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/e6/5b/e63b82f0908fb4be14af35f9fa59bf5b__translat.html ✰
Дата и время сохранения документа:
✰ 18.06.2024 16:55:24 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 14 June 2024, at 03:59 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Взаимная информация — Википедия Jump to content

Взаимная информация

Из Википедии, бесплатной энциклопедии
Диаграмма Венна, показывающая аддитивные и вычитающие отношения различных информационных мер, связанных с коррелирующими переменными. и . [1] Площадь, содержащаяся в обоих кругах, представляет собой совместную энтропию. . Круг слева (красный и фиолетовый) — это индивидуальная энтропия. , где красный цвет — условная энтропия . Круг справа (синий и фиолетовый) , с синим существом . Фиолетовый – это взаимная информация .

В теории вероятностей и теории информации взаимная информация ( MI ) двух случайных величин является мерой взаимной зависимости между двумя переменными. Точнее, он количественно определяет « объем информации » (в таких единицах , как Шенноны ( биты ), натс или хартли ), полученный об одной случайной величине путем наблюдения за другой случайной величиной. Концепция взаимной информации тесно связана с концепцией энтропии случайной величины, фундаментальным понятием теории информации, которое количественно определяет ожидаемое «объем информации», содержащейся в случайной величине.

Не ограничиваясь вещественными случайными величинами и линейной зависимостью, такой как коэффициент корреляции , MI является более общим и определяет, насколько различно совместное распределение пары. является продуктом предельных распределений и . MI — это ожидаемое значение точечной взаимной информации (PMI).

Величина была определена и проанализирована Клодом Шенноном в его знаковой статье « Математическая теория связи », хотя он и не называл ее «взаимной информацией». Этот термин был придуман позже Робертом Фано . [2] Взаимная информация также известна как получение информации .

Определение [ править ]

Позволять быть парой случайных величин со значениями в пространстве . Если их совместное распределение и предельные распределения и , взаимная информация определяется как

где расходимость Кульбака–Лейблера и - это внешнее распределение продукта , которое определяет вероятность для каждого .

Обратите внимание, что согласно свойству расхождения Кульбака – Лейблера , что равно нулю именно тогда, когда совместное распределение совпадает с произведением маргиналов, т. е. когда и независимы (и, следовательно, наблюдают ничего не говорит вам о ). неотрицательен, это мера стоимости кодирования как пара независимых случайных величин, хотя на самом деле это не так.

Если используется натуральный логарифм , единицей взаимной информации является nat . Если используется логарифмическая база 2, единицей взаимной информации является шеннон , также известный как бит. Если используется база журнала 10, единицей взаимной информации является хартли , также известный как запрет или dit.

С точки зрения PMF распределений для дискретных

Взаимная информация двух совместно дискретных случайных величин и рассчитывается как двойная сумма: [3] : 20 

( Уравнение 1 )

где - вероятности массовая функция совместная и , и и являются вероятности маргинальными массовыми функциями и соответственно.

Что касается PDF-файлов для непрерывного распространения [ править ]

В случае совместно непрерывных случайных величин двойная сумма заменяется двойным интегралом : [3] : 251 

( Уравнение 2 )

где теперь это совместная плотности вероятности функция и , и и являются маргинальными функциями плотности вероятности и соответственно.

Мотивация [ править ]

Интуитивно, взаимная информация измеряет информацию, которая и доля: он измеряет, насколько знание одной из этих переменных снижает неопределенность в отношении другой. Например, если и независимы, то зная не дает никакой информации о и наоборот, поэтому их взаимная информация равна нулю. Другая крайность, если является детерминированной функцией и является детерминированной функцией тогда вся информация, передаваемая делится с : зная определяет ценность и наоборот. В результате в этом случае взаимная информация такая же, как и неопределенность, содержащаяся в (или ), а энтропия именно (или ). Более того, эта взаимная информация такая же, как энтропия и как энтропия . (Особый случай – это когда и это одна и та же случайная величина.)

Взаимная информация является мерой внутренней зависимости, выражающейся в распределении совместном и относительно предельного распределения и в условиях независимости. Таким образом, взаимная информация измеряет зависимость в следующем смысле: если и только если и являются независимыми случайными величинами. Это легко увидеть в одном направлении: если и независимы, то , и поэтому:

Более того, взаимная информация неотрицательна (т.е. см. ниже) и симметричные (т.е. см. ниже).

Свойства [ править ]

Неотрицательность [ править ]

Используя неравенство Йенсена для определения взаимной информации, мы можем показать, что неотрицательен, т.е. [3] : 28 

Симметрия [ править ]

Доказательство дается с учетом связи с энтропией, как показано ниже.

Супермодульность независимости при

Если не зависит от , затем

. [4]

Связь с условной энтропией и совместной

Взаимную информацию можно эквивалентно выразить как:

где и - предельные энтропии , и условные энтропии , а это энтропия совместная и .

Обратите внимание на аналогию с объединением, разностью и пересечением двух множеств: в этом отношении все приведенные выше формулы очевидны из диаграммы Венна, приведенной в начале статьи.

С точки зрения канала связи, в котором выход это шумная версия ввода , эти отношения суммированы на рисунке:

Отношения между теоретико-информационными величинами

Потому что неотрицательна, следовательно, . Здесь мы даем подробный вывод для случая совместно дискретных случайных величин:

Доказательства остальных приведенных выше тождеств аналогичны. Доказательство общего случая (а не только дискретного) аналогично, с заменой сумм интегралами.

Интуитивно, если энтропия рассматривается как мера неопределенности относительно случайной величины, тогда является мерой того, что не говорит о . Это «количество неопределенностей, остающихся относительно после известна», и, таким образом, правую часть второго из этих равенств можно прочитать как «количество неопределенности в , минус количество неопределенности в что остается после известно», что эквивалентно «объему неопределенности в который удаляется знанием «. Это подтверждает интуитивное значение взаимной информации как количества информации (то есть уменьшения неопределенности), которую знание одной переменной дает о другой.

Заметим, что в дискретном случае и поэтому . Таким образом , и можно сформулировать основной принцип, согласно которому переменная содержит по крайней мере столько же информации о себе, сколько может предоставить любая другая переменная.

с расхождением Кульбака Лейблера Связь

Для совместно дискретных или совместно непрерывных пар , взаимная информация – это расхождение Кульбака – Лейблера от произведения маргинальных распределений , , совместного распределения , то есть,

Кроме того, пусть быть условной функцией массы или плотности. Тогда мы имеем тождество

Доказательство для совместно дискретных случайных величин выглядит следующим образом:

Аналогично это тождество можно установить и для совместно непрерывных случайных величин.

Заметим, что здесь расхождение Кульбака–Лейблера предполагает интегрирование по значениям случайной величины только и выражение по-прежнему обозначает случайную величину, поскольку является случайным. Таким образом, взаимную информацию можно также понимать как ожидание расхождения Кульбака – Лейблера одномерного распределения. из из условного распределения из данный : чем больше различаются распределения и в среднем, тем больше прирост информации .

оценка информации Байесовская взаимной

Если доступны выборки из совместного распределения, для оценки взаимной информации этого распределения можно использовать байесовский подход. Это была первая работа, которая также показала, как выполнять байесовскую оценку многих других теоретико-информационных свойств, помимо взаимной информации. [5] Последующие исследователи восстановили [6] и расширен [7] этот анализ. Видеть [8] за недавнюю статью, основанную на предшествующих исследованиях, специально предназначенных для оценки взаимной информация сама по себе. Кроме того, недавно появился метод оценки, учитывающий непрерывные и многомерные результаты, , было предложено в . [9]

Предположения о независимости

Формулировка взаимной информации о дивергенции Кульбака-Лейблера основана на том, что человек заинтересован в сравнении к полностью факторизованному внешнему продукту . Во многих задачах, таких как факторизация неотрицательной матрицы , интересны менее экстремальные факторизации; в частности, хочется сравнить к аппроксимации матрицы низкого ранга с некоторой неизвестной переменной ; то есть в какой степени можно иметь

С другой стороны, может быть интересно узнать, сколько еще информации переносит его факторизацию. В таком случае избыточная информация, которую может обеспечить полное распространение переносит матричную факторизацию, определяется расхождением Кульбака-Лейблера

Традиционное определение взаимной информации восстанавливается в крайнем случае, когда процесс имеет только одно значение для .

Вариации [ править ]

Для удовлетворения различных потребностей было предложено несколько вариантов взаимной информации. Среди них есть нормализованные варианты и обобщения для более чем двух переменных.

Метрика [ править ]

Многие приложения требуют метрики , то есть меры расстояния между парами точек. Количество

удовлетворяет свойствам метрики ( неравенство треугольника , неотрицательность , неразличимость и симметрия), где равенство понимается, что это означает, что можно полностью определить из [10] .

Этот показатель расстояния также известен как изменение информации .

Если являются дискретными случайными величинами, то все энтропийные члены неотрицательны, поэтому и можно определить нормированное расстояние

Метрика является универсальной метрикой, поскольку, если какая-либо другая мера расстояния помещает и рядом, то также будет судить их близко. [11] [ сомнительно обсудить ]

Подстановка определений показывает, что

Это известно как расстояние Райского. [12] В теоретико-множественной интерпретации информации (см. рисунок « Условная энтропия ») это фактически расстояние Жаккара между и .

Окончательно,

это тоже показатель.

Условная взаимная информация [ править ]

Иногда полезно выразить взаимную информацию двух случайных величин, обусловленную третьей.

Для совместно дискретных случайных величин это принимает вид

который можно упростить как

Для совместно непрерывных случайных величин это имеет вид

который можно упростить как

Обуславливание третьей случайной величиной может либо увеличить, либо уменьшить взаимную информацию, но всегда верно, что

для дискретных, совместно распределенных случайных величин . Этот результат был использован в качестве основного строительного блока для доказательства других неравенств в теории информации .

Информация о взаимодействии [ править ]

Было предложено несколько обобщений взаимной информации на более чем две случайные величины, такие как полная корреляция (или мультиинформация) и двойная полная корреляция . Выражение и изучение многомерной взаимной информации более высокого уровня было достигнуто в двух, казалось бы, независимых работах: МакГилл (1954). [13] который назвал эти функции «информацией о взаимодействии», и Ху Го Тин (1962). [14] Информация о взаимодействии определяется для одной переменной следующим образом:

и для

Некоторые авторы меняют порядок членов в правой части предыдущего уравнения, что меняет знак, когда число случайных величин нечетное. (И в этом случае выражение с одной переменной становится отрицательным значением энтропии.) Обратите внимание, что

независимость Многомерная статистическая

Многомерные функции взаимной информации обобщают случай попарной независимости, который утверждает, что если и только если , к произвольной многочисленной переменной. n переменных взаимно независимы тогда и только тогда, когда функции взаимной информации исчезают с (теорема 2 [15] ). В этом смысле может использоваться как уточненный критерий статистической независимости.

Приложения [ править ]

Для трех переменных Brenner et al. применил многомерную взаимную информацию к нейронному кодированию и назвал ее негативность «синергией». [16] и Уоткинсон и др. применил его к генетическому выражению. [17] Для произвольных k переменных Tapia et al. применил многомерную взаимную информацию к экспрессии генов. [18] [15] Оно может быть нулевым, положительным или отрицательным. [14] Положительное значение соответствует отношениям, обобщающим парные корреляции, нулевое значение соответствует уточненному понятию независимости, а отрицательное значение обнаруживает многомерные «новые» отношения и кластеризованные точки данных. [18] ).

Было обнаружено, что одна схема многомерного обобщения, которая максимизирует взаимную информацию между совместным распределением и другими целевыми переменными, полезна при выборе признаков . [19]

Взаимная информация также используется в области обработки сигналов как мера сходства между двумя сигналами. Например, метрика FMI [20] — это показатель производительности объединения изображений, который использует взаимную информацию для измерения объема информации, содержащейся в объединенном изображении об исходных изображениях. Код Matlab для этой метрики можно найти по адресу. [21] Доступен пакет Python для вычисления всей многомерной взаимной информации, условной взаимной информации, совместной энтропии, общих корреляций, информационного расстояния в наборе данных из n переменных. [22]

Направленная информация [ править ]

Направленная информация , , измеряет количество информации, поступающей от процесса к , где обозначает вектор и обозначает . Термин « направленная информация» был придуман Джеймсом Мэсси и определяется как

.

Обратите внимание, что если , направленная информация становится взаимной информацией. Направленная информация имеет множество применений в задачах, где причинно-следственная связь играет важную роль, например, пропускная способность канала с обратной связью. [23] [24]

Нормализованные варианты [ править ]

Нормализованные варианты взаимной информации обеспечиваются коэффициентами ограничения , [25] коэффициент неопределенности [26] или умение: [27]

Два коэффициента имеют значения в пределах [0, 1], но не обязательно равны. Эта мера не симметрична. Если кто-то желает симметричной меры, он может рассмотреть следующую меру избыточности :

который достигает минимума нуля, когда переменные независимы, и максимального значения

когда одна переменная становится совершенно избыточной при знании другой. См. также Избыточность (теория информации) .

Другой симметричной мерой является симметричная неопределенность ( Witten & Frank 2005 ), определяемая формулой

которое представляет собой среднее гармоническое двух коэффициентов неопределенности . [26]

Если мы рассматриваем взаимную информацию как частный случай полной корреляции или двойной полной корреляции , нормализованная версия соответственно равна

и

Эта нормализованная версия, также известная как коэффициент качества информации (IQR) , определяет количество информации о переменной на основе другой переменной с учетом полной неопределенности: [28]

Есть нормализация [29] который вытекает из первоначального рассмотрения взаимной информации как аналога ковариации (таким образом, энтропия Шеннона аналогична дисперсии ). Затем рассчитывается нормализованная взаимная информация, аналогичная коэффициенту корреляции Пирсона ,

Взвешенные варианты [ править ]

В традиционной формулировке взаимной информации

каждое событие или объект , указанный взвешивается соответствующей вероятностью . Это предполагает, что все объекты или события эквивалентны, за исключением вероятности их возникновения. Однако в некоторых приложениях может случиться так, что определенные объекты или события более значимы , чем другие, или что определенные шаблоны ассоциаций более семантически важны, чем другие.

Например, детерминированное отображение можно рассматривать как более сильное, чем детерминированное отображение , хотя эти отношения дадут одну и ту же взаимную информацию. Это происходит потому, что взаимная информация совершенно не чувствительна к какому-либо внутреннему порядку значений переменных ( Cronbach 1954 , Coombs, Dawes & Tversky 1970 , Lockhead 1970 ) и, следовательно, совершенно не чувствительна к форме реляционного отображения между связанные переменные. Если желательно, чтобы первое отношение, показывающее согласие по всем значениям переменных, оценивалось сильнее, чем более позднее отношение, то можно использовать следующую взвешенную взаимную информацию ( Guiasu 1977 ).

что накладывает вес от вероятности совместного появления значений каждой переменной, . Это позволяет некоторым вероятностям иметь большее или меньшее значение, чем другие, тем самым позволяя количественно оценить соответствующие целостные факторы или факторы Прегнанца . В приведенном выше примере использование больших относительных весов для , , и будет иметь эффект оценки большей информативности отношения чем для отношения , что может быть желательно в некоторых случаях распознавания образов и т.п. Эта взвешенная взаимная информация представляет собой форму взвешенной KL-дивергенции, которая, как известно, принимает отрицательные значения для некоторых входных данных. [30] и есть примеры, когда взвешенная взаимная информация также принимает отрицательные значения. [31]

взаимная информация Скорректированная

Распределение вероятностей можно рассматривать как часть множества . Тогда можно задаться вопросом: если бы множество было разделено случайным образом, каково было бы распределение вероятностей? Какова будет ожидаемая ценность взаимной информации? Скорректированная взаимная информация или AMI вычитает математическое ожидание MI, так что AMI равен нулю, когда два разных распределения являются случайными, и единице, когда два распределения идентичны. AMI определяется по аналогии с скорректированным индексом Рэнда двух разных разделов набора.

Абсолютная взаимная информация [ править ]

Используя идеи колмогоровской сложности , можно рассматривать взаимную информацию двух последовательностей независимо от какого-либо распределения вероятностей:

Установить, что эта величина симметрична с точностью до логарифмического множителя ( ) требуется цепное правило для колмогоровской сложности ( Li & Vitány 1997 ). Аппроксимация этой величины посредством сжатия может использоваться для определения меры расстояния для выполнения иерархической кластеризации последовательностей без каких-либо знаний предметной области последовательностей ( Cilibrasi & Vitány 2005 ).

Линейная корреляция

В отличие от коэффициентов корреляции, таких как коэффициент корреляции момента произведения , взаимная информация содержит информацию обо всех зависимостях — линейных и нелинейных, а не только о линейной зависимости, как измеряет коэффициент корреляции. Однако в узком случае, когда совместное распределение и является двумерным нормальным распределением (подразумевается, в частности, что оба маргинальных распределения нормально распределены), существует точная связь между и коэффициент корреляции ( Гельфанд и Яглом 1957 ).

Приведенное выше уравнение для двумерной гауссианы можно вывести следующим образом:

Поэтому,

Для дискретных данных [ править ]

Когда и ограничены дискретным числом состояний, данные наблюдения суммируются в таблице непредвиденных обстоятельств с переменной строки (или ) и переменная столбца (или ). Взаимная информация — это одна из мер связи или корреляции между переменными строки и столбца.

Другие меры связи включают статистику критерия хи-квадрат Пирсона , статистику G-теста и т. д. Фактически, при той же логарифмической базе взаимная информация будет равна логарифмической статистике правдоподобия G-теста , разделенной на , где это размер выборки.

Приложения [ править ]

Во многих приложениях требуется максимизировать взаимную информацию (таким образом увеличивая зависимости), что часто эквивалентно минимизации условной энтропии . Примеры включают в себя:

где это количество раз, когда биграмма xy появляется в корпусе, — это количество раз, когда униграмма x появляется в корпусе, B — общее количество биграмм, а U — общее количество униграмм. [32]

См. также [ править ]

Примечания [ править ]

  1. ^ Обложка, Томас М.; Томас, Джой А. (2005). Элементы теории информации (PDF) . John Wiley & Sons, Ltd., стр. 13–55. ISBN  9780471748823 .
  2. ^ Креер, Дж. Г. (1957). «Вопрос терминологии». IRE Транзакции по теории информации . 3 (3): 208. doi : 10.1109/TIT.1957.1057418 .
  3. ^ Перейти обратно: а б с Обложка, ТМ; Томас, Дж. А. (1991). Элементы теории информации (изд. Уайли). Джон Уайли и сыновья. ISBN  978-0-471-24195-9 .
  4. ^ Янссен, Джозеф; Гуан, Винсент; Робева, Элина (2023). «Сверхпредельная важность признаков: обучение на основе данных с причинно-следственными гарантиями» . Международная конференция по искусственному интеллекту и статистике : 10782–10814. arXiv : 2204.09938 .
  5. ^ Вулперт, Д.Х.; Вольф, ДР (1995). «Оценочные функции вероятностных распределений по конечному набору выборок». Физический обзор E . 52 (6): 6841–6854. Бибкод : 1995PhRvE..52.6841W . CiteSeerX   10.1.1.55.7122 . дои : 10.1103/PhysRevE.52.6841 . ПМИД   9964199 . S2CID   9795679 .
  6. ^ Хаттер, М. (2001). «Распространение взаимной информации». Достижения в области нейронных систем обработки информации .
  7. ^ Арчер, Э.; Парк, ИМ; Подушка, Дж. (2013). «Байесовские и квазибайесовские средства оценки взаимной информации из дискретных данных» . Энтропия . 15 (12): 1738–1755. Бибкод : 2013Entrp..15.1738A . CiteSeerX   10.1.1.294.4690 . дои : 10.3390/e15051738 .
  8. ^ Вулперт, Д.Х.; ДеДео, С. (2013). «Оценочные функции распределений, определенных в пространствах неизвестного размера» . Энтропия . 15 (12): 4668–4699. arXiv : 1311.4548 . Бибкод : 2013Entrp..15.4668W . дои : 10.3390/e15114668 . S2CID   2737117 .
  9. ^ Томаш Йетка; Кароль Ниенальтовский; Томаш Винарски; Славомир Блонский; Михал Коморовски (2019), «Информационный теоретический анализ многомерных одноклеточных сигнальных ответов», PLOS Computational Biology , 15 (7): E1007132, ARXIV : 1808.05581 , Bibcode : 2019plscb..15e7132j , doi : 10.1371/journal.pcbi. 1007132 , ПМК   6655862 , ПМИД   31299056
  10. ^ Райски, К. (1961). «Метрическое пространство дискретных распределений вероятностей». Информация и контроль . 4 (4): 371–377. дои : 10.1016/S0019-9958(61)80055-7 .
  11. ^ Красков, Александр; Стёгбауэр, Харальд; Анджейак, Ральф Г.; Грассбергер, Питер (2003). «Иерархическая кластеризация на основе взаимной информации». arXiv : q-bio/0311039 . Бибкод : 2003q.bio....11039K . {{cite journal}}: Для цитирования журнала требуется |journal= ( помощь )
  12. ^ Райски, К. (1961). «Метрическое пространство дискретных распределений вероятностей». Информация и контроль . 4 (4): 371–377. дои : 10.1016/S0019-9958(61)80055-7 .
  13. ^ МакГилл, В. (1954). «Многовариантная передача информации». Психометрика . 19 (1): 97–116. дои : 10.1007/BF02289159 . S2CID   126431489 .
  14. ^ Перейти обратно: а б Ху, КТ (1962). «Об объеме информации». Теория вероятностей. Приложение . 7 (4): 439–447. дои : 10.1137/1107041 .
  15. ^ Перейти обратно: а б Бодо, П.; Тапиа, М.; Беннекен, Д.; Гоайяр, JM (2019). «Анализ топологической информации» . Энтропия . 21 (9). 869. arXiv : 1907.04242 . Бибкод : 2019Entrp..21..869B . дои : 10.3390/e21090869 . ПМЦ   7515398 . S2CID   195848308 .
  16. ^ Бреннер, Н.; Стронг, С.; Коберле, Р.; Бялек, В. (2000). «Синергия в нейронном коде». Нейронный компьютер . 12 (7): 1531–1552. дои : 10.1162/089976600300015259 . ПМИД   10935917 . S2CID   600528 .
  17. ^ Уоткинсон, Дж.; Лян, К.; Ван, X.; Чжэн, Т.; Анастасиу, Д. (2009). «Вывод о регуляторных взаимодействиях генов на основе данных экспрессии с использованием трехсторонней взаимной информации». Чэлл. Сист. Биол. Анна. Н-Й акад. Наука . 1158 (1): 302–313. Бибкод : 2009NYASA1158..302W . дои : 10.1111/j.1749-6632.2008.03757.x . ПМИД   19348651 . S2CID   8846229 .
  18. ^ Перейти обратно: а б Тапиа, М.; Бодо, П.; Формизано-Трезины, К.; Дюфур, М.; Гоайяр, JM (2018). «Идентификация нейротрансмиттера и электрофизиологический фенотип генетически связаны в дофаминергических нейронах среднего мозга» . наук. Представитель . 8 (1): 13637. Бибкод : 2018NatSR...813637T . дои : 10.1038/s41598-018-31765-z . ПМК   6134142 . ПМИД   30206240 .
  19. ^ Кристофер Д. Мэннинг; Прабхакар Рагхаван; Хинрих Шютце (2008). Введение в поиск информации . Издательство Кембриджского университета . ISBN  978-0-521-86571-5 .
  20. ^ Хагигат, MBA; Агаголзаде, А.; Сейедараби, Х. (2011). «Неэталонный показатель объединения изображений, основанный на взаимной информации об особенностях изображения». Компьютеры и электротехника . 37 (5): 744–756. дои : 10.1016/j.compeleceng.2011.07.012 . S2CID   7738541 .
  21. ^ «Метрика Feature Mutual Information (FMI) для слияния неэталонных изображений - Обмен файлами - MATLAB Central» . www.mathworks.com . Проверено 4 апреля 2018 г.
  22. ^ «InfoTopo: Анализ данных топологической информации. Глубокое статистическое обучение без и с учителем — Обмен файлами — Github» . github.com/pierrebaudot/infotopopy/ . Проверено 26 сентября 2020 г.
  23. ^ Мэсси, Джеймс (1990). «Причинность, обратная связь и направленная информация». Учеб. 1990 Международный. Симп. на Инфо. Т.е. и его приложения, Вайкики, Гавайи, 27-30 ноября 1990 г. CiteSeerX   10.1.1.36.5688 .
  24. ^ Пермутер, Хаим Генри; Вайсман, Цахи; Голдсмит, Андреа Дж. (февраль 2009 г.). «Каналы конечных состояний с инвариантной во времени детерминированной обратной связью». Транзакции IEEE по теории информации . 55 (2): 644–662. arXiv : cs/0608070 . дои : 10.1109/TIT.2008.2009849 . S2CID   13178 .
  25. ^ Кумбс, Дауэс и Тверски 1970 .
  26. ^ Перейти обратно: а б Пресс, WH; Теукольский, С.А.; Феттерлинг, WT; Фланнери, BP (2007). «Раздел 14.7.3. Условная энтропия и взаимная информация» . Численные рецепты: искусство научных вычислений (3-е изд.). Нью-Йорк: Издательство Кембриджского университета. ISBN  978-0-521-88068-8 . Архивировано из оригинала 11 августа 2011 г. Проверено 13 августа 2011 г.
  27. ^ Уайт, Джим; Стейнгольд, Сэм; Фурнель, Конни. Показатели производительности алгоритмов группового обнаружения (PDF) . Интерфейс 2004. Архивировано из оригинала (PDF) 5 июля 2016 г. Проверено 19 февраля 2014 г.
  28. ^ Виджая, Деди Рахман; Сарно, Рианарто; Зулайка, Энни (2017). «Коэффициент качества информации как новый показатель для выбора исходного вейвлета». Хемометрика и интеллектуальные лабораторные системы . 160 : 59–71. дои : 10.1016/j.chemolab.2016.11.012 .
  29. ^ Штрель, Александр; Гош, Джойдип (2003). «Кластерные ансамбли — структура повторного использования знаний для объединения нескольких разделов» (PDF) . Журнал исследований машинного обучения . 3 : 583–617. дои : 10.1162/153244303321897735 .
  30. ^ Кволсет, Т.О. (1991). «Относительная мера полезной информации: некоторые комментарии». Информационные науки . 56 (1): 35–38. дои : 10.1016/0020-0255(91)90022-м .
  31. ^ Покок, А. (2012). Выбор функций с помощью совместного правдоподобия (PDF) (Диссертация).
  32. ^ Перейти обратно: а б Анализ естественного языка с использованием статистики взаимной информации Дэвид М. Магерман и Митчелл П. Маркус
  33. ^ Хью Эверетта Теория универсальной волновой функции , диссертация, Принстонский университет, (1956, 1973), стр. 1–140 (стр. 30).
  34. ^ Эверетт, Хью (1957). «Формулировка относительного состояния квантовой механики» . Обзоры современной физики . 29 (3): 454–462. Бибкод : 1957РвМП...29..454Е . дои : 10.1103/revmodphys.29.454 . Архивировано из оригинала 27 октября 2011 г. Проверено 16 июля 2012 г.
  35. ^ Николетти, Джорджо; Бузиелло, Даниэль Мария (22 ноября 2021 г.). «Взаимная информация отделяет взаимодействие от меняющейся среды» . Письма о физических отзывах . 127 (22): 228301. arXiv : 2107.08985 . Бибкод : 2021PhRvL.127v8301N . doi : 10.1103/PhysRevLett.127.228301 . ПМИД   34889638 . S2CID   236087228 .
  36. ^ Николетти, Джорджо; Бузиелло, Даниэль Мария (29 июля 2022 г.). «Взаимная информация в меняющейся среде: нелинейные взаимодействия, неравновесные системы и постоянно меняющаяся диффузия» . Физический обзор E . 106 (1): 014153. arXiv : 2204.01644 . дои : 10.1103/PhysRevE.106.014153 .
  37. ^ GlobalMIT в Google Code
  38. ^ Ли, Се Юн (2021). «Сэмплер Гиббса и вариационный вывод по координатному восхождению: теоретико-множественный обзор». Коммуникации в статистике - теория и методы . 51 (6): 1549–1568. arXiv : 2008.01006 . дои : 10.1080/03610926.2021.1921214 . S2CID   220935477 .
  39. ^ Киз, Дастин; Холиков, Шукур; Певцов, Алексей А. (февраль 2015 г.). «Применение методов взаимной информации в дистанционной гелиосейсмологии». Солнечная физика . 290 (3): 659–671. arXiv : 1501.05597 . Бибкод : 2015SoPh..290..659K . дои : 10.1007/s11207-015-0650-y . S2CID   118472242 .
  40. ^ Инвариантная кластеризация информации для неконтролируемой классификации и сегментации изображений, авторы Сюй Цзи, Жоао Энрикес и Андреа Ведальди.
  41. ^ Николетти, Джорджо; Бузиелло, Даниэль Мария (08 апреля 2024 г.). «Распространение информации в многоуровневых системах с взаимодействиями высшего порядка во временных масштабах» . Физический обзор X . 14 (2): 021007. arXiv : 2312.06246 . дои : 10.1103/PhysRevX.14.021007 .

Ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: E63B82F0908FB4BE14AF35F9FA59BF5B__1718326740
URL1:https://en.wikipedia.org/wiki/Mutual_information
Заголовок, (Title) документа по адресу, URL1:
Mutual information - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)