Jump to content

Информация о взаимодействии

Диаграмма Венна теоретико-информационных мер для трех переменных x, y и z, представленных нижним левым, нижним правым и верхним кружками соответственно. Информация о взаимодействии представлена ​​серой областью и является единственной, которая может быть отрицательной.

Информация о взаимодействии представляет собой обобщение взаимной информации для более чем двух переменных.

Существует много названий информации о взаимодействии, включая количество информации , [1] корреляция информации , [2] совместная информация , [3] и просто взаимная информация . [4] Информация о взаимодействии выражает количество информации (избыточности или синергии), связанной с набором переменных, помимо той, которая присутствует в любом подмножестве этих переменных. В отличие от взаимной информации, информация взаимодействия может быть как положительной, так и отрицательной. Эти функции, их отрицательность и минимумы имеют прямую интерпретацию в алгебраической топологии . [5]

Определение

[ редактировать ]

Условную взаимную информацию можно использовать для индуктивного определения информации о взаимодействии для любого конечного числа переменных следующим образом:

где

Некоторые авторы [6] определите информацию о взаимодействии по-другому, поменяв местами два члена, вычитаемые в предыдущем уравнении. Это приводит к изменению знака для нечетного числа переменных.

Для трех переменных , информация о взаимодействии дается

где это взаимная информация между переменными и , и условная взаимная информация между переменными и данный . Информация о взаимодействии симметрична , поэтому не имеет значения, какая переменная обусловлена. Это легко увидеть, если информация о взаимодействии записана в терминах энтропии и совместной энтропии следующим образом:

В общем случае для набора переменных , информацию о взаимодействии можно записать в следующем виде (сравните с приближением Кирквуда ):

Для трех переменных информация о взаимодействии измеряет влияние переменной. от объема информации, передаваемой между и . Потому что термин может быть больше, чем Информация о взаимодействии может быть как отрицательной, так и положительной. Это произойдет, например, когда и независимы, но не условно независимы, учитывая . Информация о положительном взаимодействии указывает на то, что переменная подавляет (т.е. объясняет или частично объясняет ) корреляцию между и , тогда как информация об отрицательном взаимодействии указывает на то, что переменная облегчает или усиливает корреляцию.

Характеристики

[ редактировать ]

Информация о взаимодействии ограничена. В случае трех переменных он ограничен [4]

Если три переменные образуют цепь Маркова , затем , но . Поэтому

Информация о позитивном взаимодействии

[ редактировать ]

Информация о положительном взаимодействии кажется гораздо более естественной, чем информация об отрицательном взаимодействии, в том смысле, что такие объяснительные эффекты типичны для структур общей причины. Например, облака вызывают дождь и закрывают солнце; следовательно, корреляция между дождем и темнотой частично объясняется наличием облаков, . Результатом является информация о положительном взаимодействии. .

Информация о негативном взаимодействии

[ редактировать ]

Двигатель автомобиля может не запуститься из-за разряженного аккумулятора или заблокированного топливного насоса. Обычно мы предполагаем, что выход из строя аккумулятора и блокировка топливного насоса являются независимыми событиями. . Но зная, что машина не заводится, если проверка показывает, что аккумулятор исправен, можно сделать вывод, что топливный насос должен быть заблокирован. Поэтому , и результатом является информация об отрицательном взаимодействии.

Сложность интерпретации

[ редактировать ]

Возможная негативность информации о взаимодействии может стать источником некоторой путаницы. [3] Многие авторы воспринимают информацию об отсутствии взаимодействия как признак того, что три или более случайных величин не взаимодействуют, но эта интерпретация неверна. [7]

Чтобы увидеть, насколько сложной может быть интерпретация, рассмотрим набор из восьми независимых двоичных переменных. . Агломерируйте эти переменные следующим образом:

Потому что перекрывают друг друга (избыточны) по трем двоичным переменным , мы ожидаем, что информация о взаимодействии равняться биты, что он и делает. Однако рассмотрим теперь агломерированные переменные

Это те же переменные, что и раньше, с добавлением . Однако, в данном случае фактически равно бит, указывающий на меньшую избыточность. Это правильно в том смысле, что

но это по-прежнему трудно интерпретировать.

Использование

[ редактировать ]
  • Якулин и Братко (2003b) предлагают алгоритм машинного обучения, использующий информацию о взаимодействии.
  • Киллиан, Кравиц и Гилсон (2007) используют взаимное информационное расширение для получения оценок энтропии из молекулярного моделирования. [8]
  • ЛеВайн и Вайнштейн (2014) используют информацию о взаимодействии и другие информационные меры N-тел для количественной оценки аллостерических связей в молекулярном моделировании. [9]
  • Мур и др. (2006), Чанда П., Чжан А., Бразо Д., Сучестон Л., Фрейденхайм Дж.Л., Амброзон С., Раманатан М. (2007) и Чанда П., Сучестон Л., Чжан А., Бразо Д., Фрейденхайм Дж.Л., Амброзон С., Раманатан М. (2008) демонстрируют использование информации о взаимодействии для анализа взаимодействий ген-ген и ген-среда, связанных со сложными заболеваниями.
  • Панди и Саркар (2017) используют информацию о взаимодействии в космологии для изучения влияния крупномасштабной среды на свойства галактик.
  • Доступен пакет Python для вычисления всех многомерных взаимодействий или взаимной информации, условной взаимной информации, совместной энтропии, общих корреляций, информационного расстояния в наборе данных из n переменных. [10]


См. также

[ редактировать ]
  1. ^ Тин, Ху Го (январь 1962 г.). «Об объеме информации» . Теория вероятностей и ее приложения . 7 (4): 439–447. дои : 10.1137/1107041 . ISSN   0040-585X .
  2. ^ Вольф, Дэвид (1 мая 1996 г.). Обобщение взаимной информации как информации между множеством переменных: иерархия функций корреляции информации и информационная структура многоагентных систем (Технический отчет). Исследовательский центр Эймса НАСА.
  3. ^ Jump up to: а б Белл, Энтони (2003). Решетка коинформации . 4-й Межд. Симп. Независимый анализ компонентов и слепое разделение источников.
  4. ^ Jump up to: а б Юнг, RW (май 1991 г.). «Новый взгляд на информационные меры Шеннона» . Транзакции IEEE по теории информации . 37 (3): 466–474. дои : 10.1109/18.79902 . ISSN   0018-9448 .
  5. ^ Бодо, Пьер; Беннекен, Дэниел (13 мая 2015 г.). «Гомологическая природа энтропии» . Энтропия . 17 (5): 3253–3318. Бибкод : 2015Entrp..17.3253B . дои : 10.3390/e17053253 . ISSN   1099-4300 .
  6. ^ Макгилл, Уильям Дж. (июнь 1954 г.). «Многомерная передача информации» . Психометрика . 19 (2): 97–116. дои : 10.1007/bf02289159 . ISSN   0033-3123 . S2CID   126431489 .
  7. ^ Криппендорф, Клаус (август 2009 г.). «Информация о взаимодействиях в сложных системах» . Международный журнал общих систем . 38 (6): 669–680. дои : 10.1080/03081070902993160 . ISSN   0308-1079 . S2CID   13923485 .
  8. ^ Киллиан, Бенджамин Дж.; Юнденфренд Кравиц, Джослин; Гилсон, Майкл К. (14 июля 2007 г.). «Извлечение конфигурационной энтропии из молекулярного моделирования с помощью приближения расширения» . Журнал химической физики . 127 (2): 024107. Бибкод : 2007JChPh.127b4107K . дои : 10.1063/1.2746329 . ISSN   0021-9606 . ПМК   2707031 . ПМИД   17640119 .
  9. ^ ЛеВайн, Майкл В.; Перес-Агилар, Хосе Мануэль; Вайнштейн, Харель (18 июня 2014 г.). «Теория информации N-тел (NbIT) Анализ динамики твердых тел во внутриклеточной петле 2 рецептора 5-HT2A». arXiv : 1406.4730 [ q-bio.BM ].
  10. ^ «InfoTopo: Анализ данных топологической информации. Глубокое статистическое обучение без и с учителем — Обмен файлами — Github» . github.com/pierrebaudot/infotopopy/ . Проверено 26 сентября 2020 г.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: f97d0165c031a160e7bfcae107d7f6cb__1722213300
URL1:https://arc.ask3.ru/arc/aa/f9/cb/f97d0165c031a160e7bfcae107d7f6cb.html
Заголовок, (Title) документа по адресу, URL1:
Interaction information - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)