Информация о взаимодействии
Информация о взаимодействии представляет собой обобщение взаимной информации для более чем двух переменных.
Существует много названий информации о взаимодействии, включая количество информации , [1] корреляция информации , [2] совместная информация , [3] и просто взаимная информация . [4] Информация о взаимодействии выражает количество информации (избыточности или синергии), связанной с набором переменных, помимо той, которая присутствует в любом подмножестве этих переменных. В отличие от взаимной информации, информация взаимодействия может быть как положительной, так и отрицательной. Эти функции, их отрицательность и минимумы имеют прямую интерпретацию в алгебраической топологии . [5]
Определение
[ редактировать ]Условную взаимную информацию можно использовать для индуктивного определения информации о взаимодействии для любого конечного числа переменных следующим образом:
где
Некоторые авторы [6] определите информацию о взаимодействии по-другому, поменяв местами два члена, вычитаемые в предыдущем уравнении. Это приводит к изменению знака для нечетного числа переменных.
Для трех переменных , информация о взаимодействии дается
где это взаимная информация между переменными и , и – условная взаимная информация между переменными и данный . Информация о взаимодействии симметрична , поэтому не имеет значения, какая переменная обусловлена. Это легко увидеть, если информация о взаимодействии записана в терминах энтропии и совместной энтропии следующим образом:
В общем случае для набора переменных , информацию о взаимодействии можно записать в следующем виде (сравните с приближением Кирквуда ):
Для трех переменных информация о взаимодействии измеряет влияние переменной. от объема информации, передаваемой между и . Потому что термин может быть больше, чем Информация о взаимодействии может быть как отрицательной, так и положительной. Это произойдет, например, когда и независимы, но не условно независимы, учитывая . Информация о положительном взаимодействии указывает на то, что переменная подавляет (т.е. объясняет или частично объясняет ) корреляцию между и , тогда как информация об отрицательном взаимодействии указывает на то, что переменная облегчает или усиливает корреляцию.
Характеристики
[ редактировать ]Информация о взаимодействии ограничена. В случае трех переменных он ограничен [4]
Если три переменные образуют цепь Маркова , затем , но . Поэтому
Примеры
[ редактировать ]Информация о позитивном взаимодействии
[ редактировать ]Информация о положительном взаимодействии кажется гораздо более естественной, чем информация об отрицательном взаимодействии, в том смысле, что такие объяснительные эффекты типичны для структур общей причины. Например, облака вызывают дождь и закрывают солнце; следовательно, корреляция между дождем и темнотой частично объясняется наличием облаков, . Результатом является информация о положительном взаимодействии. .
Информация о негативном взаимодействии
[ редактировать ]Двигатель автомобиля может не запуститься из-за разряженного аккумулятора или заблокированного топливного насоса. Обычно мы предполагаем, что выход из строя аккумулятора и блокировка топливного насоса являются независимыми событиями. . Но зная, что машина не заводится, если проверка показывает, что аккумулятор исправен, можно сделать вывод, что топливный насос должен быть заблокирован. Поэтому , и результатом является информация об отрицательном взаимодействии.
Сложность интерпретации
[ редактировать ]Этот раздел может сбивать с толку или быть неясным для читателей . ( июнь 2023 г. ) |
Возможная негативность информации о взаимодействии может стать источником некоторой путаницы. [3] Многие авторы воспринимают информацию об отсутствии взаимодействия как признак того, что три или более случайных величин не взаимодействуют, но эта интерпретация неверна. [7]
Чтобы увидеть, насколько сложной может быть интерпретация, рассмотрим набор из восьми независимых двоичных переменных. . Агломерируйте эти переменные следующим образом:
Потому что перекрывают друг друга (избыточны) по трем двоичным переменным , мы ожидаем, что информация о взаимодействии равняться биты, что он и делает. Однако рассмотрим теперь агломерированные переменные
Это те же переменные, что и раньше, с добавлением . Однако, в данном случае фактически равно бит, указывающий на меньшую избыточность. Это правильно в том смысле, что
но это по-прежнему трудно интерпретировать.
Использование
[ редактировать ]- Якулин и Братко (2003b) предлагают алгоритм машинного обучения, использующий информацию о взаимодействии.
- Киллиан, Кравиц и Гилсон (2007) используют взаимное информационное расширение для получения оценок энтропии из молекулярного моделирования. [8]
- ЛеВайн и Вайнштейн (2014) используют информацию о взаимодействии и другие информационные меры N-тел для количественной оценки аллостерических связей в молекулярном моделировании. [9]
- Мур и др. (2006), Чанда П., Чжан А., Бразо Д., Сучестон Л., Фрейденхайм Дж.Л., Амброзон С., Раманатан М. (2007) и Чанда П., Сучестон Л., Чжан А., Бразо Д., Фрейденхайм Дж.Л., Амброзон С., Раманатан М. (2008) демонстрируют использование информации о взаимодействии для анализа взаимодействий ген-ген и ген-среда, связанных со сложными заболеваниями.
- Панди и Саркар (2017) используют информацию о взаимодействии в космологии для изучения влияния крупномасштабной среды на свойства галактик.
- Доступен пакет Python для вычисления всех многомерных взаимодействий или взаимной информации, условной взаимной информации, совместной энтропии, общих корреляций, информационного расстояния в наборе данных из n переменных. [10]
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Тин, Ху Го (январь 1962 г.). «Об объеме информации» . Теория вероятностей и ее приложения . 7 (4): 439–447. дои : 10.1137/1107041 . ISSN 0040-585X .
- ^ Вольф, Дэвид (1 мая 1996 г.). Обобщение взаимной информации как информации между множеством переменных: иерархия функций корреляции информации и информационная структура многоагентных систем (Технический отчет). Исследовательский центр Эймса НАСА.
- ^ Jump up to: а б Белл, Энтони (2003). Решетка коинформации . 4-й Межд. Симп. Независимый анализ компонентов и слепое разделение источников.
- ^ Jump up to: а б Юнг, RW (май 1991 г.). «Новый взгляд на информационные меры Шеннона» . Транзакции IEEE по теории информации . 37 (3): 466–474. дои : 10.1109/18.79902 . ISSN 0018-9448 .
- ^ Бодо, Пьер; Беннекен, Дэниел (13 мая 2015 г.). «Гомологическая природа энтропии» . Энтропия . 17 (5): 3253–3318. Бибкод : 2015Entrp..17.3253B . дои : 10.3390/e17053253 . ISSN 1099-4300 .
- ^ Макгилл, Уильям Дж. (июнь 1954 г.). «Многомерная передача информации» . Психометрика . 19 (2): 97–116. дои : 10.1007/bf02289159 . ISSN 0033-3123 . S2CID 126431489 .
- ^ Криппендорф, Клаус (август 2009 г.). «Информация о взаимодействиях в сложных системах» . Международный журнал общих систем . 38 (6): 669–680. дои : 10.1080/03081070902993160 . ISSN 0308-1079 . S2CID 13923485 .
- ^ Киллиан, Бенджамин Дж.; Юнденфренд Кравиц, Джослин; Гилсон, Майкл К. (14 июля 2007 г.). «Извлечение конфигурационной энтропии из молекулярного моделирования с помощью приближения расширения» . Журнал химической физики . 127 (2): 024107. Бибкод : 2007JChPh.127b4107K . дои : 10.1063/1.2746329 . ISSN 0021-9606 . ПМК 2707031 . ПМИД 17640119 .
- ^ ЛеВайн, Майкл В.; Перес-Агилар, Хосе Мануэль; Вайнштейн, Харель (18 июня 2014 г.). «Теория информации N-тел (NbIT) Анализ динамики твердых тел во внутриклеточной петле 2 рецептора 5-HT2A». arXiv : 1406.4730 [ q-bio.BM ].
- ^ «InfoTopo: Анализ данных топологической информации. Глубокое статистическое обучение без и с учителем — Обмен файлами — Github» . github.com/pierrebaudot/infotopopy/ . Проверено 26 сентября 2020 г.
- Бодо, П.; Беннекен, Д. (2015). «Гомологическая природа энтропии» (PDF) . Энтропия . 17 (5): 1–66. Бибкод : 2015Entrp..17.3253B . дои : 10.3390/e17053253 .
- Белл, А.Дж. (2003), Решетка коинформации [1]
- Фано, Р.М. (1961), Передача информации: статистическая теория коммуникаций , MIT Press, Кембридж, Массачусетс.
- Гарнер В.Р. (1962). Неопределенность и структура как психологические концепции , JohnWiley & Sons, Нью-Йорк.
- Хан, ТС (1978). «Неотрицательные энтропийные меры многомерных симметричных корреляций» . Информация и контроль . 36 (2): 133–156. дои : 10.1016/s0019-9958(78)90275-9 .
- Хан, ТС (1980). «Множественная взаимная информация и множественные взаимодействия в частотных данных» . Информация и контроль . 46 : 26–45. дои : 10.1016/s0019-9958(80)90478-7 .
- Ху Го Тин (1962), О количестве информации. Теория вероятностей. Приложение, 7(4), 439-44. PDF
- Якулин А и Братко И (2003а). Анализ зависимостей атрибутов, в Н. Лавре\quad{c}, Д. Гамбергер, Л. Тодоровски и Х. Блокил, ред., Труды 7-й Европейской конференции по принципам и практике обнаружения знаний в базах данных , Springer, Цавтат-Дубровник, Хорватия, стр. 229–240.
- Якулин А и Братко И (2003b). Количественная оценка и визуализация взаимодействия атрибутов [2] .
- Марголин А; Ван, К; Калифано, А; Неменман, И (2010). «Многомерная зависимость и вывод генетических сетей». ИЭПП Сист Биол . 4 (6): 428–440. arXiv : 1001.1681 . дои : 10.1049/iet-syb.2010.0009 . ПМИД 21073241 . S2CID 14280921 .
- Макгилл, WJ (1954). «Многовариантная передача информации». Психометрика . 19 (2): 97–116. дои : 10.1007/bf02289159 . S2CID 126431489 .
- Мур Дж.Х., Гилберт Дж.К., Цай КТ, Чан Ф.Т., Холден Т., Барни Н., Уайт BC (2006). Гибкая вычислительная система для обнаружения, характеристики и интерпретации статистических закономерностей эпистаза в генетических исследованиях восприимчивости человека к болезням, Журнал теоретической биологии 241 , 252-261. [3]
- Неменман I (2004). Теория информации, многомерная зависимость и вывод генетических сетей [4] .
- Перл, Дж. (1988), Вероятностное рассуждение в интеллектуальных системах: сети правдоподобного вывода , Морган Кауфманн, Сан-Матео, Калифорния.
- Цуджишита, Т. (1995), О тройной взаимной информации, Достижения прикладной математики 16 , 269–274.
- Чанда, П; Чжан, А; Бразо, Д; Сучестон, Л; Фройденхайм, JL; Амброзон, С; Раманатан, М. (2007). «Информационные метрики для визуализации взаимодействий генов и окружающей среды» . Американский журнал генетики человека . 81 (5): 939–63. дои : 10.1086/521878 . ПМК 2265645 . ПМИД 17924337 .
- Чанда, П; Сучестон, Л; Чжан, А; Бразо, Д; Фройденхайм, JL; Амброзон, С; Раманатан, М. (2008). «АМБИЕНС: новый подход и эффективный алгоритм для выявления информативных генетических и экологических ассоциаций со сложными фенотипами» . Генетика . 180 (2): 1191–210. дои : 10.1534/genetics.108.088542 . ПМЦ 2567367 . ПМИД 18780753 .
- Киллиан, Би Джей; Кравиц, JY; Гилсон, МК (2007). «Извлечение конфигурационной энтропии из молекулярного моделирования с помощью приближения расширения» . Дж. Хим. Физ . 127 (2): 024107. Бибкод : 2007JChPh.127b4107K . дои : 10.1063/1.2746329 . ПМК 2707031 . ПМИД 17640119 .
- Левин М.В., Вайнштейн Х. (2014), NbIT - Анализ аллостерических механизмов, основанный на новой теории информации, выявляет остатки, которые лежат в основе функции переносчика лейцина LeuT. PLoS Вычислительная биология . [5]
- Пандей, Бисваджит; Саркар, Суман (2017). «Как много галактика знает о своей крупномасштабной среде?: Теоретико-информационный взгляд» . Ежемесячные уведомления о письмах Королевского астрономического общества . 467 (1): Л6. arXiv : 1611.00283 . Бибкод : 2017MNRAS.467L...6P . дои : 10.1093/mnrasl/slw250 . S2CID 119095496 .
- https://www3.nd.edu/~jnl/ee80653/Fall2005/tutorials/sunil.pdf
- Юнг Р.В. (1992). Новый взгляд на информационные меры Шеннона. в области транзакций IEEE по теории информации. [6]