Энтропийный вектор
Энтропийный вектор или энтропийная функция — понятие, возникающее в теории информации . Он представляет возможные значения Шеннона информационной энтропии , которые могут принимать подмножества одного набора случайных величин. Понимание того, какие векторы являются энтропийными, — это способ представить все возможные неравенства между энтропиями различных подмножеств. Например, для любых двух случайных величин , их совместная энтропия (энтропия случайной величины, представляющей пару ) не более чем сумма энтропий и из :
Другие меры теории информации, такие как условная информация , взаимная информация или полная корреляция , могут быть выражены через совместную энтропию и, таким образом, связаны соответствующими неравенствами.Многие неравенства, которым удовлетворяют энтропийные векторы, могут быть получены как линейные комбинации нескольких основных неравенств, называемых неравенствами типа Шеннона .Однако доказано, что уже для переменных, никакого конечного набора линейных неравенств недостаточно, чтобы охарактеризовать все энтропийные векторы.
Определение
[ редактировать ]Шеннона Информационная энтропия случайной величины обозначается .Для кортежа случайных величин , мы обозначаем совместную энтропию подмножества как или, более кратко, как , где . Здесь можно понимать как случайную величину, представляющую кортеж .Для пустого подмножества , обозначает детерминированную переменную с энтропией 0.
Вектор h в индексируется подмножествами называется энтропийным вектором порядка если существует кортеж случайных величин такой, что для каждого подмножества .
Набор всех энтропийных векторов порядка обозначается .Чжан и Юнг [1] доказано, что оно не замкнуто (ибо ), но его закрытие , , является выпуклым конусом и, следовательно, характеризуется (бесконечным множеством) линейными неравенствами, которым он удовлетворяет.Описание региона таким образом, эквивалентно описанию всех возможных неравенств относительно совместных энтропий.
Пример
[ редактировать ]Пусть X , Y — две независимые случайные величины с дискретным равномерным распределением по множеству . Затем
(поскольку каждый из них равномерно распределен по набору из двух элементов) и
(поскольку две переменные независимы, что означает, что пара равномерно распределен по .)Таким образом, соответствующий энтропийный вектор:
С другой стороны, вектор не является энтропийным (т. ), поскольку любая пара случайных величин (независимых или нет) должна удовлетворять .
Характеризующие энтропийные векторы: область Γ n *
[ редактировать ]Неравенства типа Шеннона и Γ n
[ редактировать ]Для кортежа случайных величин , их энтропии удовлетворяют:
- , для любого
В частности, , для любого .
Неравенство Шеннона утверждает, что энтропийный вектор субмодулярен :
- , для любого
Это эквивалентно неравенству, утверждающему, что условная взаимная информация неотрицательна:
(Для одного направления обратите внимание на то, что последняя форма выражает неравенство Шеннона для подмножеств и кортежа ; для другого направления замените , , ).
Многие неравенства могут быть получены как линейные комбинации неравенств Шеннона; они называются неравенствами типа Шеннона или базовыми информационными неравенствами информационных мер Шеннона. [2] Множество векторов, удовлетворяющее им, называется ; он содержит .
Разработано программное обеспечение для автоматизации задачи доказательства неравенств типа Шеннона. [3] [4] Учитывая неравенство, такое программное обеспечение способно определить, является ли данное неравенство допустимым неравенством типа Шеннона (т. е. содержит ли оно конус ).
Неравенства нешенноновского типа
[ редактировать ]Вопрос о том, являются ли неравенства типа Шеннона единственными, то есть полностью ли они характеризуют регион , впервые спросил Тэ Су Хань в 1981 году. [2] а точнее Николасом Пиппенджером в 1986 году. [5] Нетрудно показать, что это верно для двух переменных, т. е. .Для трех переменных Чжан и Юнг [1] доказал, что ; однако это по-прежнему асимптотически верно, а это означает, что замыкание равно: .В 1998 году Чжан и Юнг [2] [6] показал, что для всех , доказав, что следующее неравенство для четырех случайных величин (с точки зрения условной взаимной информации) верно для любого энтропийного вектора, но не относится к типу Шеннона:
Были найдены дальнейшие неравенства и бесконечные семейства неравенств. [7] [8] [9] [10] Эти неравенства определяют внешние границы лучше, чем граница типа Шеннона .В 2007 году Матус доказал, что никакого конечного набора линейных неравенств недостаточно (чтобы вывести все как линейные комбинации), поскольку переменные. Другими словами, регион не является многогранником. [11] Можно ли их охарактеризовать каким-либо другим способом (позволяющим эффективно решить, является ли вектор энтропийным или нет), остается открытой проблемой.
аналогичные вопросы для энтропии фон Неймана в квантовой теории информации . Рассмотрены [12]
Внутренние границы
[ редактировать ]Некоторые внутренние границы также известны.Одним из примеров является то, что содержит все векторы в которые дополнительно удовлетворяют следующему неравенству (и полученному перестановкой переменных), известному как неравенство Инглтона для энтропии : [13]
Энтропия и группы
[ редактировать ]Группово-характеризуемые векторы и квазиравномерные распределения
[ редактировать ]Рассмотрим группу и подгруппы из .Позволять обозначать для ; это тоже подгруппа .Можно построить распределение вероятностей для случайные величины такой, что
- . [14]
(Конструкция по существу принимает элемент из равномерно случайным образом и позволяет быть соответствующим смежным классом ). Таким образом, любое теоретико-информационное неравенство подразумевает теоретико-групповое неравенство. Например, основное неравенство подразумевает, что
Оказывается, по сути верно обратное. Точнее, вектор называется группово-характеризуемым, если его можно получить из набора подгрупп, как указано выше.Множество группохарактеризуемых векторов обозначается .Как было сказано выше, .С другой стороны, (и таким образом ) содержится в топологическом замыкании выпуклого замыкания . [15] Другими словами, линейное неравенство справедливо для всех энтропийных векторов тогда и только тогда, когда оно справедливо для всех векторов формы , где перебирает подмножества некоторого набора подгрупп в группе .
Группово-характеризуемые векторы, происходящие из абелевой группы, удовлетворяют неравенству Инглтона.
Колмогоровская сложность
[ редактировать ]Колмогоровская сложность удовлетворяет по существу тем же неравенствам, что и энтропия.А именно, обозначим колмогоровскую сложность конечной строки как (то есть длина самой короткой программы, которая выводит ).Совместная сложность двух струн , определяемый как сложность кодирования пары , можно обозначить .Аналогично условную сложность можно обозначить (длина самой короткой программы, которая выводит данный ). Андрей Колмогоров заметил, что эти понятия ведут себя аналогично энтропии Шеннона, например:
В 2000 году Хаммер и др. [16] доказал, что действительно неравенство справедливо для энтропийных векторов тогда и только тогда, когда соответствующее неравенство в терминах колмогоровской сложности выполняется с точностью до логарифмических членов для всех наборов строк.
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Jump up to: а б Чжан, З.; Юнг, RW (1997). «Условное неравенство нешенноновского типа в количестве информации». IEEE Транс. Инф. Теория . 43 (6): 1982–1986. дои : 10.1109/18.641561 .
- ^ Jump up to: а б с д Чжан, З.; Юнг, RW (1998). «О характеризации функции энтропии через информационные неравенства». IEEE Транс. Инф. Теория . 44 (4): 1440–1452. дои : 10.1109/18.681320 .
- ^ Юнг, RW; Ян, Ю (1996). «ITIP - Теоретико-информационное средство доказательства неравенства» .
- ^ Пуликкунатту, Р.; Э.Перрон, Э.; С.Диггави, С. (2007). «Xitip - Доказательство теоретико-информационного неравенства» .
- ^ Кацед, Тарик (2013). Эквивалентность двух методов доказательства неравенств нешенноновского типа . Международный симпозиум IEEE по теории информации, 2013 г. arXiv : 1302.2994 .
- ^ Юнг. Первый курс теории информации . Теорема 14.7.
- ^ Догерти, Р.; Фрейлинг, К. ; Зегер, К. (2006). Шесть новых нешенноновских информационных неравенств . 2006 Международный симпозиум IEEE по теории информации.
- ^ Матус, Ф. (1999). «Условная независимость четырех случайных величин III: Окончательный вывод». Комбинаторика, теория вероятностей и вычисления . 8 (3): 269–276. дои : 10.1017/s0963548399003740 . S2CID 121634597 .
- ^ Макарычев К.; и др. (2002). «Новый класс неравенств нешенноновского типа для энтропий» . Коммуникации в информации и системах . 2 (2): 147–166. дои : 10.4310/cis.2002.v2.n2.a3 .
- ^ Чжан, З. (2003). «О новом информационном неравенстве нешенноновского типа» . Коммуникации в информации и системах . 3 (1): 47–60. doi : 10.4310/cis.2003.v3.n1.a4 .
- ^ Матус, Ф. (2007). Бесконечно множество информационных неравенств . 2007 Международный симпозиум IEEE по теории информации.
- ^ Линден; Зима (2005). «Новое неравенство для энтропии фон Неймана». Коммун. Математика. Физ . 259 (1): 129–138. arXiv : Quant-ph/0406162 . Бибкод : 2005CMaPh.259..129L . дои : 10.1007/s00220-005-1361-2 . S2CID 13279358 .
- ^ Юнг. Первый курс теории информации , с. 386
- ^ Юнг. Первый курс теории информации . Теорема 16.16.
- ^ Юнг. Первый курс теории информации . Теорема 16.22.
- ^ Молоток; Ромащенко; Шен; Верещагин (2000). «Неравенства для энтропии Шеннона и колмогоровской сложности» . Журнал компьютерных и системных наук . 60 (2): 442–464. дои : 10.1006/jcss.1999.1677 .
- Томас М. Ковер, Джой А. Томас. Элементы теории информации Нью-Йорк: Wiley, 1991. ISBN 0-471-06259-6
- Рэймонд Юнг. Первый курс теории информации , Глава 12, Информационное неравенство , 2002, Печать ISBN 0-306-46791-7