Информационный контент
Эту статью может потребовать очистки Википедии , чтобы она соответствовала стандартам качества . Конкретная проблема: неясная терминология. ( июнь 2017 г. ) |
В теории информации , содержание информации самоинформация , неожиданность или информация Шеннона — это базовая величина, полученная из вероятности того, что конкретное событие произойдет из- за случайной величины . Его можно рассматривать как альтернативный способ выражения вероятности, очень похожий на шансы или логарифм шансов , но имеющий особые математические преимущества в рамках теории информации.
Информацию Шеннона можно интерпретировать как количественную оценку уровня «неожиданности» конкретного результата. Поскольку это такая базовая величина, она также появляется в некоторых других параметрах, таких как длина сообщения, необходимая для передачи события, при оптимальном исходном кодировании случайной величины.
Информация Шеннона тесно связана с энтропией , которая представляет собой ожидаемое значение собственной информации случайной величины, определяющее, насколько удивительна случайная величина «в среднем». Это среднее количество информации, которую наблюдатель ожидает получить о случайной величине при ее измерении. [1]
Информационное содержание может быть выражено в различных единицах информации , из которых наиболее распространенным является «бит» (более формально называемый шенноном ) , как поясняется ниже.
Термин «недоумение» использовался в языковом моделировании для количественной оценки неопределенности, присущей набору предполагаемых событий.
Определение
[ редактировать ]Клодом Шенноном Определение самоинформации, данное , было выбрано с учетом нескольких аксиом:
- Событие с вероятностью 100% совершенно неудивительно и не несет никакой информации.
- Чем менее вероятно событие, тем оно удивительнее и тем больше информации оно дает.
- Если два независимых события измеряются отдельно, общий объем информации представляет собой сумму самоинформации отдельных событий.
Подробный вывод приведен ниже, но можно показать, что существует уникальная функция вероятности, которая соответствует этим трем аксиомам, с точностью до мультипликативного масштабного коэффициента. В общих чертах, учитывая действительное число и событие с вероятностью , информационное содержание определяется следующим образом:
База b соответствует коэффициенту масштабирования, указанному выше. Разный выбор b соответствует разным единицам информации: когда b = 2 , единицей является шеннон (символ Sh), часто называемый «битом»; когда b = e , единицей является естественная единица информации (символ nat); а когда b = 10 , единицей измерения является Хартли (символ Харт).
Формально, учитывая дискретную случайную величину с функцией массы вероятности , самоинформация об измерении как результат определяется как [2]
Использование обозначений для самостоятельной информации, приведенной выше, не является универсальным. Поскольку обозначения также часто используется для обозначения количества взаимной информации , многие авторы используют строчную букву вместо этого ради самоэнтропии, отражая использование капитала для энтропии.
Характеристики
[ редактировать ]Этот раздел нуждается в расширении . Вы можете помочь, добавив к нему . ( октябрь 2018 г. ) |
Монотонно убывающая функция вероятности
[ редактировать ]Для данного вероятностного пространства измерение более редких событий интуитивно более «неожиданно» и дает больше информации, чем более распространенные значения. Таким образом, самоинформация представляет собой строго убывающую монотонную функцию вероятности, которую иногда называют «антитонной» функцией.
В то время как стандартные вероятности представлены действительными числами в интервале , собственная информация представлена расширенными действительными числами в интервале . В частности, для любого выбора логарифмического основания имеем следующее:
- Если определенное событие имеет 100% вероятность наступления, то его самоинформация равна : его появление «совершенно неудивительно» и не дает никакой информации.
- Если вероятность возникновения конкретного события равна 0%, то его самоинформация равна : его возникновение «бесконечно удивительно».
Отсюда мы можем получить несколько общих свойств:
- Интуитивно, больше информации можно получить, наблюдая за неожиданным событием — оно «удивительно».
- Например, если , составляет один на миллион вероятность того, что Алиса выиграет в лотерею , ее друг Боб получит значительно больше информации, узнав, что она выиграла , чем о том, что она проиграла в определенный день. (См. также Математика лотереи .)
- Это устанавливает неявную связь между самоинформацией случайной величины и ее дисперсией .
Связь с логарифмом шансов
[ редактировать ]Информация Шеннона тесно связана с логарифмом шансов . В частности, при некотором событии , предположим, что это вероятность происходит, и это это вероятность не происходит. Тогда у нас есть следующее определение логарифмических шансов:
Это можно выразить как разность двух данных Шеннона:
Другими словами, логарифм шансов можно интерпретировать как уровень неожиданности, когда событие не происходит, минус уровень неожиданности, когда событие все же происходит.
Аддитивность независимых событий
[ редактировать ]Информативность двух независимых событий представляет собой сумму информативности каждого события. Это свойство известно как аддитивность в математике и сигма-аддитивность, в частности, в теории меры и вероятности. Рассмотрим две независимые случайные величины с функциями вероятностной массы и соответственно. Совместная функция массы вероятности равна
потому что и независимы . Информативность результата является См. § Два независимых, одинаково распределенных кубика пример в ниже.
Соответствующее свойство правдоподобия состоит в том, что логарифмическая вероятность независимых событий представляет собой сумму логарифмических вероятностей каждого события. Интерпретируя логарифмическую правдоподобность как «поддержку» или отрицательную неожиданность (степень, в которой событие поддерживает данную модель: модель поддерживается событием в той степени, в которой событие не является неожиданным, учитывая модель), это означает, что независимые события добавляют поддержка: информация, которую эти два события вместе предоставляют для статистических выводов, представляет собой сумму их независимой информации.
Связь с энтропией
[ редактировать ]Энтропия Шеннона случайной величины выше определяется как по определению равна ожидаемой информативности измерения . [3] : 11 [4] : 19–20 Ожидание принимается по дискретным значениям, а не по его поддержке .
Иногда саму энтропию называют «самоинформацией» случайной величины, возможно, потому, что энтропия удовлетворяет условию , где это информация взаимная с самим собой. [5]
Для непрерывных случайных величин соответствующим понятием является дифференциальная энтропия .
Примечания
[ редактировать ]Эту меру также называют неожиданностью , поскольку она представляет собой « неожиданность » результата (весьма маловероятный результат очень удивителен). Этот термин (как логарифмическая мера вероятности) был введен Майроном Трибусом в его книге «Термостатика и термодинамика» 1961 года . [6] [7]
Когда событие представляет собой случайную реализацию (переменной), самоинформация переменной определяется как ожидаемое значение самоинформации реализации.
Самоинформация является примером правильного правила подсчета очков . [ нужны разъяснения ]
Примеры
[ редактировать ]Честный подбрасывание монеты
[ редактировать ]Рассмотрим процесс Бернулли, когда бросали честную монету. . Вероятности событий выпадения монеты орлом и решка (см. честную монету , аверс и реверс ) составляют по половине каждая, . При измерении переменной в виде голов соответствующий прирост информации равен таким образом, информационный выигрыш от честного выпадения монеты орлом составляет 1 шеннон . [2] Аналогично, выигрыш в информации от измерения хвостов является
Честный бросок кубика
[ редактировать ]Предположим, у нас есть честная шестигранная игральная кость . Значение броска игральной кости представляет собой дискретную однородную случайную величину. с функцией массы вероятности Вероятность выпадения 4 равна , как и любой другой действительный бросок. Информационное содержание выпадения 4, таким образом, информации.
Два независимых, одинаково распределенных кубика
[ редактировать ]Предположим, у нас есть две независимые, одинаково распределенные случайные величины. каждый соответствует независимому справедливому 6-стороннему броску кубиков. Совместное распространение и является
Информационное содержание случайной величины является а также может быть рассчитано по аддитивности событий
Информация о частоте рулонов
[ редактировать ]Если мы получаем информацию о значении игральной кости, не зная, какая игральная кость имела какое значение, мы можем формализовать подход с помощью так называемых счетных переменных. для , затем и значения имеют полиномиальное распределение
Чтобы убедиться в этом, 6 исходов соответствовать событию и полная вероятность 1 / 6 . Это единственные события, которые достоверно сохранены с идентичностью того, какие игральные кости были брошены и какой результат, потому что результаты одинаковы. Без знания, чтобы отличить кости, бросающие другие числа, другие комбинации соответствуют тому, что на одной игральной кости выбрасывается одно число, а на другой — другое число, каждая из которых имеет вероятность 1/18 . Действительно, , как требуется.
Неудивительно, что информативность знания о том, что на обоих кубиках выпало одно и то же число, превышает информативность знания того, что на одном кубике было одно число, а на другом — другое. Возьмем для примера события и для . Например, и .
Информационное содержание
Позволять быть событием, когда на обеих игральных костях выпало одинаковое значение и быть событием, когда игральные кости разошлись. Затем и . Информационное содержание мероприятий
Информация из суммы кубиков
[ редактировать ]Вероятностная масса или функция плотности (совместно вероятностная мера ) суммы двух независимых случайных величин представляет собой свертку каждой вероятностной меры . В случае независимых честных бросков шестигранных игральных костей случайная величина имеет функцию массы вероятности , где представляет собой дискретную свертку . Результат имеет вероятность . Таким образом, заявленная информация является
Общее дискретное равномерное распределение
[ редактировать ]Обобщая приведенный выше пример § Справедливого броска игральной кости , рассмотрим общую дискретную равномерную случайную величину (DURV). Для удобства определим . Функция массы вероятности равна В общем, значения DURV не обязательно должны быть целыми числами или, для целей теории информации, даже равномерно распределенными; они должны быть только равновероятными . [2] Прирост информации от любого наблюдения является
Особый случай: постоянная случайная величина
[ редактировать ]Если выше, вырождается в постоянную случайную величину с детерминированным распределением вероятностей, определяемым формулой и вероятностная мера – мера Дирака . Единственная ценность можно принять, это детерминировано , поэтому информативность любого измерения является Как правило, в результате измерения известной величины информация не получена. [2]
Категориальное распределение
[ редактировать ]Обобщая все вышеперечисленные случаи, рассмотрим категориальную дискретную случайную величину с носителем и функция массы вероятности, определяемая выражением
Для целей теории информации значения не обязательно должны быть числа ; это могут быть любые взаимоисключающие события в пространстве меры конечной меры к , нормализованном вероятностной мере. . Без ограничения общности можно предположить, что категориальное распределение поддерживается на множестве ; математическая структура изоморфна с точки зрения теории вероятностей и, следовательно, теории информации .
Информация о результате дан
Из этих примеров можно вычислить информацию любого набора независимых DRV с известными распределениями по аддитивности .
Вывод
[ редактировать ]По определению, информация передается от исходного объекта, обладающего информацией, к принимающему объекту только в том случае, если получатель не знал эту информацию априори . Если принимающий объект заранее знал содержание сообщения до получения сообщения, объем информации полученного сообщения равен нулю. Только когда предварительное знание содержания сообщения получателем менее чем на 100% достоверно, сообщение действительно передает информацию.
Например, цитируя персонажа (Хиппи Диппи Метеоролог) комика Джорджа Карлина :
Прогноз погоды на сегодня: темно. Ночью продолжалась темнота, а к утру свет был широко рассеян. [8]
Если предположить, что человек не проживает вблизи полярных регионов , объем информации, передаваемой в этом прогнозе, равен нулю, поскольку еще до получения прогноза известно, что с ночью всегда приходит темнота.
Соответственно, количество собственной информации, содержащейся в сообщении, передающем контент, информирующий о возникновении события , , зависит только от вероятности этого события.
для какой-то функции будет определено ниже. Если , затем . Если , затем .
Кроме того, по определению мера самоинформации неотрицательна и аддитивна. Если сообщение, информирующее о событии это пересечение двух независимых событий и , то информация о событии происходящее представляет собой составное сообщение обоих независимых событий и происходит. Количество информации составного сообщения ожидается, что оно будет равно сумме объемов информации отдельных компонентных сообщений. и соответственно:
Из-за независимости событий и , вероятность события является
Однако, применяя функцию приводит к
Благодаря работе над функциональным уравнением Коши , единственные монотонные функции иметь такое имущество, что являются логарифма функциями . Единственное функциональное различие между логарифмами разных оснований заключается в разных масштабных константах, поэтому мы можем предположить
где это натуральный логарифм . Поскольку вероятности событий всегда находятся в диапазоне от 0 до 1, а информация, связанная с этими событиями, должна быть неотрицательной, для этого требуется, чтобы .
Учитывая эти свойства, самоинформация связанный с результатом с вероятностью определяется как:
Чем меньше вероятность события , тем больше количество внутренней информации, связанной с сообщением о том, что событие действительно произошло. Если приведенный выше логарифм имеет основание 2, единица измерения это Шеннон . Это наиболее распространенная практика. При использовании натурального логарифма по основанию , единицей будет nat . Для логарифма по основанию 10 единицей информации является хартли .
В качестве быстрой иллюстрации: информационное содержание, связанное с выпадением 4 орлов (или любого конкретного результата) при 4 последовательных бросках монеты, будет равно 4 шеннонам (вероятность 1/16), а информационное содержание, связанное с получением результата, отличного от указанный будет ~ 0,09 Шеннона (вероятность 15/16). Подробные примеры смотрите выше.
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Джонс, Д.С., Элементарная теория информации , Vol., Clarendon Press, Oxford, стр. 11–15, 1979 г.
- ^ Jump up to: Перейти обратно: а б с д МакМахон, Дэвид М. (2008). Объяснение квантовых вычислений . Хобокен, Нью-Джерси: Wiley-Interscience. ISBN 9780470181386 . OCLC 608622533 .
- ^ Борда, Моника (2011). Основы теории информации и кодирования . Спрингер. ISBN 978-3-642-20346-6 .
- ^ Хан, Те Сун; Кобаяши, Кинго (2002). Математика информации и кодирования . Американское математическое общество. ISBN 978-0-8218-4256-0 .
- ^ Томас М. Кавер, Джой А. Томас; Элементы теории информации; п. 20; 1991.
- ^ Р.Б. Бернштейн и Р.Д. Левин (1972) «Энтропия и химические изменения. I. Характеристика распределения энергии продукта (и реагента) в реактивных молекулярных столкновениях: дефицит информации и энтропии», Журнал химической физики 57 , 434–449, ссылка .
- ^ Майрон Трибус (1961) Термодинамика и термостатика: введение в энергию, информацию и состояния материи с инженерными приложениями (Д. Ван Ностранд, 24 West 40 Street, Нью-Йорк 18, Нью-Йорк, США) Трибус, Майрон (1961) , стр. 64–66 заимствовать .
- ^ «Цитата Джорджа Карлина» . www.goodreads.com . Проверено 01 апреля 2021 г.
Дальнейшее чтение
[ редактировать ]- CE Шеннон , Математическая теория связи , Технический журнал Bell Systems , Vol. 27, стр. 379–423, (Часть I), 1948.