Теория информации
Теория информации |
---|
Теория информации это математическое исследование количественного определения , хранения и передачи информации – . Эта область была основана и поставлена на прочную основу Клодом Шенноном в 1940-х годах. [1] хотя ранний вклад был сделан в 1920-х годах благодаря работам Гарри Найквиста и Ральфа Хартли . Он находится на стыке электронной инженерии , математики , статистики , информатики , нейробиологии , физики и электротехники . [2]
Ключевой мерой в теории информации является энтропия . Энтропия количественно определяет степень неопределенности, связанную со значением случайной величины или результатом случайного процесса . Например, определение результата честного подбрасывания монеты (который имеет два одинаково вероятных исхода) дает меньше информации (более низкая энтропия, меньшая неопределенность), чем определение результата броска игральной кости ( который имеет шесть одинаково вероятных исходов). Некоторыми другими важными показателями в теории информации являются взаимная информация , пропускная способность канала , показатели ошибок и относительная энтропия . Важные подобласти теории информации включают исходное кодирование , теорию алгоритмической сложности , алгоритмическую теорию информации и теоретико-информационную безопасность .
Приложения фундаментальных тем теории информации включают исходное кодирование/ сжатие данных (например, для ZIP-файлов ) и канальное кодирование/ обнаружение и исправление ошибок (например, для DSL ). Его влияние имело решающее значение для успеха миссий «Вояджера» в глубокий космос, изобретения компакт-дисков , возможности мобильных телефонов и развития Интернета. [2] Теория нашла применение в других областях, включая статистический вывод , [3] криптография , нейробиология , [4] восприятие , [5] лингвистика, эволюция [6] и функция [7] молекулярных кодов ( биоинформатика ), теплофизика , [8] молекулярная динамика , [9] квантовые вычисления , черные дыры , поиск информации , сбор разведывательной информации , обнаружение плагиата , [10] распознавание образов , обнаружение аномалий , [11] проектирование системы визуализации, [12] эпистемология , [13] и даже художественное творчество.
Обзор
[ редактировать ]Теория информации изучает передачу, обработку, извлечение и использование информации. Абстрактно информацию можно рассматривать как разрешение неопределенности. В случае передачи информации по зашумленному каналу эта абстрактная концепция была формализована в 1948 году Клодом Шенноном в статье под названием «Математическая теория связи» , в которой информация рассматривается как набор возможных сообщений, а цель состоит в том, чтобы отправлять эти сообщения по зашумленному каналу и заставить получателя восстановить сообщение с низкой вероятностью ошибки, несмотря на шум канала. Главный результат Шеннона, теорема кодирования шумного канала , показал, что в пределе многих использований канала скорость передачи информации, которая асимптотически достижима, равна пропускной способности канала, величине, зависящей просто от статистики канала, по которому осуществляется передача информации. сообщения отправляются. [4]
Теория кодирования занимается поиском явных методов, называемых кодами , для повышения эффективности и снижения частоты ошибок при передаче данных по зашумленным каналам до уровня, близкого к пропускной способности канала. Эти коды можно грубо разделить на методы сжатия данных (исходное кодирование) и исправления ошибок (канальное кодирование). В последнем случае потребовалось много лет, чтобы найти методы, которые доказала работа Шеннона. [ нужна ссылка ]
Третий класс кодов теории информации — это криптографические алгоритмы (как коды , так и шифры ). Концепции, методы и результаты теории кодирования и теории информации широко используются в криптографии и криптоанализе , такие как запрет единиц . [ нужна ссылка ]
Историческая справка
[ редактировать ]Знаковым событием, заложившим дисциплину теории информации и привлекшим к ней немедленное внимание всего мира, стала публикация классической статьи Клода Э. Шеннона «Математическая теория связи» в техническом журнале Bell System в июле и октябре 1948 года. Он стал известен как «отец теории информации». [14] [15] [16] Шеннон изложил некоторые из своих первоначальных идей теории информации еще в 1939 году в письме Ванневару Бушу . [16]
До этой статьи в Bell Labs были разработаны ограниченные идеи теории информации , все они неявно предполагали, что события имеют равную вероятность. Статья Гарри Найквиста 1924 года « Определённые факторы, влияющие на скорость телеграфа » содержит теоретический раздел, определяющий количественные «интеллекты» и «скорость линии», с которой они могут передаваться по системе связи, давая соотношение W = K log m (напоминая Больцмана константа ), где W — скорость передачи разведданных, m — количество различных уровней напряжения, из которых можно выбирать на каждом временном шаге, а K — константа. В статье Ральфа Хартли 1928 года «Передача информации » слово « информация» используется как измеримая величина, отражающая способность получателя отличать одну последовательность символов от любой другой, таким образом выражая информацию количественно как H = log S. н = n log S , где S — количество возможных символов, а n — количество символов в передаче. Таким образом, единицей информации была десятичная цифра , которую с тех пор иногда называли хартли в его честь как единицу, масштаб или меру информации. Алан Тьюринг в 1940 году использовал аналогичные идеи в рамках статистического анализа взлома немецких шифров «Энигмы» времен Второй мировой войны . [ нужна ссылка ]
Большая часть математики, лежащей в основе теории информации с событиями различной вероятности, была разработана для области термодинамики Людвигом Больцманом и Дж. Уиллардом Гиббсом . Связи между теоретико-информационной энтропией и термодинамической энтропией, включая важные вклады Рольфа Ландауэра в 1960-х годах, исследуются в книге «Энтропия в термодинамике и теории информации» . [ нужна ссылка ]
В революционной и новаторской статье Шеннона, работа над которой была в основном завершена в Bell Labs к концу 1944 года, Шеннон впервые представил качественную и количественную модель коммуникации как статистического процесса, лежащего в основе теории информации, начиная с утверждения:
- «Фундаментальная проблема коммуникации заключается в воспроизведении в одной точке, точно или приблизительно, сообщения, выбранного в другой точке».
Вместе с ним пришли идеи
- информационная энтропия и избыточность источника, а также его актуальность посредством теоремы о кодировании источника ;
- взаимная информация и пропускная способность зашумленного канала, включая обещание идеальной связи без потерь, данное теоремой кодирования зашумленного канала;
- практический результат закона Шеннона-Хартли для пропускной способности гауссова канала ; а также
- бит — новый способ увидеть самую фундаментальную единицу информации. [ нужна ссылка ]
Количество информации
[ редактировать ]Теория информации основана на теории вероятностей и статистике, где количественная информация обычно описывается в битах. Теория информации часто занимается мерами информации о распределениях, связанных со случайными величинами. Одна из наиболее важных мер называется энтропией, которая составляет основу многих других мер. Энтропия позволяет количественно оценить меру информации в одной случайной величине. [17] Другая полезная концепция — это взаимная информация, определенная для двух случайных величин, которая описывает меру общей информации между этими переменными, которую можно использовать для описания их корреляции. Первая величина является свойством распределения вероятностей случайной величины и дает предел скорости, с которой данные, сгенерированные независимыми выборками с заданным распределением, могут быть надежно сжаты. Последнее является свойством совместного распределения двух случайных величин и представляет собой максимальную скорость надежной связи по зашумленному каналу в пределе больших длин блоков, когда статистика канала определяется совместным распределением.
Выбор логарифмической основы в следующих формулах определяет единицу используемую информационной энтропии. Общепринятой единицей информации является бит, основанный на двоичном логарифме . Другие единицы включают nat , который основан на натуральном логарифме , и десятичную цифру , которая основана на десятичном логарифме .
Далее выражение вида p log p по соглашению считается равным нулю всякий раз, когда p = 0 . Это оправдано, поскольку для любого логарифмического основания.
Энтропия источника информации
[ редактировать ]На основе функции массы вероятности каждого передаваемого исходного символа энтропия Шеннона H в единицах битов (на символ) определяется выражением
где p i - вероятность появления i -го возможного значения исходного символа. Это уравнение дает энтропию в единицах «бит» (на символ), поскольку в нем используется логарифм по основанию 2, и эту меру энтропии по основанию 2 иногда называют шенноном в его честь. Энтропия также обычно вычисляется с использованием натурального логарифма (по основанию e , где e — число Эйлера), что позволяет измерить энтропию в натсах на символ и иногда упрощает анализ, избегая необходимости включать в формулы дополнительные константы. Возможны и другие основания, но они используются реже. Например, логарифм по основанию 2 8 = 256 будет производить измерение в байтах на символ, а логарифм по основанию 10 будет производить измерение в десятичных цифрах (или хартли ) на символ.
Интуитивно понятно, что энтропия H X дискретной случайной величины X является мерой степени неопределенности, связанной со значением X, когда известно только ее распределение.
Энтропия источника, который излучает последовательность из N символов, независимых и одинаково распределенных (iid), равна N ⋅ H битов (на сообщение из N символов). но не независимы, энтропия сообщения длины N будет меньше N ⋅ H. Если символы исходных данных одинаково распределены ,
Если кто-то передает 1000 бит (0 и 1), и значение каждого из этих битов известно получателю (имеет определенное значение с уверенностью) до передачи, ясно, что никакая информация не передается. Однако если каждый бит независимо равновероятно равен 0 или 1, то было передано 1000 элементов информации (чаще называемых битами). Между этими двумя крайностями информацию можно количественно оценить следующим образом. Если — это набор всех сообщений { x 1 , ..., x n }, которыми X может быть , а p ( x ) — это вероятность некоторого , то энтропия H X : определяется [18]
(Здесь I ( x ) — это самоинформация , которая представляет собой энтропийный вклад отдельного сообщения, и — ожидаемое значение .) Свойством энтропии является то, что она максимизируется, когда все сообщения в пространстве сообщений равновероятны p ( x ) = 1/ n ; т. е. наиболее непредсказуемо, и в этом случае H ( X ) = log n .
Особым случаем информационной энтропии для случайной величины с двумя исходами является двоичная функция энтропии, обычно принимаемая к логарифмическому основанию 2, таким образом, в качестве единицы измерения используется шеннон (Sh):
Совместная энтропия
[ редактировать ]Совместная энтропия двух дискретных случайных величин X и Y — это просто энтропия их пары: ( X , Y ) . Это означает, что если X и Y независимы , то их совместная энтропия равна сумме их индивидуальных энтропий.
Например, если ( X , Y ) представляет положение шахматной фигуры — X — строку, а Y — столбец, то совместная энтропия строки фигуры и столбца фигуры будет энтропией положения шахматной фигуры. кусок.
Несмотря на схожие обозначения, совместную энтропию не следует путать с перекрестной энтропией .
Условная энтропия (двусмысленность)
[ редактировать ]Условная энтропия или условная неопределенность X ( с учетом случайной величины Y также называемая X относительно Y Y ) — это средняя условная энтропия по двусмысленностью : [19]
Поскольку энтропия может быть обусловлена случайной величиной или тем, что эта случайная величина имеет определенное значение, следует проявлять осторожность, чтобы не путать эти два определения условной энтропии, первое из которых используется чаще. Основное свойство этой формы условной энтропии заключается в том, что:
Взаимная информация (трансинформация)
[ редактировать ]Взаимная информация измеряет количество информации, которую можно получить об одной случайной величине, наблюдая за другой. Это важно в коммуникации, где его можно использовать для максимизации объема информации, разделяемой между отправленными и полученными сигналами. Взаимная информация X относительно Y определяется следующим образом:
где SI ( специфическая взаимная информация) — это поточечная взаимная информация .
Основное свойство взаимной информации состоит в том, что
То есть, зная Y , мы можем сохранить в среднем I ( X ; Y ) бит при кодировании X с незнанием Y. по сравнению
Взаимная информация симметрична :
Взаимная информация может быть выражена как среднее расхождение Кульбака – Лейблера (прирост информации) между учетом значения апостериорным распределением вероятностей X Y и априорным распределением X с :
Другими словами, это мера того, насколько в среднем изменится распределение вероятностей по X если нам дать значение Y. , Это часто пересчитывается как расхождение произведения предельных распределений к фактическому совместному распределению:
Взаимная информация тесно связана с тестом логарифмического отношения правдоподобия в контексте таблиц сопряженности и полиномиального распределения , а также с критерием Пирсона χ 2 тест : взаимная информация может рассматриваться как статистика для оценки независимости между парой переменных и имеет четко определенное асимптотическое распределение.
Расхождение Кульбака – Лейблера (прирост информации)
[ редактировать ]Дивергенция Кульбака -Лейблера (или информационная дивергенция , прирост информации или относительная энтропия ) — это способ сравнения двух распределений: «истинное» распределение вероятностей и произвольное распределение вероятностей . Если мы сжимаем данные таким образом, что предполагается — это распределение, лежащее в основе некоторых данных, тогда как на самом деле — правильное распределение, расхождение Кульбака–Лейблера — это среднее количество дополнительных бит на единицу данных, необходимое для сжатия. Таким образом определяется
Хотя дивергенция KL иногда используется как «метрика расстояния», она не является истинной метрикой , поскольку она не симметрична и не удовлетворяет неравенству треугольника (что делает ее полуквазиметрикой).
Другая интерпретация расхождения KL — это «ненужный сюрприз», внесенный априорным отличием от истины: предположим, что число X собирается быть выбрано случайным образом из дискретного набора с распределением вероятностей . Если Алиса знает истинное распределение , в то время как Боб считает (имеет априорное значение ), что распределение больше , то Боб в среднем удивится , чем Алиса, увидев значение X . Дивергенция KL — это (объективное) ожидаемое значение (субъективного) сюрприза Боба минус сюрприз Алисы, измеренное в битах, если журнал находится в базе 2. Таким образом, степень, в которой априорное значение Боба «неправильно», можно выразить количественно в терминах о том, как «ненужно удивлюсь» его это ожидает.
Направленная информация
[ редактировать ]Направленная информация , , является мерой теории информации, которая количественно определяет поток информации от случайного процесса к случайному процессу . Термин «направленная информация» был придуман Джеймсом Мэсси и определяется как
- ,
где это условная взаимная информация .
В отличие от взаимной информации, направленная информация не симметрична. измеряет биты информации, которые передаются причинно [определение причинно-следственной передачи?] от к . Направленная информация имеет множество применений в задачах, где причинно-следственная связь играет важную роль, например, пропускная способность канала с обратной связью, [20] [21] емкость дискретных безпамяти сетей с обратной связью, [22] азартные игры с причинно-следственной информацией, [23] сжатие причинно-следственной информации, [24] и в настройках связи управления в реальном времени , [25] [26] статистическая физика. [27]
Другие количества
[ редактировать ]Другие важные теоретические величины информации включают энтропию Реньи и энтропию Тсаллиса (обобщения концепции энтропии), дифференциальную энтропию (обобщение количеств информации до непрерывных распределений) и условную взаимную информацию . Кроме того, прагматическая информация была предложена в качестве меры того, сколько информации было использовано при принятии решения.
Теория кодирования
[ редактировать ]Теория кодирования — одно из наиболее важных и прямых приложений теории информации. Ее можно разделить на теорию исходного кодирования и теорию канального кодирования. Используя статистическое описание данных, теория информации определяет количество битов, необходимых для описания данных, что представляет собой информационную энтропию источника.
- Сжатие данных (исходное кодирование). Существует две постановки задачи сжатия:
- сжатие данных без потерь : данные должны быть точно восстановлены;
- сжатие данных с потерями : выделяет биты, необходимые для восстановления данных, в пределах заданного уровня точности, измеряемого функцией искажения. Это подмножество теории информации называется теорией скорости-искажения .
- Коды, исправляющие ошибки (канальное кодирование). В то время как сжатие данных устраняет как можно большую избыточность, код, исправляющий ошибки, добавляет именно тот тип избыточности (т. е. исправление ошибок), необходимый для эффективной и достоверной передачи данных по зашумленному каналу.
Такое разделение теории кодирования на сжатие и передачу оправдывается теоремами о передаче информации или теоремами разделения источника и канала, которые оправдывают использование битов в качестве универсальной валюты для информации во многих контекстах. Однако эти теоремы справедливы только в ситуации, когда один передающий пользователь желает связаться с одним принимающим пользователем. В сценариях с более чем одним передатчиком (канал множественного доступа), более чем одним приемником ( канал вещания ) или промежуточными «помощниками» ( канал ретрансляции ) или более общими сетями сжатие с последующей передачей может перестать быть оптимальным.
Теория источника
[ редактировать ]Любой процесс, генерирующий последовательные сообщения, можно считать источником информации. Источник без памяти — это источник, в котором каждое сообщение представляет собой независимую одинаково распределенную случайную величину , тогда как свойства эргодичности и стационарности накладывают менее ограничительные ограничения. Все такие источники являются стохастическими . Эти термины сами по себе хорошо изучены за пределами теории информации.
Ставка
[ редактировать ]информации Скорость передачи — это средняя энтропия на символ. Для источников без памяти это просто энтропия каждого символа, а в случае стационарного случайного процесса —
то есть условная энтропия символа с учетом всех предыдущих сгенерированных символов. Для более общего случая процесса, который не обязательно является стационарным, средняя скорость равна
то есть предел совместной энтропии на символ. Для стационарных источников эти два выражения дают один и тот же результат. [28]
Скорость информации определяется как
В теории информации принято говорить о «скорости» или «энтропии» языка. Это уместно, например, когда источником информации является английская проза. Скорость источника информации связана с его избыточностью и тем, насколько хорошо он может быть сжат, что является предметом исходного кодирования .
Пропускная способность канала
[ редактировать ]Коммуникация по каналу является основной мотивацией теории информации. Однако каналы часто не могут обеспечить точную реконструкцию сигнала; шум, периоды молчания и другие формы искажения сигнала часто ухудшают качество.
Рассмотрим процесс связи по дискретному каналу. Простая модель процесса показана ниже:
Здесь X представляет собой пространство переданных сообщений, а Y — пространство сообщений, полученных за единицу времени по нашему каналу. Пусть p ( y | x ) будет вероятностей условной функцией распределения Y условии X. при Мы будем считать p ( y | x ) неотъемлемым фиксированным свойством нашего канала связи (отражающим природу шума нашего канала). Тогда совместное распределение X и Y полностью определяется нашим каналом и нашим выбором f ( x ) — предельного распределения сообщений, которые мы выбираем для отправки по каналу. При этих ограничениях мы хотели бы максимизировать скорость передачи информации или сигнала , которую мы можем передавать по каналу. Подходящей мерой для этого является взаимная информация, и эта максимальная взаимная информация называется пропускной способностью канала и определяется как:
Эта пропускная способность имеет следующее свойство, связанное с передачей информации со скоростью R (где R обычно представляет собой количество битов на символ). Для любой скорости передачи информации R < C и ошибки кодирования ε > 0, для достаточно большого N существует код длины N и скорости ≥ R и алгоритм декодирования, такой, что максимальная вероятность ошибки блока составляет ≤ ε ; то есть всегда можно передавать с сколь угодно малой блочной ошибкой. Кроме того, при любой скорости R > C невозможно передавать со сколь угодно малой ошибкой блока.
Канальное кодирование занимается поиском таких почти оптимальных кодов, которые можно использовать для передачи данных по зашумленному каналу с небольшой ошибкой кодирования со скоростью, близкой к пропускной способности канала.
Пропускная способность отдельных моделей каналов
[ редактировать ]- Аналоговый канал связи, непрерывный во времени, подверженный гауссовскому шуму — см. теорему Шеннона – Хартли .
- Двоичный симметричный канал (BSC) с вероятностью пересечения p — это канал двоичного входа и двоичного вывода, который инвертирует входной бит с вероятностью p . BSC имеет емкость 1 − H b ( p ) битов на использование канала, где H b — двоичная энтропийная функция в логарифме по основанию 2:
- Канал двоичного стирания (BEC) с вероятностью стирания p представляет собой двоичный входной и троичный выходной канал. Возможные выходные сигналы канала: 0, 1 и третий символ «е», называемый стиранием. Стирание представляет собой полную потерю информации о входном бите. Емкость BEC составляет 1 - p бит на использование канала.
Каналы с памятью и направленной информацией
[ редактировать ]На практике многие каналы имеют память. А именно, в момент канал задается условной вероятностью . Зачастую удобнее использовать обозначение и канал становится . В таком случае пропускная способность определяется взаимной скоростью информации отсутствует , когда обратная связь , и направленной скоростью информации в случае, когда обратная связь либо есть, либо нет. [20] [29] (при отсутствии обратной связи направленная информация равна взаимной информации).
Приложения в других областях
[ редактировать ]Использование разведки и секретные приложения
[ редактировать ]Концепции теории информации применимы к криптографии и криптоанализу. Информационная единица Тьюринга — запрет — была использована в проекте «Ультра» , взломав немецкий машинный код «Энигмы» и ускорив окончание Второй мировой войны в Европе . Сам Шеннон определил важную концепцию, которая теперь называется расстоянием единственности . Основываясь на избыточности открытого текста , он пытается предоставить минимальный объем зашифрованного текста, необходимый для обеспечения уникальной расшифровки.
Теория информации заставляет нас думать, что хранить секреты гораздо труднее, чем может показаться на первый взгляд. Атака методом грубой силы может вывести из строя системы, основанные на алгоритмах с асимметричным ключом или на наиболее часто используемых методах алгоритмов с симметричным ключом (иногда называемых алгоритмами с секретным ключом), таких как блочные шифры . Безопасность всех таких методов исходит из предположения, что ни одна известная атака не может взломать их за практический промежуток времени.
Теоретико-информационная безопасность относится к таким методам, как одноразовый блокнот , которые не уязвимы для таких атак методом грубой силы. В таких случаях положительная условная взаимная информация между открытым текстом и зашифрованным текстом (обусловленная ключом ) может обеспечить правильную передачу, в то время как безусловная взаимная информация между открытым текстом и зашифрованным текстом остается нулевой, что приводит к абсолютно безопасной связи. Другими словами, перехватчик не сможет улучшить свое предположение об открытом тексте, узнав о зашифрованном тексте, но не о ключе. Однако, как и в любой другой криптографической системе, необходимо проявлять осторожность при правильном применении даже теоретически безопасных методов; Проект Венона смог взломать одноразовые блокноты Советского Союза из-за неправильного повторного использования ключевого материала.
Генерация псевдослучайных чисел
[ редактировать ]Генераторы псевдослучайных чисел широко доступны в библиотеках компьютерных языков и прикладных программах. Они почти всегда непригодны для криптографического использования, поскольку не уклоняются от детерминистской природы современного компьютерного оборудования и программного обеспечения. Класс улучшенных генераторов случайных чисел называется криптографически безопасными генераторами псевдослучайных чисел , но даже им случайные начальные числа для правильной работы требуются внешние по отношению к программному обеспечению . Их можно получить с помощью экстракторов , если делать это осторожно. Мерой достаточной случайности в экстракторах является min-энтропия , величина, связанная с энтропией Шеннона через энтропию Реньи ; Энтропия Реньи также используется для оценки случайности в криптографических системах. Несмотря на то, что различия между этими мерами взаимосвязаны, они означают, что случайная величина с высокой энтропией Шеннона не обязательно является удовлетворительной для использования в экстракторе и, следовательно, для использования в криптографии.
Сейсморазведка
[ редактировать ]Одним из первых коммерческих применений теории информации была область сейсмической разведки нефти. Работа в этой области позволила отделить и отделить нежелательный шум от полезного сейсмического сигнала. Теория информации и цифровая обработка сигналов обеспечивают значительное улучшение разрешения и четкости изображения по сравнению с предыдущими аналоговыми методами. [30]
Семиотика
[ редактировать ]Семиотики Доде Наута и Винфрид Нёт считали, что Чарльз Сандерс Пирс создал теорию информации в своих работах по семиотике. [31] : 171 [32] : 137 Наута определил семиотическую теорию информации как исследование «внутренних процессов кодирования, фильтрации и обработки информации». [31] : 91
Концепции теории информации, такие как избыточность и кодовый контроль, использовались семиотиками, такими как Умберто Эко и Ферруччо Росси-Ланди, для объяснения идеологии как формы передачи сообщений, посредством которой доминирующий социальный класс излучает свое сообщение, используя знаки, демонстрирующие высокую степень избыточность, при которой декодируется только одно сообщение из множества конкурирующих сообщений. [33]
Интегрированная организация процессов нейронной информации
[ редактировать ]Количественные методы теории информации применялись в когнитивной науке для анализа интегрированной организации процессов нейронной информации в контексте проблемы связывания в когнитивной нейробиологии . [34] В этом контексте либо теоретико-информационная мера, такая как функциональные кластеры ( Джеральда Эдельмана и Джулио Тонони и гипотеза динамического ядра (DCH) модель функциональной кластеризации [35] ) или эффективная информация Тонони ( теория интегрированной информации (ИИТ) сознания). [36] [37] [38] ), определяется (на основе реентерабельной организации процесса, т.е. синхронизации нейрофизиологической активности между группами популяций нейронов), или мерой минимизации свободной энергии на основе статистических методов ( Карла Дж. Фристона ) свободная энергия . энергетический принцип (FEP), теоретическая мера информации, которая утверждает, что каждое адаптивное изменение в самоорганизующейся системе приводит к минимизации свободной энергии, и мозга байесовская гипотеза [39] [40] [41] [42] [43] ).
Разные приложения
[ редактировать ]Теория информации также имеет применение в поисках внеземного разума . [44] черные дыры , биоинформатика [ нужна ссылка ] и азартные игры .
См. также
[ редактировать ]- Алгоритмическая вероятность
- Байесовский вывод
- Теория коммуникации
- Теория конструкторов - обобщение теории информации, включающее квантовую информацию.
- Формальная наука
- Индуктивная вероятность
- Инфо-метрика
- Минимальная длина сообщения
- Минимальная длина описания
- Философия информации
Приложения
[ редактировать ]История
[ редактировать ]- Хартли, РВЛ
- История теории информации
- Шеннон, CE
- Хронология теории информации
- Йоки, HP
- Andrey Kolmogorov
Теория
[ редактировать ]- Теория кодирования
- Теория обнаружения
- Теория оценки
- Информация о Фишере
- Информационная алгебра
- Информационная асимметрия
- Теория информационного поля
- Информационная геометрия
- Теория информации и теория меры
- Колмогоровская сложность
- Список нерешенных проблем теории информации
- Логика информации
- Сетевое кодирование
- Философия информации
- Квантовая информатика
- Исходное кодирование
Концепции
[ редактировать ]- В (единице)
- Пропускная способность канала
- Канал связи
- Источник связи
- Условная энтропия
- Скрытый канал
- Сжатие данных
- Декодер
- Дифференциальная энтропия
- Взаимозаменяемая информация
- Сложность колебания информации
- Информационная энтропия
- Совместная энтропия
- Расхождение Кульбака – Лейблера
- Взаимная информация
- Поточечная взаимная информация (PMI)
- Приемник (теория информации)
- Резервирование
- Энтропия Реньи
- Самоинформация
- Расстояние уникальности
- Разнообразие
- Расстояние Хэмминга
- Растерянность
Ссылки
[ редактировать ]- ^ Шнайдер, Томас Д. (2006). «Клод Шеннон: биолог» . Журнал IEEE «Инженерия в медицине и биологии»: ежеквартальный журнал Общества инженерии в медицине и биологии . 25 (1): 30–33. ISSN 0739-5175 . ПМЦ 1538977 . ПМИД 16485389 .
- ^ Jump up to: а б Баляну, Д.; Балас, Валентина Эмилия; Агарвал, Правин, ред. (2023). Системы дробного порядка и их применение в технике . Перспективные исследования сложных систем. Лондон, Великобритания: Академическая пресса. п. 23. ISBN 978-0-323-90953-2 . OCLC 1314337815 .
- ^ Бернхэм, К.П. и Андерсон Д.Р. (2002) Выбор модели и многомодельный вывод: практический информационный подход, второе издание (Springer Science, Нью-Йорк) ISBN 978-0-387-95364-9 .
- ^ Jump up to: а б Ф. Рике; Д. Варланд; Р Рюйтер ван Стивенинк; В Бялек (1997). Спайкс: исследование нейронного кода . Пресса МТИ. ISBN 978-0262681087 .
- ^ Дельгадо-Бональ, Альфонсо; Мартин-Торрес, Хавьер (3 ноября 2016 г.). «Человеческое зрение определяется на основе теории информации» . Научные отчеты . 6 (1): 36038. Бибкод : 2016NatSR...636038D . дои : 10.1038/srep36038 . ISSN 2045-2322 . ПМК 5093619 . ПМИД 27808236 .
- ^ ср; Хюльзенбек, JP; Ронквист, Ф.; Нильсен, Р.; Болбак, JP (2001). «Байесовский вывод филогении и его влияние на эволюционную биологию». Наука . 294 (5550): 2310–2314. Бибкод : 2001Sci...294.2310H . дои : 10.1126/science.1065889 . ПМИД 11743192 . S2CID 2138288 .
- ^ Алликметс, Рандо; Вассерман, Уайет В.; Хатчинсон, Эми; Смоллвуд, Филип; Натанс, Джереми; Роган, Питер К. (1998). «Томас Д. Шнайдер], Майкл Дин (1998) Организация гена ABCR: анализ последовательностей промотора и сплайсингового соединения» . Джин . 215 (1): 111–122. дои : 10.1016/s0378-1119(98)00269-8 . ПМИД 9666097 .
- ^ Джейнс, ET (1957). «Теория информации и статистическая механика» . Физ. Преподобный . 106 (4): 620. Бибкод : 1957PhRv..106..620J . дои : 10.1103/physrev.106.620 . S2CID 17870175 .
- ^ Талаат, Халед; Коуэн, Бенджамин; Андероглу, Осман (05.10.2020). «Метод информационной энтропии для оценки сходимости молекулярно-динамического моделирования» . Журнал прикладной физики . 128 (13): 135102. Бибкод : 2020JAP...128m5102T . дои : 10.1063/5.0019078 . ОСТИ 1691442 . S2CID 225010720 .
- ^ Беннетт, Чарльз Х.; Ли, Мин; Ма, Бин (2003). «Письма счастья и эволюционные истории» . Научный американец . 288 (6): 76–81. Бибкод : 2003SciAm.288f..76B . doi : 10.1038/scientificamerican0603-76 . ПМИД 12764940 . Архивировано из оригинала 7 октября 2007 г. Проверено 11 марта 2008 г.
- ^ Дэвид Р. Андерсон (1 ноября 2003 г.). «Некоторые сведения о том, почему люди, занимающиеся эмпирическими науками, могут захотеть лучше понять методы теории информации» (PDF) . Архивировано из оригинала (PDF) 23 июля 2011 года . Проверено 23 июня 2010 г.
- ^ «Универсальная оценка и проектирование систем визуализации с использованием оценки информации» .
- ^ Хармс, Уильям Ф. (1998). «Использование теории информации в эпистемологии» . Философия науки . 65 (3): 472–501. ISSN 0031-8248 .
- ^ Хорган, Джон (27 апреля 2016 г.). «Клод Шеннон: мастер, шутник и отец теории информации» . ИИЭЭ . Проверено 30 сентября 2023 г.
- ^ Робертс, Шивон (30 апреля 2016 г.). «Забытый отец информационного века» . Житель Нью-Йорка . ISSN 0028-792X . Проверено 30 сентября 2023 г.
- ^ Jump up to: а б Це, Дэвид (22 декабря 2020 г.). «Как Клод Шеннон изобрел будущее» . Журнал Кванта . Проверено 30 сентября 2023 г.
- ^ Браверман, Марк (19 сентября 2011 г.). «Теория информации в информатике» (PDF) .
- ^ Фазлолла М. Реза (1994) [1961]. Введение в теорию информации . Dover Publications, Inc., Нью-Йорк. ISBN 0-486-68210-2 .
- ^ Роберт Б. Эш (1990) [1965]. Теория информации . Dover Publications, Inc. ISBN 0-486-66521-6 .
- ^ Jump up to: а б Мэсси, Джеймс (1990), «Причинность, обратная связь и направленная информация», Proc. 1990 Международный. Симп. на Инфо. Т.е. и его приложения , CiteSeerX 10.1.1.36.5688.
- ^ Пермутер, Хаим Генри; Вайсман, Цахи; Голдсмит, Андреа Дж. (февраль 2009 г.). «Каналы конечных состояний с инвариантной во времени детерминированной обратной связью». Транзакции IEEE по теории информации . 55 (2): 644–662. arXiv : cs/0608070 . дои : 10.1109/TIT.2008.2009849 . S2CID 13178 .
- ^ Крамер, Г. (январь 2003 г.). «Результаты емкости дискретной сети без памяти». Транзакции IEEE по теории информации . 49 (1): 4–21. дои : 10.1109/TIT.2002.806135 .
- ^ Пермутер, Хаим Х.; Ким, Ён-Хан; Вайсман, Цахи (июнь 2011 г.). «Интерпретации направленной информации в теории портфеля, сжатии данных и проверке гипотез». Транзакции IEEE по теории информации . 57 (6): 3248–3259. arXiv : 0912.4872 . дои : 10.1109/TIT.2011.2136270 . S2CID 11722596 .
- ^ Симеоне, Освальдо; Пермутер, Хаим Анри (июнь 2013 г.). «Исходное кодирование, когда дополнительная информация может быть задержана». Транзакции IEEE по теории информации . 59 (6): 3607–3618. arXiv : 1109.1293 . дои : 10.1109/TIT.2013.2248192 . S2CID 3211485 .
- ^ Хараламбус, Хараламбос Д.; Ставру, Фотий А. (август 2016 г.). «Направленная информация об абстрактных пространствах: свойства и вариационные равенства». Транзакции IEEE по теории информации . 62 (11): 6019–6052. arXiv : 1302.3971 . дои : 10.1109/TIT.2016.2604846 . S2CID 8107565 .
- ^ Танака, Такаши; Исфахани, Пейман Мохаджерин; Миттер, Санджой К. (январь 2018 г.). «Управление LQG с минимальной направленной информацией: подход полуопределенного программирования» . Транзакции IEEE при автоматическом управлении . 63 (1): 37–52. arXiv : 1510.04214 . дои : 10.1109/TAC.2017.2709618 . S2CID 1401958 . Архивировано из оригинала 12 апреля 2024 г. - в репозиториях TU Delft.
- ^ Винклер, Дрор А; Пермутер, Хаим Х; Мерхав, Нери (20 апреля 2016 г.). «Аналогия между азартными играми и извлечением работы, основанной на измерениях». Журнал статистической механики: теория и эксперимент . 2016 (4): 043403. arXiv : 1404.6788 . Бибкод : 2016JSMTE..04.3403V . дои : 10.1088/1742-5468/2016/04/043403 . S2CID 124719237 .
- ^ Джерри Д. Гибсон (1998). Цифровое сжатие мультимедиа: принципы и стандарты . Морган Кауфманн. ISBN 1-55860-369-7 .
- ^ Пермутер, Хаим Генри; Вайсман, Цахи; Голдсмит, Андреа Дж. (февраль 2009 г.). «Каналы конечных состояний с инвариантной во времени детерминированной обратной связью». Транзакции IEEE по теории информации . 55 (2): 644–662. arXiv : cs/0608070 . дои : 10.1109/TIT.2008.2009849 . S2CID 13178 .
- ^ Хаггерти, Патрик Э. (1981). «Корпорация и инновации». Журнал стратегического менеджмента . 2 (2): 97–118. дои : 10.1002/smj.4250020202 .
- ^ Jump up to: а б Наута, Доде (1972). Значение информации . Гаага: Мутон. ISBN 9789027919960 .
- ^ Нёт, Винфрид (январь 2012 г.). «Теория информации Чарльза С. Пирса: теория роста символов и знаний» . Кибернетика и человеческое познание . 19 (1–2): 137–161.
- ^ Нёт, Винфрид (1981). « Семиотика идеологии ». Семиотика , Выпуск 148.
- ^ Маурер, Х. (2021). Когнитивная наука: механизмы интегративной синхронизации в когнитивных нейроархитектурах современного коннекционизма. CRC Press, Бока-Ратон/Флорида, гл. 10, ISBN 978-1-351-04352-6. https://doi.org/10.1201/9781351043526
- ^ Эдельман, GM и Дж. Тонони (2000). Вселенная сознания: как материя становится воображением. Основные книги, Нью-Йорк.
- ^ Тонони, Г. и О. Спорнс (2003). Измерение интеграции информации. BMC Нейронаука 4: 1-20.
- ^ Тонони, Г. (2004a). Теория информационной интеграции сознания. BMC Нейронаука 5: 1-22.
- ^ Тонони, Г. (2004b). Сознание и мозг: теоретические аспекты. В: Г. Адельман и Б. Смит [ред.]: Энциклопедия неврологии. 3-е изд. Эльзевир, Амстердам, Оксфорд.
- ^ Фристон, К. и К.Е. Стефан (2007). Свободная энергия и мозг. Синтез 159: 417-458.
- ^ Фристон, К. (2010). Принцип свободной энергии: единая теория мозга. Обзоры природы по неврологии 11: 127–138.
- ^ Фристон, К., М. Брейкстир и Г. Деко (2012). Восприятие и самоорганизованная нестабильность. Границы вычислительной нейронауки 6: 1-19.
- ^ Фристон, К. (2013). Жизнь, какой мы ее знаем. Журнал интерфейса Королевского общества 10: 20130475.
- ^ Кирхгоф, М., Т. Парр, Э. Паласиос, К. Фристон и Дж. Киверштейн. (2018). Марковские одеяла жизни: автономия, активный вывод и принцип свободной энергии. Журнал интерфейса Королевского общества 15: 20170792.
- ^ Дойл, Лоуренс Р .; МакКоуэн, Бренда ; Джонстон, Саймон; Хансер, Шон Ф. (февраль 2011 г.). «Теория информации, общение животных и поиск внеземного разума». Акта Астронавтика . 68 (3–4): 406–417. Бибкод : 2011AcAau..68..406D . дои : 10.1016/j.actaastro.2009.11.018 .
Дальнейшее чтение
[ редактировать ]Классическая работа
[ редактировать ]- Шеннон, CE (1948), « Математическая теория связи », Технический журнал Bell System , 27, стр. 379–423 и 623–656, июль и октябрь 1948 г. PDF.
Заметки и другие форматы. - Р.В.Л. Хартли, «Передача информации» , Технический журнал Bell System , июль 1928 г.
- Андрей Колмогоров (1968), « Три подхода к количественному определению информации » в Международном журнале компьютерной математики , 2, стр. 157–168.
Другие журнальные статьи
[ редактировать ]- Дж. Л. Келли младший, Принстон , «Новая интерпретация скорости передачи информации», Технический журнал Bell System , Vol. 35 июля 1956 г., стр. 917–26.
- Р. Ландауэр, IEEE.org , «Информация физична», Proc. Семинар по физике и вычислениям PhysComp'92 (IEEE Comp. Sci.Press, Los Alamitos, 1993), стр. 1–4.
- Ландауэр, Р. (1961). «Необратимость и выделение тепла в вычислительном процессе» (PDF) . IBM J. Res. Дев . 5 (3): 183–191. дои : 10.1147/рд.53.0183 .
- Тимме, Николас; Алфорд, Уэсли; Флекер, Бенджамин; Беггс, Джон М. (2012). «Многомерные информационные меры: взгляд экспериментатора». arXiv : 1111.6857 [ cs.IT ].
Учебники по теории информации
[ редактировать ]- Аладжаджи Ф. и Чен П.Н. Введение в теорию однопользовательской информации. Сингапур: Спрингер, 2018. ISBN 978-981-10-8000-5
- Арндт, К. Информационные меры, информация и ее описание в науке и технике (Серия Springer: Сигналы и коммуникационные технологии), 2004 г., ISBN 978-3-540-40855-0
- Эш, РБ. Теория информации . Нью-Йорк: Интерсайенс, 1965. ISBN 0-470-03445-9 . Нью-Йорк: Дувр, 1990. ISBN 0-486-66521-6
- Галлагер, Р. Теория информации и надежная связь. Нью-Йорк: Джон Уайли и сыновья, 1968. ISBN 0-471-29048-3
- Гольдман, С. Теория информации . Нью-Йорк: Прентис-Холл, 1953. Нью-Йорк: Дувр, 1968. ISBN 0-486-62209-6 , 2005 г. ISBN 0-486-44271-3
- Кавер, Томас ; Томас, Джой А. (2006). Элементы теории информации (2-е изд.). Нью-Йорк: Wiley-Interscience . ISBN 0-471-24195-4 .
- Чисар И. , Корнер Дж. Теория информации: теоремы кодирования для дискретных систем без памяти Akademiai Kiado: 2-е издание, 1997. ISBN 963-05-7440-3
- Маккей, Дэвид Дж. К. Теория информации, вывод и алгоритмы обучения. Кембридж: Издательство Кембриджского университета, 2003. ISBN 0-521-64298-1
- Мансурипур, М. Введение в теорию информации . Нью-Йорк: Прентис Холл, 1987. ISBN 0-13-484668-0
- МакЭлис, Р. Теория информации и кодирования . Кембридж, 2002. ISBN 978-0521831857
- Пирс, младший . «Введение в теорию информации: символы, сигналы и шум». Дувр (2-е издание). 1961 г. (перепечатано Dover 1980 г.).
- Реза, Ф . Введение в теорию информации . Нью-Йорк: МакГроу-Хилл, 1961. Нью-Йорк: Дувр, 1994. ISBN 0-486-68210-2
- Шеннон, Клод ; Уивер, Уоррен (1949). Математическая теория связи (PDF) . Урбана, Иллинойс : Издательство Университета Иллинойса . ISBN 0-252-72548-4 . LCCN 49-11922 .
- Стоун, СП. Глава 1 книги «Теория информации: Введение в учебное пособие» , Университет Шеффилда, Англия, 2014 г. ISBN 978-0956372857 .
- Юнг, Р.В. Первый курс теории информации Kluwer Academic/Plenum Publishers, 2002. ISBN 0-306-46791-7 .
- Юнг, Р.В. Теория информации и сетевое кодирование Springer 2008, 2002. ISBN 978-0-387-79233-0
Другие книги
[ редактировать ]- Леон Бриллюэн, Наука и теория информации , Минеола, Нью-Йорк: Дувр, [1956, 1962], 2004. ISBN 0-486-43918-6
- Джеймс Глейк , Информация: история, теория, потоп , Нью-Йорк: Пантеон, 2011. ISBN 978-0-375-42372-7
- А. И. Хинчин, Математические основы теории информации , Нью-Йорк: Дувр, 1957. ISBN 0-486-60434-9
- Х. С. Лефф и А. Ф. Рекс, редакторы журнала « Демон Максвелла: энтропия, информация, вычисления» , Princeton University Press, Принстон, Нью-Джерси (1990). ISBN 0-691-08727-X
- Роберт К. Логан . Что такое информация? - Распространяющая организация в биосфере, символосфере, техносфере и эконосфере , Торонто: DEMO Publishing.
- Том Зигфрид, Бита и маятник , Уайли, 2000. ISBN 0-471-32174-5
- Чарльз Сейф , «Расшифровка Вселенной» , «Викинг», 2006. ISBN 0-670-03441-X
- Джереми Кэмпбелл, Грамматик , Touchstone/Simon & Schuster, 1982, ISBN 0-671-44062-4
- Анри Тейль, Экономика и теория информации , Rand McNally & Company – Чикаго, 1967.
- Эсколано, Суау, Бонев, Теория информации в компьютерном зрении и распознавании образов , Springer, 2009. ISBN 978-1-84882-296-2
- Влатко Ведрал, Декодирование реальности: Вселенная как квантовая информация , Oxford University Press, 2010. ISBN 0-19-923769-7
Внешние ссылки
[ редактировать ]- «Информация» , Математическая энциклопедия , EMS Press , 2001 [1994]
- Ламберт Ф.Л. (1999), « Перетасованные карты, грязные столы и беспорядок в комнатах общежития — примеры увеличения энтропии? Чепуха! », Журнал химического образования
- Общества теории информации IEEE и Монографии, исследования и обзоры ITSOC, заархивировано 12 июня 2018 г. в Wayback Machine.