Теория информации

Из Википедии, бесплатной энциклопедии

Теория информации математическое исследование количественного определения , хранения и передачи информации . – это Первоначально эта область была основана работами Гарри Найквиста и Ральфа Хартли в 1920-х годах и Клода Шеннона в 1940-х годах. [1] : vii Область прикладной математики находится на стыке теории вероятностей , статистики , информатики , статистической механики , информационной инженерии и электротехники .

Ключевой мерой в теории информации является энтропия . Энтропия количественно определяет степень неопределенности, связанную со значением случайной величины или результатом случайного процесса . Например, определение результата честного подбрасывания монеты (с двумя равновероятными исходами) дает меньше информации (более низкая энтропия, меньшая неопределенность), чем определение результата броска игральной кости ( с шестью равновероятными исходами). Некоторыми другими важными показателями в теории информации являются взаимная информация , пропускная способность канала , показатели ошибок и относительная энтропия . Важные подобласти теории информации включают исходное кодирование , теорию алгоритмической сложности , алгоритмическую теорию информации и теоретико-информационную безопасность .

Приложения фундаментальных тем теории информации включают исходное кодирование/ сжатие данных (например, для ZIP-файлов ) и канальное кодирование/ обнаружение и исправление ошибок (например, для DSL ). Его влияние имело решающее значение для успеха миссий «Вояджера» в глубокий космос, изобретения компакт-дисков , возможности мобильных телефонов и развития Интернета. Теория также нашла применение в других областях, включая статистический вывод , [2] криптография , нейробиология , [3] восприятие , [4] лингвистика, эволюция [5] и функция [6] молекулярных кодов ( биоинформатика ), теплофизика , [7] молекулярная динамика , [8] квантовые вычисления , черные дыры , поиск информации , сбор разведывательной информации , обнаружение плагиата , [9] распознавание образов , обнаружение аномалий [10] и даже художественное творчество.

Обзор [ править ]

Теория информации изучает передачу, обработку, извлечение и использование информации. Абстрактно информацию можно рассматривать как разрешение неопределенности. В случае передачи информации по зашумленному каналу эта абстрактная концепция была формализована в 1948 году Клодом Шенноном в статье под названием « Математическая теория связи» , в которой информация рассматривается как набор возможных сообщений, а цель состоит в том, чтобы отправлять эти сообщения по зашумленному каналу и заставить получателя восстановить сообщение с низкой вероятностью ошибки, несмотря на шум канала. Главный результат Шеннона, теорема кодирования шумного канала , показал, что в пределе многих использований канала скорость передачи информации, которая асимптотически достижима, равна пропускной способности канала, величине, зависящей просто от статистики канала, по которому передается информация. сообщения отправляются. [3]

Теория кодирования занимается поиском явных методов, называемых кодами , для повышения эффективности и снижения частоты ошибок при передаче данных по зашумленным каналам до уровня, близкого к пропускной способности канала. Эти коды можно грубо разделить на методы сжатия данных (исходное кодирование) и исправления ошибок (канальное кодирование). В последнем случае потребовалось много лет, чтобы найти методы, которые доказала работа Шеннона. [ нужна цитата ]

Третий класс кодов теории информации — это криптографические алгоритмы (как коды, так и шифры ). Концепции, методы и результаты теории кодирования и теории информации широко используются в криптографии и криптоанализе , такие как запрет единиц . [ нужна цитата ]

Историческая справка [ править ]

Знаковым событием, заложившим дисциплину теории информации и привлекшим к ней немедленное внимание всего мира, стала публикация классической статьи Клода Э. Шеннона «Математическая теория связи» в техническом журнале Bell System в июле и октябре 1948 года. Он стал известен как «отец теории информации». [11] [12] [13]

До этой статьи в Bell Labs были разработаны ограниченные идеи теории информации , все они неявно предполагали, что события равновероятны. Статья Гарри Найквиста 1924 года « Определенные факторы, влияющие на скорость телеграфа » содержит теоретический раздел, определяющий количественные «интеллекты» и «скорость линии», с которой они могут передаваться по системе связи, давая соотношение W = K log m (напоминая Больцманову формулу ). константа ), где W — скорость передачи разведданных, m — количество различных уровней напряжения, из которых можно выбирать на каждом временном шаге, а K — константа. В статье Ральфа Хартли 1928 года «Передача информации» слово «информация» используется как измеримая величина, отражающая способность получателя отличать одну последовательность символов от любой другой, таким образом выражая информацию количественно как H = log S. н = n log S , где S — количество возможных символов, а n — количество символов в передаче. Таким образом, единицей информации была десятичная цифра , которую с тех пор иногда называли хартли в его честь как единицу, масштаб или меру информации. Алан Тьюринг в 1940 году использовал аналогичные идеи в рамках статистического анализа взлома немецких шифров «Энигмы» времен Второй мировой войны . [ нужна цитата ]

Большая часть математики, лежащей в основе теории информации с событиями различной вероятности, была разработана для области термодинамики Людвигом Больцманом и Дж . Уиллардом Гиббсом . Связи между теоретико-информационной энтропией и термодинамической энтропией, включая важные вклады Рольфа Ландауэра в 1960-х годах, исследуются в книге «Энтропия в термодинамике и теории информации» . [ нужна цитата ]

В революционной и новаторской статье Шеннона, работа над которой была в основном завершена в Bell Labs к концу 1944 года, Шеннон впервые представил качественную и количественную модель коммуникации как статистического процесса, лежащего в основе теории информации, начиная с утверждения:

«Фундаментальная проблема коммуникации заключается в воспроизведении в одной точке, точно или приблизительно, сообщения, выбранного в другой точке».

Вместе с ним пришли идеи

Количество информации [ править ]

Теория информации основана на теории вероятностей и статистике, где количественная информация обычно описывается в битах. Теория информации часто занимается мерами информации о распределениях, связанных со случайными величинами. Одна из наиболее важных мер называется энтропией, которая составляет основу многих других мер. Энтропия позволяет количественно оценить меру информации в одной случайной величине. [14] Другая полезная концепция — это взаимная информация, определенная для двух случайных величин, которая описывает меру общей информации между этими переменными, которую можно использовать для описания их корреляции. Первая величина является свойством распределения вероятностей случайной величины и дает предел скорости, с которой данные, сгенерированные независимыми выборками с заданным распределением, могут быть надежно сжаты. Последнее является свойством совместного распределения двух случайных величин и представляет собой максимальную скорость надежной связи по зашумленному каналу в пределе больших длин блоков, когда статистика канала определяется совместным распределением.

Выбор логарифмической основы в следующих формулах определяет единицу используемую информационной энтропии. Общепринятой единицей информации является бит, основанный на двоичном логарифме . Другие единицы включают nat , который основан на натуральном логарифме , и десятичную цифру , которая основана на десятичном логарифме .

Далее выражение вида p log p по соглашению считается равным нулю всякий раз, когда p = 0 . Это оправдано, поскольку для любого логарифмического основания.

Энтропия источника информации [ править ]

На основе функции массы вероятности каждого передаваемого исходного символа энтропия Шеннона H в единицах битов (на символ) определяется выражением

где p i - вероятность появления i -го возможного значения исходного символа. Это уравнение дает энтропию в единицах «бит» (на символ), поскольку в нем используется логарифм по основанию 2, и эту меру энтропии по основанию 2 иногда называют шенноном в его честь. Энтропия также обычно вычисляется с использованием натурального логарифма (по основанию e , где e — число Эйлера), что позволяет измерить энтропию в натсах на символ и иногда упрощает анализ, избегая необходимости включать в формулы дополнительные константы. Возможны и другие основания, но они используются реже. Например, логарифм по основанию 2 8 = 256 даст измерение в байтах на символ, а логарифм по основанию 10 даст измерение в десятичных цифрах (или хартли ) на символ.

Интуитивно понятно, что энтропия H X дискретной случайной величины X является мерой степени неопределенности, связанной со значением X , когда известно только ее распределение.

Энтропия источника, который излучает последовательность из N символов, независимых и одинаково распределенных (iid), равна N H битов (на сообщение из N символов). но не независимы, энтропия сообщения длины N будет меньше N H. Если символы исходных данных одинаково распределены ,

Энтропия испытания Бернулли как функция вероятности успеха, часто называемая бинарной функцией энтропии , H b ( p ) . Энтропия максимизируется на уровне 1 бита за попытку, когда два возможных результата равновероятны, как при беспристрастном подбрасывании монеты.

Если передается 1000 бит (0 и 1), и значение каждого из этих битов известно получателю (имеет определенное значение с уверенностью) до передачи, ясно, что никакая информация не передается. Однако если каждый бит независимо равновероятно равен 0 или 1, то было передано 1000 элементов информации (чаще называемых битами). Между этими двумя крайностями информацию можно количественно оценить следующим образом. Если — это набор всех сообщений { x 1 , ..., x n } , которыми X может быть , а p ( x ) — это вероятность некоторого энтропия H X , то определяется: [15]

(Здесь I ( x ) — это самоинформация , которая представляет собой энтропийный вклад отдельного сообщения, и ожидаемое значение .) Свойством энтропии является то, что она максимизируется, когда все сообщения в пространстве сообщений равновероятны p ( x ) = 1/ n ; т. е. наиболее непредсказуемо, и в этом случае H ( X ) = log n .

Особым случаем информационной энтропии для случайной величины с двумя исходами является двоичная функция энтропии, обычно принимаемая к логарифмическому основанию 2, таким образом, в качестве единицы измерения используется шеннон (Sh):

Совместная энтропия [ править ]

Совместная энтропия двух дискретных случайных величин X и Y — это просто энтропия их пары: ( X , Y ) . Это означает, что если , то их совместная X и Y независимы энтропия равна сумме их индивидуальных энтропий.

Например, если ( X , Y ) представляет позицию шахматной фигуры — X — строку, а Y — столбец, то совместная энтропия строки фигуры и столбца фигуры будет энтропией позиции фигуры. кусок.

Несмотря на схожие обозначения, совместную энтропию не следует путать с перекрестной энтропией .

Условная энтропия (двусмысленность) [ править ]

Условная энтропия или условная неопределенность X ( с учетом случайной величины Y также называемая двусмысленностью X Y относительно Y — это средняя условная энтропия по : ) [16]

Поскольку энтропия может быть обусловлена ​​случайной величиной или тем, что эта случайная величина имеет определенное значение, следует проявлять осторожность, чтобы не путать эти два определения условной энтропии, первое из которых используется чаще. Основное свойство этой формы условной энтропии заключается в том, что:

Взаимная информация (трансинформация) [ править ]

Взаимная информация измеряет количество информации, которую можно получить об одной случайной величине, наблюдая за другой. Это важно в коммуникации, где его можно использовать для максимизации объема информации, разделяемой между отправленными и полученными сигналами. Взаимная информация X относительно Y определяется следующим образом:

где SI ( специфическая взаимная информация) — это поточечная взаимная информация .

Основное свойство взаимной информации состоит в том, что

То есть, зная Y , мы можем сохранить в среднем I ( X ; Y ) бит при кодировании X незнанием Y. по сравнению с

Взаимная информация симметрична :

Взаимная информация может быть выражена как среднее расхождение Кульбака – Лейблера (прирост информации) между апостериорным распределением вероятностей X Y учетом значения X и распределением априорным с :

Другими словами, это мера того, насколько в среднем изменится распределение вероятностей по X если нам дать значение Y. , Это часто пересчитывается как расхождение произведения предельных распределений к фактическому совместному распределению:

Взаимная информация тесно связана с тестом логарифмического отношения правдоподобия в контексте таблиц сопряженности и полиномиального распределения , а также с критерием Пирсона χ. 2 тест : взаимная информация может рассматриваться как статистика для оценки независимости между парой переменных и имеет четко определенное асимптотическое распределение.

Кульбака – Лейблера (прирост ) информации Расхождение

Дивергенция Кульбака -Лейблера (или информационная дивергенция , прирост информации или относительная энтропия ) — это способ сравнения двух распределений: «истинное» распределение вероятностей. и произвольное распределение вероятностей . Если мы сжимаем данные таким образом, который предполагает — это распределение, лежащее в основе некоторых данных, тогда как на самом деле является правильным распределением, расхождение Кульбака-Лейблера представляет собой среднее количество дополнительных бит на единицу данных, необходимое для сжатия. Таким образом определяется

Хотя дивергенция KL иногда используется как «метрика расстояния», она не является истинной метрикой , поскольку она не симметрична и не удовлетворяет неравенству треугольника (что делает ее полуквазиметрикой).

Другая интерпретация расхождения КЛ — это «ненужный сюрприз», внесенный априорным отличием от истины: предположим, что число X собирается случайно выбраться из дискретного набора с распределением вероятностей. . Если Алиса знает истинное распределение , в то время как Боб считает (имеет априорное значение ), что распределение , то Боб в среднем удивится больше , чем Алиса, увидев значение X . Дивергенция KL — это (объективное) ожидаемое значение (субъективного) сюрприза Боба минус сюрприз Алисы, измеренное в битах, если журнал находится в базе 2. Таким образом, степень, в которой априорное значение Боба «неправильно», можно выразить количественно в терминах о том, как «ненужно удивлюсь» его это ожидает.

Направленная информация [ править ]

Направленная информация , , является мерой теории информации, которая количественно определяет поток информации от случайного процесса к случайному процессу . Термин « направленная информация» был придуман Джеймсом Мэсси и определяется как

,

где это условная взаимная информация .

В отличие от взаимной информации, направленная информация не симметрична. измеряет биты информации, которые передаются причинно [определение причинно-следственной передачи?] от к . Направленная информация имеет множество применений в задачах, где причинно-следственная связь играет важную роль, например, пропускная способность канала с обратной связью, [17] [18] емкость дискретных безпамяти сетей с обратной связью, [19] азартные игры с причинно-следственной информацией, [20] сжатие причинно-следственной информации, [21] и в управления в реальном времени , настройках связи [22] [23] статистическая физика. [24]

Другие количества [ править ]

Другие важные величины теории информации включают энтропию Реньи (обобщение энтропии), дифференциальную энтропию (обобщение количества информации до непрерывных распределений) и условную взаимную информацию . Кроме того, прагматическая информация была предложена в качестве меры того, сколько информации было использовано при принятии решения.

Теория кодирования [ править ]

На снимке видны царапины на читаемой поверхности CD-R. Компакт-диски с музыкой и данными кодируются с использованием кодов исправления ошибок, поэтому их можно читать, даже если на них имеются незначительные царапины, с помощью обнаружения и исправления ошибок .

Теория кодирования — одно из наиболее важных и прямых приложений теории информации. Ее можно разделить на теорию исходного кодирования и теорию канального кодирования. Используя статистическое описание данных, теория информации определяет количество битов, необходимых для описания данных, что представляет собой информационную энтропию источника.

  • Сжатие данных (исходное кодирование). Существует две постановки задачи сжатия:
  • Коды, исправляющие ошибки (канальное кодирование). В то время как сжатие данных устраняет как можно большую избыточность, код, исправляющий ошибки, добавляет именно тот тип избыточности (т. е. исправление ошибок), необходимый для эффективной и достоверной передачи данных по зашумленному каналу.

Такое разделение теории кодирования на сжатие и передачу оправдывается теоремами о передаче информации или теоремами разделения источника и канала, которые оправдывают использование битов в качестве универсальной валюты для информации во многих контекстах. Однако эти теоремы справедливы только в ситуации, когда один передающий пользователь желает связаться с одним принимающим пользователем. В сценариях с более чем одним передатчиком (канал множественного доступа), более чем одним приемником ( канал вещания ) или промежуточными «помощниками» ( канал ретрансляции ) или более общими сетями сжатие с последующей передачей может перестать быть оптимальным.

источников Теория

Любой процесс, генерирующий последовательные сообщения, можно считать источником информации. Источник без памяти — это источник, в котором каждое сообщение представляет собой независимую одинаково распределенную случайную величину , тогда как свойства эргодичности и стационарности накладывают менее ограничительные ограничения. Все такие источники являются стохастическими . Эти термины сами по себе хорошо изучены за пределами теории информации.

Оценить [ править ]

информации Скорость передачи — это средняя энтропия на символ. Для источников без памяти это просто энтропия каждого символа, тогда как в случае стационарного случайного процесса она равна

то есть условная энтропия символа с учетом всех предыдущих сгенерированных символов. Для более общего случая процесса, который не обязательно является стационарным, средняя скорость равна

то есть предел совместной энтропии на символ. Для стационарных источников эти два выражения дают один и тот же результат. [25]

Скорость информации определяется как

В теории информации принято говорить о «скорости» или «энтропии» языка. Это уместно, например, когда источником информации является английская проза. Скорость источника информации связана с его избыточностью и тем, насколько хорошо он может быть сжат, что является предметом исходного кодирования .

Пропускная способность канала [ править ]

Коммуникация по каналу является основной мотивацией теории информации. Однако каналы часто не могут обеспечить точную реконструкцию сигнала; шум, периоды молчания и другие формы искажения сигнала часто ухудшают качество.

Рассмотрим процесс связи по дискретному каналу. Простая модель процесса показана ниже:

Здесь X представляет собой пространство переданных сообщений, а Y — пространство сообщений, полученных за единицу времени по нашему каналу. Пусть p ( y | x ) будет вероятностей условной функцией распределения Y условии X. при Мы будем считать p ( y | x ) неотъемлемым фиксированным свойством нашего канала связи (отражающим природу шума нашего канала). Тогда совместное распределение X и Y полностью определяется нашим каналом и нашим выбором f ( x ) — предельного распределения сообщений, которые мы выбираем для отправки по каналу. При этих ограничениях мы хотели бы максимизировать скорость передачи информации или сигнала , которую мы можем передавать по каналу. Подходящей мерой для этого является взаимная информация, и эта максимальная взаимная информация называется пропускной способностью канала и определяется как:

Эта пропускная способность имеет следующее свойство, связанное с передачей информации со скоростью R (где R обычно представляет собой количество битов на символ). Для любой скорости передачи информации R < C и ошибки кодирования ε > 0, для достаточно большого N существует код длины N и скорости ≥ R и алгоритм декодирования, такой, что максимальная вероятность ошибки блока равна ≤ ε ; то есть всегда возможно передавать со сколь угодно малой блочной ошибкой. Кроме того, при любой скорости R > C невозможно передавать со сколь угодно малой ошибкой блока.

Канальное кодирование занимается поиском таких почти оптимальных кодов, которые можно использовать для передачи данных по зашумленному каналу с небольшой ошибкой кодирования со скоростью, близкой к пропускной способности канала.

Пропускная способность отдельных моделей каналов [ править ]

  • Аналоговый канал связи, непрерывный во времени, подверженный гауссовскому шуму — см. теорему Шеннона – Хартли .
  • Двоичный симметричный канал (BSC) с вероятностью пересечения p — это канал двоичного входа и двоичного вывода, который инвертирует входной бит с вероятностью p . BSC имеет емкость 1 − H b ( p ) битов на использование канала, где H b — двоичная энтропийная функция в логарифме по основанию 2:
  • Канал двоичного стирания (BEC) с вероятностью стирания p представляет собой двоичный входной и троичный выходной канал. Возможные выходные сигналы канала: 0, 1 и третий символ «е», называемый стиранием. Стирание представляет собой полную потерю информации о входном бите. Емкость BEC составляет 1 - p бит на использование канала.

Каналы с памятью и направленной информацией [ править ]

На практике многие каналы имеют память. А именно, в момент канал задается условной вероятностью . Зачастую удобнее использовать обозначение и канал становится . В таком случае пропускная способность определяется взаимной скоростью информации отсутствует, , когда обратная связь и направленной скоростью информации в случае, когда обратная связь либо есть, либо нет. [17] [26] (при отсутствии обратной связи направленная информация равна взаимной информации).

Приложения в других областях [ править ]

разведки и приложения Использование секретные

Концепции теории информации применимы к криптографии и криптоанализу. Информационная единица Тьюринга — запрет — была использована в проекте «Ультра» , взломав немецкий машинный код «Энигмы» и ускорив окончание Второй мировой войны в Европе . Сам Шеннон определил важную концепцию, которая теперь называется расстоянием единственности . Основываясь на избыточности открытого текста , он пытается предоставить минимальный объем зашифрованного текста, необходимый для обеспечения уникальной расшифровки.

Теория информации заставляет нас думать, что хранить секреты гораздо труднее, чем может показаться на первый взгляд. Атака методом грубой силы может вывести из строя системы, основанные на алгоритмах с асимметричным ключом или на наиболее часто используемых методах алгоритмов с симметричным ключом (иногда называемых алгоритмами с секретным ключом), таких как блочные шифры . Безопасность всех таких методов исходит из предположения, что ни одна известная атака не может взломать их за практический промежуток времени.

Теоретико-информационная безопасность относится к таким методам, как одноразовый блокнот , которые не уязвимы для таких атак методом грубой силы. В таких случаях положительная условная взаимная информация между открытым текстом и зашифрованным текстом (обусловленная ключом ) может обеспечить правильную передачу, в то время как безусловная взаимная информация между открытым текстом и зашифрованным текстом остается нулевой, что приводит к абсолютно безопасной связи. Другими словами, перехватчик не сможет улучшить свое предположение об открытом тексте, узнав о зашифрованном тексте, но не о ключе. Однако, как и в любой другой криптографической системе, необходимо проявлять осторожность при правильном применении даже теоретически безопасных методов; Проект Венона смог взломать одноразовые блокноты Советского Союза из-за неправильного повторного использования ключевого материала.

Генерация псевдослучайных чисел [ править ]

Генераторы псевдослучайных чисел широко доступны в библиотеках компьютерных языков и прикладных программах. Они почти всегда непригодны для криптографического использования, поскольку не уклоняются от детерминистской природы современного компьютерного оборудования и программного обеспечения. Класс улучшенных генераторов случайных чисел называется криптографически безопасными генераторами псевдослучайных чисел , но даже им случайные начальные числа для правильной работы требуются внешние по отношению к программному обеспечению . Их можно получить с помощью экстракторов , если делать это осторожно. Мерой достаточной случайности в экстракторах является минимальная энтропия , величина, связанная с энтропией Шеннона через энтропию Реньи ; Энтропия Реньи также используется для оценки случайности в криптографических системах. Несмотря на то, что различия между этими мерами взаимосвязаны, они означают, что случайная величина с высокой энтропией Шеннона не обязательно является удовлетворительной для использования в экстракторе и, следовательно, для использования в криптографии.

Сейсморазведка [ править ]

Одним из первых коммерческих применений теории информации была область сейсмической разведки нефти. Работа в этой области позволила отделить и отделить нежелательный шум от полезного сейсмического сигнала. Теория информации и цифровая обработка сигналов обеспечивают значительное улучшение разрешения и четкости изображения по сравнению с предыдущими аналоговыми методами. [27]

Семиотика [ править ]

Семиотики Доде Наута и Винфрид Нёт считали, что Чарльз Сандерс Пирс создал теорию информации в своих работах по семиотике. [28] : 171  [29] : 137  Наута определил семиотическую теорию информации как исследование «внутренних процессов кодирования, фильтрации и обработки информации». [28] : 91 

Концепции теории информации, такие как избыточность и кодовый контроль, использовались семиотиками, такими как Умберто Эко и Ферруччо Росси-Ланди, для объяснения идеологии как формы передачи сообщений, посредством которой доминирующий социальный класс излучает свое сообщение, используя знаки, демонстрирующие высокую степень избыточность, при которой декодируется только одно сообщение среди множества конкурирующих сообщений. [30]

Интегрированная организация процессов нейронной информации [ править ]

Количественные методы теории информации применялись в когнитивной науке для анализа интегрированной организации процессов нейронной информации в контексте проблемы связывания в когнитивной нейробиологии . [31] В этом контексте либо теоретико-информационная мера, такая как функциональные кластеры ( модель функциональной кластеризации Джеральда Эдельмана и Джулио Тонони и гипотеза динамического ядра (DCH) [32] ) или эффективная информация Тонони ( теория интегрированной информации (ИИТ) сознания). [33] [34] [35] ), определяется (на основе реентерабельной организации процесса, т.е. синхронизации нейрофизиологической активности между группами нейрональных популяций), или мерой минимизации свободной энергии на основе статистических методов ( энергия Карла Дж. Фристона ). свободная энергетический принцип (FEP), теоретическая мера информации, которая утверждает, что каждое адаптивное изменение в самоорганизующейся системе приводит к минимизации свободной энергии, и байесовская гипотеза мозга. [36] [37] [38] [39] [40] ).

Разные приложения [ править ]

Теория информации также находит применение в азартных играх , поиске внеземного разума , [41] черные дыры и биоинформатика . [ нужна цитата ]

См. также [ править ]

Приложения [ править ]

История [ править ]

Теория [ править ]

Концепции [ править ]

Ссылки [ править ]

  1. ^ Шеннон, Клод Элвуд (1998). Математическая теория связи . Уоррен Уивер. Урбана: Издательство Университета Иллинойса. ISBN  0-252-72546-8 . OCLC   40716662 .
  2. ^ Бернэм, К.П. и Андерсон Д.Р. (2002) Выбор модели и многомодельный вывод: практический теоретико-информационный подход, второе издание (Springer Science, Нью-Йорк) ISBN   978-0-387-95364-9 .
  3. ^ Перейти обратно: а б Ф. Рике; Д. Варланд; Р. Рюйтер ван Стивенинк; В Бялек (1997). Спайкс: Исследование нейронного кода . Пресса МТИ. ISBN  978-0262681087 .
  4. ^ Дельгадо-Бональ, Альфонсо; Мартин-Торрес, Хавьер (3 ноября 2016 г.). «Человеческое зрение определяется на основе теории информации» . Научные отчеты . 6 (1): 36038. Бибкод : 2016NatSR...636038D . дои : 10.1038/srep36038 . ISSN   2045-2322 . ПМК   5093619 . ПМИД   27808236 .
  5. ^ ср; Хюльзенбек, JP; Ронквист, Ф.; Нильсен, Р.; Болбак, JP (2001). «Байесовский вывод филогении и его влияние на эволюционную биологию». Наука . 294 (5550): 2310–2314. Бибкод : 2001Sci...294.2310H . дои : 10.1126/science.1065889 . ПМИД   11743192 . S2CID   2138288 .
  6. ^ Алликметс, Рандо; Вассерман, Уайет В.; Хатчинсон, Эми; Смоллвуд, Филип; Натанс, Джереми; Роган, Питер К. (1998). «Томас Д. Шнайдер], Майкл Дин (1998) Организация гена ABCR: анализ последовательностей промотора и сплайсингового соединения» . Джин . 215 (1): 111–122. дои : 10.1016/s0378-1119(98)00269-8 . ПМИД   9666097 .
  7. ^ Джейнс, ET (1957). «Теория информации и статистическая механика» . Физ. Преподобный . 106 (4): 620. Бибкод : 1957PhRv..106..620J . дои : 10.1103/physrev.106.620 . S2CID   17870175 .
  8. ^ Талаат, Халед; Коуэн, Бенджамин; Андероглу, Осман (05.10.2020). «Метод информационной энтропии для оценки сходимости молекулярно-динамического моделирования» . Журнал прикладной физики . 128 (13): 135102. Бибкод : 2020JAP...128m5102T . дои : 10.1063/5.0019078 . ОСТИ   1691442 . S2CID   225010720 .
  9. ^ Беннетт, Чарльз Х.; Ли, Мин; Ма, Бин (2003). «Письма счастья и эволюционные истории» . Научный американец . 288 (6): 76–81. Бибкод : 2003SciAm.288f..76B . doi : 10.1038/scientificamerican0603-76 . ПМИД   12764940 . Архивировано из оригинала 7 октября 2007 г. Проверено 11 марта 2008 г.
  10. ^ Дэвид Р. Андерсон (1 ноября 2003 г.). «Некоторые сведения о том, почему люди, занимающиеся эмпирическими науками, могут захотеть лучше понять методы теории информации» (PDF) . Архивировано из оригинала (PDF) 23 июля 2011 года . Проверено 23 июня 2010 г.
  11. ^ Хорган, Джон (27 апреля 2016 г.). «Клод Шеннон: мастер, шутник и отец теории информации» . Spectrum.ieee.org . Проверено 30 сентября 2023 г.
  12. ^ Робертс, Шивон (30 апреля 2016 г.). «Забытый отец информационного века» . Житель Нью-Йорка . ISSN   0028-792X . Проверено 30 сентября 2023 г.
  13. ^ Це, Дэвид (22 декабря 2020 г.). «Как Клод Шеннон изобрел будущее» . Журнал Кванта . Проверено 30 сентября 2023 г.
  14. ^ Браверман, Марк (19 сентября 2011 г.). «Теория информации в информатике» (PDF) . {{cite web}}: CS1 maint: статус URL ( ссылка )
  15. ^ Фазлолла М. Реза (1994) [1961]. Введение в теорию информации . Dover Publications, Inc., Нью-Йорк. ISBN  0-486-68210-2 .
  16. ^ Роберт Б. Эш (1990) [1965]. Теория информации . Dover Publications, Inc. ISBN  0-486-66521-6 .
  17. ^ Перейти обратно: а б Мэсси, Джеймс (1990), «Причинность, обратная связь и направленная информация», Proc. 1990 Международный. Симп. на Инфо. Т.е. и его приложения , CiteSeerX   10.1.1.36.5688.
  18. ^ Пермутер, Хаим Генри; Вайсман, Цахи; Голдсмит, Андреа Дж. (февраль 2009 г.). «Каналы конечных состояний с инвариантной во времени детерминированной обратной связью». Транзакции IEEE по теории информации . 55 (2): 644–662. arXiv : cs/0608070 . дои : 10.1109/TIT.2008.2009849 . S2CID   13178 .
  19. ^ Крамер, Г. (январь 2003 г.). «Результаты емкости дискретной сети без памяти». Транзакции IEEE по теории информации . 49 (1): 4–21. дои : 10.1109/TIT.2002.806135 .
  20. ^ Пермутер, Хаим Х.; Ким, Ён-Хан; Вайсман, Цахи (июнь 2011 г.). «Интерпретации направленной информации в теории портфеля, сжатии данных и проверке гипотез». Транзакции IEEE по теории информации . 57 (6): 3248–3259. arXiv : 0912.4872 . дои : 10.1109/TIT.2011.2136270 . S2CID   11722596 .
  21. ^ Симеоне, Освальдо; Пермутер, Хаим Анри (июнь 2013 г.). «Исходное кодирование, когда дополнительная информация может быть задержана». Транзакции IEEE по теории информации . 59 (6): 3607–3618. arXiv : 1109.1293 . дои : 10.1109/TIT.2013.2248192 . S2CID   3211485 .
  22. ^ Хараламбус, Хараламбос Д.; Ставру, Фотий А. (август 2016 г.). «Направленная информация об абстрактных пространствах: свойства и вариационные равенства». Транзакции IEEE по теории информации . 62 (11): 6019–6052. arXiv : 1302.3971 . дои : 10.1109/TIT.2016.2604846 . S2CID   8107565 .
  23. ^ Танака, Такаши; Исфахани, Пейман Мохаджерин; Миттер, Санджой К. (январь 2018 г.). «Управление LQG с минимальной направленной информацией: подход полуопределенного программирования» . Транзакции IEEE при автоматическом управлении . 63 (1): 37–52. arXiv : 1510.04214 . дои : 10.1109/TAC.2017.2709618 . S2CID   1401958 . Архивировано из оригинала 12 апреля 2024 г. - в репозиториях TU Delft.
  24. ^ Винклер, Дрор А; Пермутер, Хаим Х; Мерхав, Нери (20 апреля 2016 г.). «Аналогия между азартными играми и извлечением работы, основанной на измерениях». Журнал статистической механики: теория и эксперимент . 2016 (4): 043403. arXiv : 1404.6788 . Бибкод : 2016JSMTE..04.3403V . дои : 10.1088/1742-5468/2016/04/043403 . S2CID   124719237 .
  25. ^ Джерри Д. Гибсон (1998). Цифровое сжатие мультимедиа: принципы и стандарты . Морган Кауфманн. ISBN  1-55860-369-7 .
  26. ^ Пермутер, Хаим Генри; Вайсман, Цахи; Голдсмит, Андреа Дж. (февраль 2009 г.). «Каналы конечных состояний с инвариантной во времени детерминированной обратной связью». Транзакции IEEE по теории информации . 55 (2): 644–662. arXiv : cs/0608070 . дои : 10.1109/TIT.2008.2009849 . S2CID   13178 .
  27. ^ Хаггерти, Патрик Э. (1981). «Корпорация и инновации». Журнал стратегического менеджмента . 2 (2): 97–118. дои : 10.1002/smj.4250020202 .
  28. ^ Перейти обратно: а б Наута, Доде (1972). Значение информации . Гаага: Мутон. ISBN  9789027919960 .
  29. ^ Нёт, Винфрид (январь 2012 г.). «Теория информации Чарльза С. Пирса: теория роста символов и знаний» . Кибернетика и человеческое познание . 19 (1–2): 137–161.
  30. ^ Нёт, Винфрид (1981). « Семиотика идеологии ». Семиотика , Выпуск 148.
  31. ^ Маурер, Х. (2021). Когнитивная наука: механизмы интегративной синхронизации в когнитивных нейроархитектурах современного коннекционизма. CRC Press, Бока-Ратон/Флорида, гл. 10, ISBN 978-1-351-04352-6. https://doi.org/10.1201/9781351043526
  32. ^ Эдельман, GM и Дж. Тонони (2000). Вселенная сознания: как материя становится воображением. Основные книги, Нью-Йорк.
  33. ^ Тонони, Г. и О. Спорнс (2003). Измерение интеграции информации. BMC Нейронаука 4: 1-20.
  34. ^ Тонони, Г. (2004a). Теория информационной интеграции сознания. BMC Нейронаука 5: 1-22.
  35. ^ Тонони, Г. (2004b). Сознание и мозг: теоретические аспекты. В: Г. Адельман и Б. Смит [ред.]: Энциклопедия неврологии. 3-е изд. Эльзевир, Амстердам, Оксфорд.
  36. ^ Фристон, К. и К.Е. Стефан (2007). Свободная энергия и мозг. Синтез 159: 417-458.
  37. ^ Фристон, К. (2010). Принцип свободной энергии: единая теория мозга. Обзоры природы по неврологии 11: 127–138.
  38. ^ Фристон, К., М. Брейкстир и Г. Деко (2012). Восприятие и самоорганизованная нестабильность. Границы вычислительной нейронауки 6: 1-19.
  39. ^ Фристон, К. (2013). Жизнь такая какая она есть. Журнал интерфейса Королевского общества 10: 20130475.
  40. ^ Кирхгоф, М., Т. Парр, Э. Паласиос, К. Фристон и Дж. Киверштейн. (2018). Марковские одеяла жизни: автономия, активный вывод и принцип свободной энергии. Журнал интерфейса Королевского общества 15: 20170792.
  41. ^ Дойл, Лоуренс Р .; МакКоуэн, Бренда ; Джонстон, Саймон; Хансер, Шон Ф. (февраль 2011 г.). «Теория информации, общение животных и поиск внеземного разума». Акта Астронавтика . 68 (3–4): 406–417. Бибкод : 2011AcAau..68..406D . дои : 10.1016/j.actaastro.2009.11.018 .

Дальнейшее чтение [ править ]

Классическая работа [ править ]

Другие журнальные статьи [ править ]

Учебники по теории информации [ править ]

Другие книги [ править ]

Внешние ссылки [ править ]