Jump to content

Теория информации

(Перенаправлено из теории Шеннона )

Теория информации это математическое исследование количественного определения , хранения и передачи информации . Эта область была основана и поставлена ​​на прочную основу Клодом Шенноном в 1940-х годах. [1] хотя ранний вклад был сделан в 1920-х годах благодаря работам Гарри Найквиста и Ральфа Хартли . Он находится на стыке электронной инженерии , математики , статистики , информатики , нейробиологии , физики и электротехники . [2]

Ключевой мерой в теории информации является энтропия . Энтропия количественно определяет степень неопределенности, связанную со значением случайной величины или результатом случайного процесса . Например, определение результата честного подбрасывания монеты (который имеет два одинаково вероятных исхода) дает меньше информации (более низкая энтропия, меньшая неопределенность), чем определение результата броска игральной кости ( который имеет шесть одинаково вероятных исходов). Некоторыми другими важными показателями в теории информации являются взаимная информация , пропускная способность канала , показатели ошибок и относительная энтропия . Важные подобласти теории информации включают исходное кодирование , теорию алгоритмической сложности , алгоритмическую теорию информации и теоретико-информационную безопасность .

Приложения фундаментальных тем теории информации включают исходное кодирование/ сжатие данных (например, для ZIP-файлов ) и канальное кодирование/ обнаружение и исправление ошибок (например, для DSL ). Его влияние имело решающее значение для успеха миссий «Вояджера» в глубокий космос, изобретения компакт-дисков , возможности мобильных телефонов и развития Интернета. [2] Теория нашла применение в других областях, включая статистический вывод , [3] криптография , нейробиология , [4] восприятие , [5] лингвистика, эволюция [6] и функция [7] молекулярных кодов ( биоинформатика ), теплофизика , [8] молекулярная динамика , [9] квантовые вычисления , черные дыры , поиск информации , сбор разведывательной информации , обнаружение плагиата , [10] распознавание образов , обнаружение аномалий , [11] проектирование системы визуализации, [12] эпистемология , [13] и даже художественное творчество.

Теория информации изучает передачу, обработку, извлечение и использование информации. Абстрактно информацию можно рассматривать как разрешение неопределенности. В случае передачи информации по зашумленному каналу эта абстрактная концепция была формализована в 1948 году Клодом Шенноном в статье под названием «Математическая теория связи» , в которой информация рассматривается как набор возможных сообщений, а цель состоит в том, чтобы отправлять эти сообщения по зашумленному каналу и заставить получателя восстановить сообщение с низкой вероятностью ошибки, несмотря на шум канала. Главный результат Шеннона, теорема кодирования шумного канала , показал, что в пределе многих использований канала скорость передачи информации, которая асимптотически достижима, равна пропускной способности канала, величине, зависящей просто от статистики канала, по которому осуществляется передача информации. сообщения отправляются. [4]

Теория кодирования занимается поиском явных методов, называемых кодами , для повышения эффективности и снижения частоты ошибок при передаче данных по зашумленным каналам до уровня, близкого к пропускной способности канала. Эти коды можно грубо разделить на методы сжатия данных (исходное кодирование) и исправления ошибок (канальное кодирование). В последнем случае потребовалось много лет, чтобы найти методы, которые доказала работа Шеннона. [ нужна ссылка ]

Третий класс кодов теории информации — это криптографические алгоритмы (как коды , так и шифры ). Концепции, методы и результаты теории кодирования и теории информации широко используются в криптографии и криптоанализе , такие как запрет единиц . [ нужна ссылка ]

Историческая справка

[ редактировать ]

Знаковым событием, заложившим дисциплину теории информации и привлекшим к ней немедленное внимание всего мира, стала публикация классической статьи Клода Э. Шеннона «Математическая теория связи» в техническом журнале Bell System в июле и октябре 1948 года. Он стал известен как «отец теории информации». [14] [15] [16] Шеннон изложил некоторые из своих первоначальных идей теории информации еще в 1939 году в письме Ванневару Бушу . [16]

До этой статьи в Bell Labs были разработаны ограниченные идеи теории информации , все они неявно предполагали, что события имеют равную вероятность. Статья Гарри Найквиста 1924 года « Определённые факторы, влияющие на скорость телеграфа » содержит теоретический раздел, определяющий количественные «интеллекты» и «скорость линии», с которой они могут передаваться по системе связи, давая соотношение W = K log m (напоминая Больцмана константа ), где W — скорость передачи разведданных, m — количество различных уровней напряжения, из которых можно выбирать на каждом временном шаге, а K — константа. В статье Ральфа Хартли 1928 года «Передача информации » слово « информация» используется как измеримая величина, отражающая способность получателя отличать одну последовательность символов от любой другой, таким образом выражая информацию количественно как H = log S. н = n log S , где S — количество возможных символов, а n — количество символов в передаче. Таким образом, единицей информации была десятичная цифра , которую с тех пор иногда называли хартли в его честь как единицу, масштаб или меру информации. Алан Тьюринг в 1940 году использовал аналогичные идеи в рамках статистического анализа взлома немецких шифров «Энигмы» времен Второй мировой войны . [ нужна ссылка ]

Большая часть математики, лежащей в основе теории информации с событиями различной вероятности, была разработана для области термодинамики Людвигом Больцманом и Дж. Уиллардом Гиббсом . Связи между теоретико-информационной энтропией и термодинамической энтропией, включая важные вклады Рольфа Ландауэра в 1960-х годах, исследуются в книге «Энтропия в термодинамике и теории информации» . [ нужна ссылка ]

В революционной и новаторской статье Шеннона, работа над которой была в основном завершена в Bell Labs к концу 1944 года, Шеннон впервые представил качественную и количественную модель коммуникации как статистического процесса, лежащего в основе теории информации, начиная с утверждения:

«Фундаментальная проблема коммуникации заключается в воспроизведении в одной точке, точно или приблизительно, сообщения, выбранного в другой точке».

Вместе с ним пришли идеи

Количество информации

[ редактировать ]

Теория информации основана на теории вероятностей и статистике, где количественная информация обычно описывается в битах. Теория информации часто занимается мерами информации о распределениях, связанных со случайными величинами. Одна из наиболее важных мер называется энтропией, которая составляет основу многих других мер. Энтропия позволяет количественно оценить меру информации в одной случайной величине. [17] Другая полезная концепция — это взаимная информация, определенная для двух случайных величин, которая описывает меру общей информации между этими переменными, которую можно использовать для описания их корреляции. Первая величина является свойством распределения вероятностей случайной величины и дает предел скорости, с которой данные, сгенерированные независимыми выборками с заданным распределением, могут быть надежно сжаты. Последнее является свойством совместного распределения двух случайных величин и представляет собой максимальную скорость надежной связи по зашумленному каналу в пределе больших длин блоков, когда статистика канала определяется совместным распределением.

Выбор логарифмической основы в следующих формулах определяет единицу используемую информационной энтропии. Общепринятой единицей информации является бит, основанный на двоичном логарифме . Другие единицы включают nat , который основан на натуральном логарифме , и десятичную цифру , которая основана на десятичном логарифме .

Далее выражение вида p log p по соглашению считается равным нулю всякий раз, когда p = 0 . Это оправдано, поскольку для любого логарифмического основания.

Энтропия источника информации

[ редактировать ]

На основе функции массы вероятности каждого передаваемого исходного символа энтропия Шеннона H в единицах битов (на символ) определяется выражением

где p i - вероятность появления i -го возможного значения исходного символа. Это уравнение дает энтропию в единицах «бит» (на символ), поскольку в нем используется логарифм по основанию 2, и эту меру энтропии по основанию 2 иногда называют шенноном в его честь. Энтропия также обычно вычисляется с использованием натурального логарифма (по основанию e , где e — число Эйлера), что позволяет измерить энтропию в натсах на символ и иногда упрощает анализ, избегая необходимости включать в формулы дополнительные константы. Возможны и другие основания, но они используются реже. Например, логарифм по основанию 2 8 = 256 будет производить измерение в байтах на символ, а логарифм по основанию 10 будет производить измерение в десятичных цифрах (или хартли ) на символ.

Интуитивно понятно, что энтропия H X дискретной случайной величины X является мерой степени неопределенности, связанной со значением X, когда известно только ее распределение.

Энтропия источника, который излучает последовательность из N символов, независимых и одинаково распределенных (iid), равна N H битов (на сообщение из N символов). но не независимы, энтропия сообщения длины N будет меньше N H. Если символы исходных данных одинаково распределены ,

Энтропия испытания Бернулли как функция вероятности успеха, часто называемая бинарной функцией энтропии , H b ( p ) . Энтропия максимизируется на уровне 1 бита за попытку, когда два возможных результата равновероятны, как при беспристрастном подбрасывании монеты.

Если кто-то передает 1000 бит (0 и 1), и значение каждого из этих битов известно получателю (имеет определенное значение с уверенностью) до передачи, ясно, что никакая информация не передается. Однако если каждый бит независимо равновероятно равен 0 или 1, то было передано 1000 элементов информации (чаще называемых битами). Между этими двумя крайностями информацию можно количественно оценить следующим образом. Если — это набор всех сообщений { x 1 , ..., x n }, которыми X может быть , а p ( x ) — это вероятность некоторого , то энтропия H X : определяется [18]

(Здесь I ( x ) — это самоинформация , которая представляет собой энтропийный вклад отдельного сообщения, и ожидаемое значение .) Свойством энтропии является то, что она максимизируется, когда все сообщения в пространстве сообщений равновероятны p ( x ) = 1/ n ; т. е. наиболее непредсказуемо, и в этом случае H ( X ) = log n .

Особым случаем информационной энтропии для случайной величины с двумя исходами является двоичная функция энтропии, обычно принимаемая к логарифмическому основанию 2, таким образом, в качестве единицы измерения используется шеннон (Sh):

Совместная энтропия

[ редактировать ]

Совместная энтропия двух дискретных случайных величин X и Y — это просто энтропия их пары: ( X , Y ) . Это означает, что если X и Y независимы , то их совместная энтропия равна сумме их индивидуальных энтропий.

Например, если ( X , Y ) представляет положение шахматной фигуры — X — строку, а Y — столбец, то совместная энтропия строки фигуры и столбца фигуры будет энтропией положения шахматной фигуры. кусок.

Несмотря на схожие обозначения, совместную энтропию не следует путать с перекрестной энтропией .

Условная энтропия (двусмысленность)

[ редактировать ]

Условная энтропия или условная неопределенность X ( с учетом случайной величины Y также называемая X относительно Y Y ) — это средняя условная энтропия по двусмысленностью : [19]

Поскольку энтропия может быть обусловлена ​​случайной величиной или тем, что эта случайная величина имеет определенное значение, следует проявлять осторожность, чтобы не путать эти два определения условной энтропии, первое из которых используется чаще. Основное свойство этой формы условной энтропии заключается в том, что:

Взаимная информация (трансинформация)

[ редактировать ]

Взаимная информация измеряет количество информации, которую можно получить об одной случайной величине, наблюдая за другой. Это важно в коммуникации, где его можно использовать для максимизации объема информации, разделяемой между отправленными и полученными сигналами. Взаимная информация X относительно Y определяется следующим образом:

где SI ( специфическая взаимная информация) — это поточечная взаимная информация .

Основное свойство взаимной информации состоит в том, что

То есть, зная Y , мы можем сохранить в среднем I ( X ; Y ) бит при кодировании X с незнанием Y. по сравнению

Взаимная информация симметрична :

Взаимная информация может быть выражена как среднее расхождение Кульбака – Лейблера (прирост информации) между учетом значения апостериорным распределением вероятностей X Y и априорным распределением X с :

Другими словами, это мера того, насколько в среднем изменится распределение вероятностей по X если нам дать значение Y. , Это часто пересчитывается как расхождение произведения предельных распределений к фактическому совместному распределению:

Взаимная информация тесно связана с тестом логарифмического отношения правдоподобия в контексте таблиц сопряженности и полиномиального распределения , а также с критерием Пирсона χ 2 тест : взаимная информация может рассматриваться как статистика для оценки независимости между парой переменных и имеет четко определенное асимптотическое распределение.

Расхождение Кульбака – Лейблера (прирост информации)

[ редактировать ]

Дивергенция Кульбака -Лейблера (или информационная дивергенция , прирост информации или относительная энтропия ) — это способ сравнения двух распределений: «истинное» распределение вероятностей и произвольное распределение вероятностей . Если мы сжимаем данные таким образом, что предполагается — это распределение, лежащее в основе некоторых данных, тогда как на самом деле — правильное распределение, расхождение Кульбака–Лейблера — это среднее количество дополнительных бит на единицу данных, необходимое для сжатия. Таким образом определяется

Хотя дивергенция KL иногда используется как «метрика расстояния», она не является истинной метрикой , поскольку она не симметрична и не удовлетворяет неравенству треугольника (что делает ее полуквазиметрикой).

Другая интерпретация расхождения KL — это «ненужный сюрприз», внесенный априорным отличием от истины: предположим, что число X собирается быть выбрано случайным образом из дискретного набора с распределением вероятностей . Если Алиса знает истинное распределение , в то время как Боб считает (имеет априорное значение ), что распределение больше , то Боб в среднем удивится , чем Алиса, увидев значение X . Дивергенция KL — это (объективное) ожидаемое значение (субъективного) сюрприза Боба минус сюрприз Алисы, измеренное в битах, если журнал находится в базе 2. Таким образом, степень, в которой априорное значение Боба «неправильно», можно выразить количественно в терминах о том, как «ненужно удивлюсь» его это ожидает.

Направленная информация

[ редактировать ]

Направленная информация , , является мерой теории информации, которая количественно определяет поток информации от случайного процесса к случайному процессу . Термин «направленная информация» был придуман Джеймсом Мэсси и определяется как

,

где это условная взаимная информация .

В отличие от взаимной информации, направленная информация не симметрична. измеряет биты информации, которые передаются причинно [определение причинно-следственной передачи?] от к . Направленная информация имеет множество применений в задачах, где причинно-следственная связь играет важную роль, например, пропускная способность канала с обратной связью, [20] [21] емкость дискретных безпамяти сетей с обратной связью, [22] азартные игры с причинно-следственной информацией, [23] сжатие причинно-следственной информации, [24] и в настройках связи управления в реальном времени , [25] [26] статистическая физика. [27]

Другие количества

[ редактировать ]

Другие важные теоретические величины информации включают энтропию Реньи и энтропию Тсаллиса (обобщения концепции энтропии), дифференциальную энтропию (обобщение количеств информации до непрерывных распределений) и условную взаимную информацию . Кроме того, прагматическая информация была предложена в качестве меры того, сколько информации было использовано при принятии решения.

Теория кодирования

[ редактировать ]
На снимке видны царапины на читаемой поверхности CD-R. Компакт-диски с музыкой и данными кодируются с использованием кодов исправления ошибок, поэтому их можно читать, даже если на них имеются незначительные царапины, с помощью обнаружения и исправления ошибок .

Теория кодирования — одно из наиболее важных и прямых приложений теории информации. Ее можно разделить на теорию исходного кодирования и теорию канального кодирования. Используя статистическое описание данных, теория информации определяет количество битов, необходимых для описания данных, что представляет собой информационную энтропию источника.

  • Сжатие данных (исходное кодирование). Существует две постановки задачи сжатия:
  • Коды, исправляющие ошибки (канальное кодирование). В то время как сжатие данных устраняет как можно большую избыточность, код, исправляющий ошибки, добавляет именно тот тип избыточности (т. е. исправление ошибок), необходимый для эффективной и достоверной передачи данных по зашумленному каналу.

Такое разделение теории кодирования на сжатие и передачу оправдывается теоремами о передаче информации или теоремами разделения источника и канала, которые оправдывают использование битов в качестве универсальной валюты для информации во многих контекстах. Однако эти теоремы справедливы только в ситуации, когда один передающий пользователь желает связаться с одним принимающим пользователем. В сценариях с более чем одним передатчиком (канал множественного доступа), более чем одним приемником ( канал вещания ) или промежуточными «помощниками» ( канал ретрансляции ) или более общими сетями сжатие с последующей передачей может перестать быть оптимальным.

Теория источника

[ редактировать ]

Любой процесс, генерирующий последовательные сообщения, можно считать источником информации. Источник без памяти — это источник, в котором каждое сообщение представляет собой независимую одинаково распределенную случайную величину , тогда как свойства эргодичности и стационарности накладывают менее ограничительные ограничения. Все такие источники являются стохастическими . Эти термины сами по себе хорошо изучены за пределами теории информации.

информации Скорость передачи — это средняя энтропия на символ. Для источников без памяти это просто энтропия каждого символа, а в случае стационарного случайного процесса —

то есть условная энтропия символа с учетом всех предыдущих сгенерированных символов. Для более общего случая процесса, который не обязательно является стационарным, средняя скорость равна

то есть предел совместной энтропии на символ. Для стационарных источников эти два выражения дают один и тот же результат. [28]

Скорость информации определяется как

В теории информации принято говорить о «скорости» или «энтропии» языка. Это уместно, например, когда источником информации является английская проза. Скорость источника информации связана с его избыточностью и тем, насколько хорошо он может быть сжат, что является предметом исходного кодирования .

Пропускная способность канала

[ редактировать ]

Коммуникация по каналу является основной мотивацией теории информации. Однако каналы часто не могут обеспечить точную реконструкцию сигнала; шум, периоды молчания и другие формы искажения сигнала часто ухудшают качество.

Рассмотрим процесс связи по дискретному каналу. Простая модель процесса показана ниже:

Здесь X представляет собой пространство переданных сообщений, а Y — пространство сообщений, полученных за единицу времени по нашему каналу. Пусть p ( y | x ) будет вероятностей условной функцией распределения Y условии X. при Мы будем считать p ( y | x ) неотъемлемым фиксированным свойством нашего канала связи (отражающим природу шума нашего канала). Тогда совместное распределение X и Y полностью определяется нашим каналом и нашим выбором f ( x ) — предельного распределения сообщений, которые мы выбираем для отправки по каналу. При этих ограничениях мы хотели бы максимизировать скорость передачи информации или сигнала , которую мы можем передавать по каналу. Подходящей мерой для этого является взаимная информация, и эта максимальная взаимная информация называется пропускной способностью канала и определяется как:

Эта пропускная способность имеет следующее свойство, связанное с передачей информации со скоростью R (где R обычно представляет собой количество битов на символ). Для любой скорости передачи информации R < C и ошибки кодирования ε > 0, для достаточно большого N существует код длины N и скорости ≥ R и алгоритм декодирования, такой, что максимальная вероятность ошибки блока составляет ≤ ε ; то есть всегда можно передавать с сколь угодно малой блочной ошибкой. Кроме того, при любой скорости R > C невозможно передавать со сколь угодно малой ошибкой блока.

Канальное кодирование занимается поиском таких почти оптимальных кодов, которые можно использовать для передачи данных по зашумленному каналу с небольшой ошибкой кодирования со скоростью, близкой к пропускной способности канала.

Пропускная способность отдельных моделей каналов

[ редактировать ]
  • Аналоговый канал связи, непрерывный во времени, подверженный гауссовскому шуму — см. теорему Шеннона – Хартли .
  • Двоичный симметричный канал (BSC) с вероятностью пересечения p — это канал двоичного входа и двоичного вывода, который инвертирует входной бит с вероятностью p . BSC имеет емкость 1 − H b ( p ) битов на использование канала, где H b — двоичная энтропийная функция в логарифме по основанию 2:
  • Канал двоичного стирания (BEC) с вероятностью стирания p представляет собой двоичный входной и троичный выходной канал. Возможные выходные сигналы канала: 0, 1 и третий символ «е», называемый стиранием. Стирание представляет собой полную потерю информации о входном бите. Емкость BEC составляет 1 - p бит на использование канала.

Каналы с памятью и направленной информацией

[ редактировать ]

На практике многие каналы имеют память. А именно, в момент канал задается условной вероятностью . Зачастую удобнее использовать обозначение и канал становится . В таком случае пропускная способность определяется взаимной скоростью информации отсутствует , когда обратная связь , и направленной скоростью информации в случае, когда обратная связь либо есть, либо нет. [20] [29] (при отсутствии обратной связи направленная информация равна взаимной информации).

Приложения в других областях

[ редактировать ]

Использование разведки и секретные приложения

[ редактировать ]

Концепции теории информации применимы к криптографии и криптоанализу. Информационная единица Тьюринга — запрет — была использована в проекте «Ультра» , взломав немецкий машинный код «Энигмы» и ускорив окончание Второй мировой войны в Европе . Сам Шеннон определил важную концепцию, которая теперь называется расстоянием единственности . Основываясь на избыточности открытого текста , он пытается предоставить минимальный объем зашифрованного текста, необходимый для обеспечения уникальной расшифровки.

Теория информации заставляет нас думать, что хранить секреты гораздо труднее, чем может показаться на первый взгляд. Атака методом грубой силы может вывести из строя системы, основанные на алгоритмах с асимметричным ключом или на наиболее часто используемых методах алгоритмов с симметричным ключом (иногда называемых алгоритмами с секретным ключом), таких как блочные шифры . Безопасность всех таких методов исходит из предположения, что ни одна известная атака не может взломать их за практический промежуток времени.

Теоретико-информационная безопасность относится к таким методам, как одноразовый блокнот , которые не уязвимы для таких атак методом грубой силы. В таких случаях положительная условная взаимная информация между открытым текстом и зашифрованным текстом (обусловленная ключом ) может обеспечить правильную передачу, в то время как безусловная взаимная информация между открытым текстом и зашифрованным текстом остается нулевой, что приводит к абсолютно безопасной связи. Другими словами, перехватчик не сможет улучшить свое предположение об открытом тексте, узнав о зашифрованном тексте, но не о ключе. Однако, как и в любой другой криптографической системе, необходимо проявлять осторожность при правильном применении даже теоретически безопасных методов; Проект Венона смог взломать одноразовые блокноты Советского Союза из-за неправильного повторного использования ключевого материала.

Генерация псевдослучайных чисел

[ редактировать ]

Генераторы псевдослучайных чисел широко доступны в библиотеках компьютерных языков и прикладных программах. Они почти всегда непригодны для криптографического использования, поскольку не уклоняются от детерминистской природы современного компьютерного оборудования и программного обеспечения. Класс улучшенных генераторов случайных чисел называется криптографически безопасными генераторами псевдослучайных чисел , но даже им случайные начальные числа для правильной работы требуются внешние по отношению к программному обеспечению . Их можно получить с помощью экстракторов , если делать это осторожно. Мерой достаточной случайности в экстракторах является min-энтропия , величина, связанная с энтропией Шеннона через энтропию Реньи ; Энтропия Реньи также используется для оценки случайности в криптографических системах. Несмотря на то, что различия между этими мерами взаимосвязаны, они означают, что случайная величина с высокой энтропией Шеннона не обязательно является удовлетворительной для использования в экстракторе и, следовательно, для использования в криптографии.

Сейсморазведка

[ редактировать ]

Одним из первых коммерческих применений теории информации была область сейсмической разведки нефти. Работа в этой области позволила отделить и отделить нежелательный шум от полезного сейсмического сигнала. Теория информации и цифровая обработка сигналов обеспечивают значительное улучшение разрешения и четкости изображения по сравнению с предыдущими аналоговыми методами. [30]

Семиотика

[ редактировать ]

Семиотики Доде Наута и Винфрид Нёт считали, что Чарльз Сандерс Пирс создал теорию информации в своих работах по семиотике. [31] : 171  [32] : 137  Наута определил семиотическую теорию информации как исследование «внутренних процессов кодирования, фильтрации и обработки информации». [31] : 91 

Концепции теории информации, такие как избыточность и кодовый контроль, использовались семиотиками, такими как Умберто Эко и Ферруччо Росси-Ланди, для объяснения идеологии как формы передачи сообщений, посредством которой доминирующий социальный класс излучает свое сообщение, используя знаки, демонстрирующие высокую степень избыточность, при которой декодируется только одно сообщение из множества конкурирующих сообщений. [33]

Интегрированная организация процессов нейронной информации

[ редактировать ]

Количественные методы теории информации применялись в когнитивной науке для анализа интегрированной организации процессов нейронной информации в контексте проблемы связывания в когнитивной нейробиологии . [34] В этом контексте либо теоретико-информационная мера, такая как функциональные кластеры ( Джеральда Эдельмана и Джулио Тонони и гипотеза динамического ядра (DCH) модель функциональной кластеризации [35] ) или эффективная информация Тонони ( теория интегрированной информации (ИИТ) сознания). [36] [37] [38] ), определяется (на основе реентерабельной организации процесса, т.е. синхронизации нейрофизиологической активности между группами популяций нейронов), или мерой минимизации свободной энергии на основе статистических методов ( Карла Дж. Фристона ) свободная энергия . энергетический принцип (FEP), теоретическая мера информации, которая утверждает, что каждое адаптивное изменение в самоорганизующейся системе приводит к минимизации свободной энергии, и мозга байесовская гипотеза [39] [40] [41] [42] [43] ).

Разные приложения

[ редактировать ]

Теория информации также имеет применение в поисках внеземного разума . [44] черные дыры , биоинформатика [ нужна ссылка ] и азартные игры .

См. также

[ редактировать ]

Приложения

[ редактировать ]

Концепции

[ редактировать ]
  1. ^ Шнайдер, Томас Д. (2006). «Клод Шеннон: биолог» . Журнал IEEE «Инженерия в медицине и биологии»: ежеквартальный журнал Общества инженерии в медицине и биологии . 25 (1): 30–33. ISSN   0739-5175 . ПМЦ   1538977 . ПМИД   16485389 .
  2. ^ Jump up to: а б Баляну, Д.; Балас, Валентина Эмилия; Агарвал, Правин, ред. (2023). Системы дробного порядка и их применение в технике . Перспективные исследования сложных систем. Лондон, Великобритания: Академическая пресса. п. 23. ISBN  978-0-323-90953-2 . OCLC   1314337815 .
  3. ^ Бернхэм, К.П. и Андерсон Д.Р. (2002) Выбор модели и многомодельный вывод: практический информационный подход, второе издание (Springer Science, Нью-Йорк) ISBN   978-0-387-95364-9 .
  4. ^ Jump up to: а б Ф. Рике; Д. Варланд; Р Рюйтер ван Стивенинк; В Бялек (1997). Спайкс: исследование нейронного кода . Пресса МТИ. ISBN  978-0262681087 .
  5. ^ Дельгадо-Бональ, Альфонсо; Мартин-Торрес, Хавьер (3 ноября 2016 г.). «Человеческое зрение определяется на основе теории информации» . Научные отчеты . 6 (1): 36038. Бибкод : 2016NatSR...636038D . дои : 10.1038/srep36038 . ISSN   2045-2322 . ПМК   5093619 . ПМИД   27808236 .
  6. ^ ср; Хюльзенбек, JP; Ронквист, Ф.; Нильсен, Р.; Болбак, JP (2001). «Байесовский вывод филогении и его влияние на эволюционную биологию». Наука . 294 (5550): 2310–2314. Бибкод : 2001Sci...294.2310H . дои : 10.1126/science.1065889 . ПМИД   11743192 . S2CID   2138288 .
  7. ^ Алликметс, Рандо; Вассерман, Уайет В.; Хатчинсон, Эми; Смоллвуд, Филип; Натанс, Джереми; Роган, Питер К. (1998). «Томас Д. Шнайдер], Майкл Дин (1998) Организация гена ABCR: анализ последовательностей промотора и сплайсингового соединения» . Джин . 215 (1): 111–122. дои : 10.1016/s0378-1119(98)00269-8 . ПМИД   9666097 .
  8. ^ Джейнс, ET (1957). «Теория информации и статистическая механика» . Физ. Преподобный . 106 (4): 620. Бибкод : 1957PhRv..106..620J . дои : 10.1103/physrev.106.620 . S2CID   17870175 .
  9. ^ Талаат, Халед; Коуэн, Бенджамин; Андероглу, Осман (05.10.2020). «Метод информационной энтропии для оценки сходимости молекулярно-динамического моделирования» . Журнал прикладной физики . 128 (13): 135102. Бибкод : 2020JAP...128m5102T . дои : 10.1063/5.0019078 . ОСТИ   1691442 . S2CID   225010720 .
  10. ^ Беннетт, Чарльз Х.; Ли, Мин; Ма, Бин (2003). «Письма счастья и эволюционные истории» . Научный американец . 288 (6): 76–81. Бибкод : 2003SciAm.288f..76B . doi : 10.1038/scientificamerican0603-76 . ПМИД   12764940 . Архивировано из оригинала 7 октября 2007 г. Проверено 11 марта 2008 г.
  11. ^ Дэвид Р. Андерсон (1 ноября 2003 г.). «Некоторые сведения о том, почему люди, занимающиеся эмпирическими науками, могут захотеть лучше понять методы теории информации» (PDF) . Архивировано из оригинала (PDF) 23 июля 2011 года . Проверено 23 июня 2010 г.
  12. ^ «Универсальная оценка и проектирование систем визуализации с использованием оценки информации» .
  13. ^ Хармс, Уильям Ф. (1998). «Использование теории информации в эпистемологии» . Философия науки . 65 (3): 472–501. ISSN   0031-8248 .
  14. ^ Хорган, Джон (27 апреля 2016 г.). «Клод Шеннон: мастер, шутник и отец теории информации» . ИИЭЭ . Проверено 30 сентября 2023 г.
  15. ^ Робертс, Шивон (30 апреля 2016 г.). «Забытый отец информационного века» . Житель Нью-Йорка . ISSN   0028-792X . Проверено 30 сентября 2023 г.
  16. ^ Jump up to: а б Це, Дэвид (22 декабря 2020 г.). «Как Клод Шеннон изобрел будущее» . Журнал Кванта . Проверено 30 сентября 2023 г.
  17. ^ Браверман, Марк (19 сентября 2011 г.). «Теория информации в информатике» (PDF) .
  18. ^ Фазлолла М. Реза (1994) [1961]. Введение в теорию информации . Dover Publications, Inc., Нью-Йорк. ISBN  0-486-68210-2 .
  19. ^ Роберт Б. Эш (1990) [1965]. Теория информации . Dover Publications, Inc. ISBN  0-486-66521-6 .
  20. ^ Jump up to: а б Мэсси, Джеймс (1990), «Причинность, обратная связь и направленная информация», Proc. 1990 Международный. Симп. на Инфо. Т.е. и его приложения , CiteSeerX   10.1.1.36.5688.
  21. ^ Пермутер, Хаим Генри; Вайсман, Цахи; Голдсмит, Андреа Дж. (февраль 2009 г.). «Каналы конечных состояний с инвариантной во времени детерминированной обратной связью». Транзакции IEEE по теории информации . 55 (2): 644–662. arXiv : cs/0608070 . дои : 10.1109/TIT.2008.2009849 . S2CID   13178 .
  22. ^ Крамер, Г. (январь 2003 г.). «Результаты емкости дискретной сети без памяти». Транзакции IEEE по теории информации . 49 (1): 4–21. дои : 10.1109/TIT.2002.806135 .
  23. ^ Пермутер, Хаим Х.; Ким, Ён-Хан; Вайсман, Цахи (июнь 2011 г.). «Интерпретации направленной информации в теории портфеля, сжатии данных и проверке гипотез». Транзакции IEEE по теории информации . 57 (6): 3248–3259. arXiv : 0912.4872 . дои : 10.1109/TIT.2011.2136270 . S2CID   11722596 .
  24. ^ Симеоне, Освальдо; Пермутер, Хаим Анри (июнь 2013 г.). «Исходное кодирование, когда дополнительная информация может быть задержана». Транзакции IEEE по теории информации . 59 (6): 3607–3618. arXiv : 1109.1293 . дои : 10.1109/TIT.2013.2248192 . S2CID   3211485 .
  25. ^ Хараламбус, Хараламбос Д.; Ставру, Фотий А. (август 2016 г.). «Направленная информация об абстрактных пространствах: свойства и вариационные равенства». Транзакции IEEE по теории информации . 62 (11): 6019–6052. arXiv : 1302.3971 . дои : 10.1109/TIT.2016.2604846 . S2CID   8107565 .
  26. ^ Танака, Такаши; Исфахани, Пейман Мохаджерин; Миттер, Санджой К. (январь 2018 г.). «Управление LQG с минимальной направленной информацией: подход полуопределенного программирования» . Транзакции IEEE при автоматическом управлении . 63 (1): 37–52. arXiv : 1510.04214 . дои : 10.1109/TAC.2017.2709618 . S2CID   1401958 . Архивировано из оригинала 12 апреля 2024 г. - в репозиториях TU Delft.
  27. ^ Винклер, Дрор А; Пермутер, Хаим Х; Мерхав, Нери (20 апреля 2016 г.). «Аналогия между азартными играми и извлечением работы, основанной на измерениях». Журнал статистической механики: теория и эксперимент . 2016 (4): 043403. arXiv : 1404.6788 . Бибкод : 2016JSMTE..04.3403V . дои : 10.1088/1742-5468/2016/04/043403 . S2CID   124719237 .
  28. ^ Джерри Д. Гибсон (1998). Цифровое сжатие мультимедиа: принципы и стандарты . Морган Кауфманн. ISBN  1-55860-369-7 .
  29. ^ Пермутер, Хаим Генри; Вайсман, Цахи; Голдсмит, Андреа Дж. (февраль 2009 г.). «Каналы конечных состояний с инвариантной во времени детерминированной обратной связью». Транзакции IEEE по теории информации . 55 (2): 644–662. arXiv : cs/0608070 . дои : 10.1109/TIT.2008.2009849 . S2CID   13178 .
  30. ^ Хаггерти, Патрик Э. (1981). «Корпорация и инновации». Журнал стратегического менеджмента . 2 (2): 97–118. дои : 10.1002/smj.4250020202 .
  31. ^ Jump up to: а б Наута, Доде (1972). Значение информации . Гаага: Мутон. ISBN  9789027919960 .
  32. ^ Нёт, Винфрид (январь 2012 г.). «Теория информации Чарльза С. Пирса: теория роста символов и знаний» . Кибернетика и человеческое познание . 19 (1–2): 137–161.
  33. ^ Нёт, Винфрид (1981). « Семиотика идеологии ». Семиотика , Выпуск 148.
  34. ^ Маурер, Х. (2021). Когнитивная наука: механизмы интегративной синхронизации в когнитивных нейроархитектурах современного коннекционизма. CRC Press, Бока-Ратон/Флорида, гл. 10, ISBN 978-1-351-04352-6. https://doi.org/10.1201/9781351043526
  35. ^ Эдельман, GM и Дж. Тонони (2000). Вселенная сознания: как материя становится воображением. Основные книги, Нью-Йорк.
  36. ^ Тонони, Г. и О. Спорнс (2003). Измерение интеграции информации. BMC Нейронаука 4: 1-20.
  37. ^ Тонони, Г. (2004a). Теория информационной интеграции сознания. BMC Нейронаука 5: 1-22.
  38. ^ Тонони, Г. (2004b). Сознание и мозг: теоретические аспекты. В: Г. Адельман и Б. Смит [ред.]: Энциклопедия неврологии. 3-е изд. Эльзевир, Амстердам, Оксфорд.
  39. ^ Фристон, К. и К.Е. Стефан (2007). Свободная энергия и мозг. Синтез 159: 417-458.
  40. ^ Фристон, К. (2010). Принцип свободной энергии: единая теория мозга. Обзоры природы по неврологии 11: 127–138.
  41. ^ Фристон, К., М. Брейкстир и Г. Деко (2012). Восприятие и самоорганизованная нестабильность. Границы вычислительной нейронауки 6: 1-19.
  42. ^ Фристон, К. (2013). Жизнь, какой мы ее знаем. Журнал интерфейса Королевского общества 10: 20130475.
  43. ^ Кирхгоф, М., Т. Парр, Э. Паласиос, К. Фристон и Дж. Киверштейн. (2018). Марковские одеяла жизни: автономия, активный вывод и принцип свободной энергии. Журнал интерфейса Королевского общества 15: 20170792.
  44. ^ Дойл, Лоуренс Р .; МакКоуэн, Бренда ; Джонстон, Саймон; Хансер, Шон Ф. (февраль 2011 г.). «Теория информации, общение животных и поиск внеземного разума». Акта Астронавтика . 68 (3–4): 406–417. Бибкод : 2011AcAau..68..406D . дои : 10.1016/j.actaastro.2009.11.018 .

Дальнейшее чтение

[ редактировать ]

Классическая работа

[ редактировать ]

Другие журнальные статьи

[ редактировать ]

Учебники по теории информации

[ редактировать ]

Другие книги

[ редактировать ]
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 62279d16e372207a76a8caffbc8bfbf1__1722387360
URL1:https://arc.ask3.ru/arc/aa/62/f1/62279d16e372207a76a8caffbc8bfbf1.html
Заголовок, (Title) документа по адресу, URL1:
Information theory - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)