Jump to content

Информация о Фишере

(Перенаправлено из матрицы Фишера )

В математической статистике информация Фишера (иногда называемая просто информацией) [1] ) — это способ измерения количества информации , которую несет наблюдаемая случайная величина X о неизвестном параметре θ распределения, X. моделирующего это дисперсия оценки . или ожидаемое значение наблюдаемой информации Формально

Роль информации Фишера в асимптотической теории оценки максимального правдоподобия была подчеркнута и исследована статистиком сэром Рональдом Фишером (после некоторых первоначальных результатов Фрэнсиса Исидро Эджворта ). Информационная матрица Фишера используется для расчета ковариационных матриц, связанных с максимального правдоподобия оценками . Его также можно использовать при формулировании тестовой статистики, такой как тест Вальда .

В байесовской статистике информация Фишера играет роль в получении неинформативных априорных распределений согласно правилу Джеффриса . [2] в большой выборке Это также проявляется как ковариация апостериорного распределения при условии, что априорное распределение достаточно гладкое (результат, известный как теорема Бернштейна-фон Мизеса , который был предсказан Лапласом для экспоненциальных семейств ). [3] Тот же результат используется при аппроксимации апостериорной аппроксимации с помощью аппроксимации Лапласа , где информация Фишера появляется как ковариация подобранного гауссиана. [4]

статистические системы научного характера (физические, биологические и т. д.), функции правдоподобия которых подчиняются сдвиговой инвариантности , подчиняются максимальной информации Фишера. Было показано, что [5] Уровень максимума зависит от характера ограничений системы.

Определение

[ редактировать ]

Информация Фишера — это способ измерения количества информации, которую может получить наблюдаемая случайная величина. несет в себе неизвестный параметр при котором вероятность зависит от. Позволять быть функцией плотности вероятности (или функцией массы вероятности ) для обусловлено стоимостью . Он описывает вероятность того, что мы наблюдаем данный результат , учитывая известное значение . Если имеет резкий пик по отношению к изменениям в , легко указать «правильное» значение из данных или, что то же самое, что данные предоставляет много информации о параметре . Если плоский и разбросанный, то потребуется много образцов оценить реальную «истинную» стоимость это будет получено с использованием всей выборки генеральной совокупности. Это предполагает изучение некоторой дисперсии по отношению к .

Формально частная производная по натурального логарифма правдоподобия функции называется оценкой . При определенных условиях регулярности, если является истинным параметром (т.е. фактически распределяется как ), можно показать, что ожидаемое значение (первый момент ) оценки, оцененное по истинному значению параметра , равно 0: [6]

Информация Фишера определяется как дисперсия оценки: [7]

Обратите внимание, что . Случайная переменная, несущая высокую информацию Фишера, подразумевает, что абсолютное значение оценки часто бывает высоким. Информация Фишера не является функцией конкретного наблюдения, поскольку случайная величина X была усреднена.

Если log f ( x ; θ ) дважды дифференцируем по θ и при определенных условиях регулярности, то информацию Фишера можно также записать как [8]

с

и

Таким образом, информацию Фишера можно рассматривать как кривизну кривой поддержки (график логарифмического правдоподобия). Таким образом, вблизи оценки максимального правдоподобия низкая информация Фишера указывает на то, что максимум выглядит «тупым», то есть максимум неглубокий и существует множество близлежащих значений с аналогичной логарифмической вероятностью. И наоборот, высокая информация Фишера указывает на то, что максимум резкий.

Условия регулярности

[ редактировать ]

Условия регулярности следующие: [9]

  1. Частная производная f ( X ; θ ) по θ существует почти всюду . (Он может не существовать в нулевом множестве, если этот набор не зависит от θ .)
  2. Интеграл от f ( X ; θ ) можно дифференцировать под знаком интеграла по θ .
  3. Носитель f зависит ; ( X θ θ ) не от .

Если θ — вектор, то условия регулярности должны выполняться для каждой компоненты θ . Легко найти пример плотности, которая не удовлетворяет условиям регулярности: плотность переменной Uniform(0, θ ) не удовлетворяет условиям 1 и 3. В этом случае, даже несмотря на то, что информация Фишера может быть вычислена из определению, он не будет обладать теми свойствами, которые обычно предполагается иметь.

С точки зрения вероятности

[ редактировать ]

Поскольку вероятность θ θ при данном X всегда пропорциональна вероятности f ( X ; θ ), их логарифмы обязательно отличаются на константу, независимую от , и производные этих логарифмов по θ обязательно равны. Таким образом, можно заменить логарифмическую вероятность l ( θ ; X ) вместо log f ( X ; θ ) в определениях информации Фишера.

Образцы любого размера

[ редактировать ]

Значение X может представлять собой одну выборку, взятую из одного распределения, или может представлять собой набор выборок, взятых из набора распределений. Если имеется n выборок и соответствующие n распределений статистически независимы , то информация Фишера обязательно будет суммой значений информации Фишера для одной выборки, по одному для каждой отдельной выборки из ее распределения. В частности, если n распределений независимы и одинаково распределены , то информация Фишера обязательно будет в n раз больше информации Фишера для одной выборки из общего распределения. Другими словами, информация Фишера iid наблюдений выборки размера n из совокупности равна произведению n и информации Фишера одного наблюдения из той же совокупности.

Неформальный вывод границы Крамера – Рао

[ редактировать ]

Граница Крамера – Рао [10] [11] что обратная информация Фишера является нижней границей дисперсии любой несмещенной оценки θ утверждает , . Х.Л. Ван Трис (1968) и Б. Рой Фриден (2004) предлагают следующий метод получения границы Крамера-Рао , результат, который описывает использование информации Фишера.

Неформально, мы начнем с рассмотрения несмещенной оценки . Математически «несмещенный» означает, что

Это выражение равно нулю и не зависит от θ , поэтому его частная производная по θ также должна быть равна нулю. По правилу произведения эта частная производная также равна

Для каждого θ функция правдоподобия является функцией плотности вероятности, и, следовательно, . Используя цепное правило для частной производной а затем разделить и умножить на , можно убедиться в этом

Используя эти два факта из вышеизложенного, мы получаем

Факторизация подынтегральной функции дает

Возводя выражение в интеграл в квадрат, неравенство Коши – Шварца дает

Второй фактор в скобках определяется как информация Фишера, а первый фактор в скобках представляет собой ожидаемую среднеквадратическую ошибку оценщика. . Перестановка неравенства говорит нам, что

Другими словами, точность, с которой мы можем оценить θ, фундаментально ограничена информацией Фишера функции правдоподобия.

Альтернативно, тот же вывод можно получить непосредственно из неравенства Коши – Шварца для случайных величин , , применительно к случайным величинам и и учитывая, что для несмещенных оценок мы имеем

Однопараметрический эксперимент Бернулли

[ редактировать ]

Испытание Бернулли — это случайная величина с двумя возможными исходами, 0 и 1, причем 1 имеет вероятность θ . Результат можно считать определяемым подбрасыванием смещенной монеты, при этом вероятность выпадения орла (1) равна θ , а вероятность выпадения решки (0) равна 1 − θ .

Пусть X — испытание Бернулли одной выборки из распределения. Информация Фишера, содержащаяся в X, может быть рассчитана следующим образом:

Поскольку информация Фишера аддитивна, информация Фишера, содержащаяся в n независимых испытаниях Бернулли, является, следовательно,

Если является одним из возможные результаты n независимых испытаний Бернулли и j -й результат i -го испытания, тогда вероятность дается:

Среднее значение i -го испытания равно Ожидаемое значение среднего значения испытания равно:

где сумма равна всем возможные результаты испытаний. Ожидаемое значение квадрата средних равно:

поэтому дисперсия среднего значения равна:

Видно, что информация Фишера обратна дисперсии среднего числа успехов в n испытаниях Бернулли . В целом это правда. В этом случае граница Крамера–Рао представляет собой равенство.

Оценивать от

[ редактировать ]

В качестве еще одного игрушечного примера рассмотрим случайную величину с возможными исходами 0 и 1, с вероятностями и , соответственно, для некоторых . Наша цель – оценить из наблюдений за .

Информация Фишера в данном случае читается Это выражение также можно получить непосредственно из изменения формулы репараметризации, приведенной ниже. В более общем смысле, для любой достаточно регулярной функции такой, что , информация Фишера для получения от аналогично рассчитывается как

Матричная форма

[ редактировать ]

Когда имеется N параметров, так что θ представляет собой N × 1. вектор размера тогда информация Фишера принимает форму размера N × N матрицы . Эта матрица называется информационной матрицей Фишера (FIM) и имеет типичный элемент

FIM представляет собой N × N. положительно-полуопределенную матрицу размера Если он положительно определен, то он определяет риманову метрику [12] в N - мерном пространстве параметров . темы Геометрия информации использует это для соединения информации Фишера с дифференциальной геометрией , и в этом контексте эта метрика известна как метрика информации Фишера .

При определенных условиях регулярности информационная матрица Фишера также может быть записана как

Результат интересен по нескольким причинам:

  • Его можно вывести как гессиан относительной энтропии .
  • Ее можно использовать как риманову метрику для определения геометрии Фишера-Рао, когда она положительно определена. [13]
  • Ее можно понимать как метрику, полученную из евклидовой метрики после соответствующей замены переменной.
  • В комплексной форме это метрика Фубини–Студи .
  • Это ключевая часть доказательства теоремы Уилкса , которая позволяет оценить доверительную область для оценки максимального правдоподобия (для тех условий, к которым она применима) без необходимости использования Принципа правдоподобия .
  • В случаях, когда аналитические расчеты FIM, описанные выше, сложны, можно сформировать среднее из простых оценок Монте-Карло гессиана отрицательной логарифмической функции правдоподобия как оценки FIM. [14] [15] [16] Оценки могут быть основаны на значениях отрицательной логарифмической функции правдоподобия или градиенте отрицательной логарифмической функции правдоподобия; аналитический расчет гессиана отрицательной логарифмической функции правдоподобия не требуется.

Информационные ортогональные параметры

[ редактировать ]

Мы говорим, что два вектора компонентов параметров θ 1 и θ 2 являются информационными ортогональными, если информационная матрица Фишера является блочно-диагональной, причем эти компоненты находятся в отдельных блоках. [17] С ортогональными параметрами легко иметь дело в том смысле, что их оценки максимального правдоподобия асимптотически некоррелированы. При рассмотрении вопроса о том, как анализировать статистическую модель, разработчику модели рекомендуется потратить некоторое время на поиск ортогональной параметризации модели, особенно когда интересующий параметр является одномерным, но мешающий параметр может иметь любую размерность. [18]

Сингулярная статистическая модель

[ редактировать ]

Если информационная матрица Фишера положительно определена для всех θ , то соответствующая статистическая модель называется регулярной ; в противном случае статистическая модель называется сингулярной . [19] Примеры сингулярных статистических моделей включают следующее: нормальные смеси, биномиальные смеси, полиномиальные смеси, байесовские сети, нейронные сети, радиальные базисные функции, скрытые модели Маркова, стохастические бесконтекстные грамматики, регрессии пониженного ранга, машины Больцмана.

В машинном обучении , если статистическая модель разработана так, что она извлекает скрытую структуру из случайного явления, то она естественным образом становится сингулярной. [20]

Многомерное нормальное распределение

[ редактировать ]

FIM для N -вариантного многомерного нормального распределения , имеет особую форму. Пусть K -мерный вектор параметров равен а вектор случайных нормальных величин будет . Предположим, что средние значения этих случайных величин равны , и пусть быть ковариационной матрицей . Тогда для , запись ( m , n ) FIM: [21]

где обозначает транспонирование вектора, обозначает след квадратной матрицы и:

Обратите внимание, что особым, но очень распространенным случаем является случай, когда , константа. Затем

В этом случае информационную матрицу Фишера можно отождествить с матрицей коэффициентов уравнений нормальных теории оценивания наименьших квадратов .

Другой особый случай возникает, когда среднее значение и ковариация зависят от двух разных векторных параметров, скажем, β и θ . Это особенно популярно при анализе пространственных данных, где часто используется линейная модель с коррелированными остатками. В этом случае, [22]

где

Характеристики

[ редактировать ]

Правило цепочки

[ редактировать ]

Подобно энтропии или взаимной информации , информация Фишера также обладает разложением по цепному правилу . В частности, если X и Y являются совместно распределенными случайными величинами, из этого следует, что: [23]

где и является информацией Фишера Y относительно рассчитывается относительно условной плотности Y при заданном конкретном значении X = x .

В частном случае, если две случайные величины независимы , информация, полученная от двух случайных величин, представляет собой сумму информации от каждой случайной величины в отдельности:

Следовательно, информация в случайной выборке из n независимых и одинаково распределенных наблюдений в n раз превышает информацию в выборке размером 1.

Дана выпуклая функция что конечен для всех , , и , (которое может быть бесконечным), оно определяет f-дивергенцию . Тогда, если строго выпукла в , затем локально в , информационная матрица Фишера является метрикой в ​​том смысле, что [24] где это распределение, параметризованное . То есть это раздача с pdf .

В этой форме ясно, что информационная матрица Фишера является римановой метрикой и правильно меняется при замене переменных. (см. раздел «Репараметризация ».)

Достаточная статистика

[ редактировать ]

Информация, предоставляемая достаточной статистикой такая же, как и в выборке X. , В этом можно убедиться, используя критерий факторизации Неймана для получения достаточной статистики. Если T ( X ) достаточно для θ , то

для некоторых функций g и h . Независимость h ( X ) от θ подразумевает

и равенство информации тогда следует из определения информации Фишера. В более общем смысле, если T = t ( X ) является статистикой , то

с равенством тогда и только тогда, когда T является достаточной статистикой . [25]

Репараметризация

[ редактировать ]

Информация Фишера зависит от параметризации задачи. Если θ и η — две скалярные параметризации задачи оценивания, а θ непрерывно дифференцируемая функция от η , то

где и являются информационными мерами Фишера η и θ соответственно. [26]

В векторном случае предположим и являются k -векторами, которые параметризуют задачу оценивания, и предполагают, что является непрерывно дифференцируемой функцией , затем, [27]

где ( i , j )-й элемент k × k матрицы якобиана определяется

и где является транспонированием матрицы

В информационной геометрии это рассматривается как изменение координат на римановом многообразии , а внутренние свойства кривизны не изменяются при различных параметризациях. В общем, информационная матрица Фишера обеспечивает риманову метрику (точнее, метрику Фишера-Рао) для многообразия термодинамических состояний и может использоваться как мера информационно-геометрической сложности для классификации фазовых переходов , например скалярная мера сложности. кривизна термодинамического метрического тензора расходится (и только в) точке фазового перехода. [28]

В термодинамическом контексте информационная матрица Фишера напрямую связана со скоростью изменения соответствующих параметров порядка . [29] В частности, такие соотношения идентифицируют фазовые переходы второго рода через расхождения отдельных элементов информационной матрицы Фишера.

Изопериметрическое неравенство

[ редактировать ]

Информационная матрица Фишера играет роль в таком неравенстве, как изопериметрическое неравенство . [30] Из всех распределений вероятностей с заданной энтропией то, информационная матрица Фишера которого имеет наименьший след, является распределением Гаусса. Это похоже на то, что из всех ограниченных множеств заданного объема сфера имеет наименьшую площадь поверхности.

Доказательство предполагает использование многомерной случайной величины с функцией плотности и добавление параметра местоположения для формирования семейства плотностей . Тогда по аналогии с формулой Минковского–Штайнера «площадь поверхности» определяется как

где представляет собой гауссову переменную с ковариационной матрицей . Название «площадь поверхности» подходит, потому что мощность энтропии — объем «эффективного набора поддержки», [31] так является «производной» объема эффективного набора поддержки, очень похоже на формулу Минковского-Штайнера. В оставшейся части доказательства используется неравенство степени энтропии , похожее на неравенство Брунна–Минковского . След информационной матрицы Фишера оказывается фактором .

Приложения

[ редактировать ]

Оптимальный план экспериментов

[ редактировать ]

Информация Фишера широко используется при оптимальном планировании эксперимента . взаимности оценочной дисперсии и информации минимизация дисперсии Фишера соответствует максимизации информации Из- за .

Когда линейная (или линеаризованная ) статистическая модель имеет несколько параметров , среднее значение оценщика параметра представляет собой вектор , а его дисперсия матрицу . Обратная матрица отклонений называется «информационной матрицей». Поскольку дисперсия оценки вектора параметров представляет собой матрицу, проблема «минимизации дисперсии» сложна. Используя статистическую теорию , статистики сжимают информационную матрицу, используя сводную статистику с действительным значением ; Будучи вещественнозначными функциями, эти «информационные критерии» можно максимизировать.

Традиционно статистики оценивали оценки и планы, рассматривая некоторую сводную статистику ковариационной матрицы (несмещенной оценки), обычно с положительными действительными значениями (например, определитель или матричный след ). Работа с положительными действительными числами дает несколько преимуществ: если оценка одного параметра имеет положительную дисперсию, то и дисперсия, и информация Фишера являются положительными действительными числами; следовательно, они являются членами выпуклого конуса неотрицательных действительных чисел (чьи ненулевые члены имеют обратные значения в этом же конусе).

Для некоторых параметров ковариационные матрицы и информационные матрицы являются элементами выпуклого конуса неотрицательно-определенных симметричных матриц в частично упорядоченном векторном пространстве под порядком Левнера (Лёвнера). Этот конус замкнут при сложении и обращении матриц, а также при умножении положительных действительных чисел и матриц. Изложение теории матриц и порядка Лёвнера появляется у Пукельсхайма. [32]

Традиционными критериями оптимальности являются инварианты информационной матрицы в смысле теории инвариантов ; алгебраически традиционные критерии оптимальности являются функционалами собственных значений информационной матрицы (Фишера) (см. Оптимальный дизайн ).

Джеффрис приор в байесовской статистике

[ редактировать ]

В байесовской статистике информация Фишера используется для расчета априора Джеффриса , который является стандартным неинформативным априором для параметров непрерывного распределения. [33]

Вычислительная нейробиология

[ редактировать ]

Информация Фишера использовалась для определения границ точности нейронных кодов. В этом случае X обычно представляет собой совместные реакции многих нейронов, представляющие низкоразмерную переменную θ (например, параметр стимула). В частности, изучалась роль корреляций в шуме нейронных реакций. [34]

Эпидемиология

[ редактировать ]

Информация Фишера была использована для изучения того, насколько информативны различные источники данных для оценки репродуктивного числа SARS-CoV-2. [35]

Вывод физических законов

[ редактировать ]

Информация Фишера играет центральную роль в спорном принципе, выдвинутом Фриденом в качестве основы физических законов, и это утверждение оспаривается. [36]

Машинное обучение

[ редактировать ]

Информация Фишера используется в методах машинного обучения, таких как эластичная консолидация веса , [37] что уменьшает катастрофическое забывание в искусственных нейронных сетях .

Информация Фишера может использоваться в качестве альтернативы гессиану функции потерь при обучении сети градиентного спуска второго порядка. [38]

Цветовая дискриминация

[ редактировать ]

Используя информационную метрику Фишера , да Фонсека и др. аль [39] исследовали степень, в которой эллипсы МакАдама (эллипсы цветового распознавания) могут быть получены из функций ответа фоторецепторов сетчатки.

Связь с относительной энтропией

[ редактировать ]

Информация Фишера связана с относительной энтропией . [40] Относительная энтропия, или расхождение Кульбака – Лейблера , между двумя распределениями. и можно записать как

Теперь рассмотрим семейство вероятностных распределений параметризованный . Тогда расхождение Кульбака – Лейблера между двумя распределениями в семействе можно записать как

Если фиксировано, то относительная энтропия между двумя распределениями одного и того же семейства минимизируется при . Для близко к , можно разложить предыдущее выражение в ряд до второго порядка:

Но производную второго порядка можно записать как

Таким образом, информация Фишера представляет собой кривизну относительной энтропии условного распределения по отношению к его параметрам.

Информация Фишера обсуждалась несколькими ранними статистиками, в частности Ф. Я. Эджвортом . [41] Например, Сэвидж [42] говорит: «В ней [информации о Фишере] его [Фишера] в некоторой степени ожидали (Edgeworth 1908–9, особенно 502, 507–8, 662, 677–8, 82–5 и ссылки, которые он [Эджворт] цитирует, включая Пирсона и Филон 1898 [.]).» Существует ряд ранних исторических источников. [43] и ряд обзоров этой ранней работы. [44] [45] [46]

См. также

[ редактировать ]

Другие меры, используемые в теории информации :

Примечания

[ редактировать ]
  1. ^ Леманн и Казелла, с. 115
  2. ^ Роберт, Кристиан (2007). «Неинформативные априорные распределения». Байесовский выбор (2-е изд.). Спрингер. стр. 127–141. ISBN  978-0-387-71598-8 .
  3. ^ Ле Кам, Люсьен (1986). Асимптотические методы в статистической теории принятия решений . Нью-Йорк: Спрингер. стр. 618–621. ISBN  0-387-96307-3 .
  4. ^ Касс, Роберт Э.; Тирни, Люк; Кадане, Джозеф Б. (1990). «Достоверность апостериорных разложений на основе метода Лапласа». В Гейссер, С.; Ходжес, Дж. С.; Пресс, С.Дж.; Зеллнер, А. (ред.). Байесовские методы и методы правдоподобия в статистике и эконометрике . Эльзевир. стр. 473–488. ISBN  0-444-88376-2 .
  5. ^ Фриден и Гейтенби (2013)
  6. ^ Суба Рао. «Лекции по статистическому выводу» (PDF) . Архивировано из оригинала (PDF) 26 сентября 2020 г. Проверено 12 апреля 2013 г.
  7. ^ Фишер (1922)
  8. ^ Леманн и Казелла, экв. (2.5.16), лемма 5.3, с.116.
  9. ^ Шервиш, Марк Дж. (1995). Теория статистики . Нью-Йорк, штат Нью-Йорк: Springer New York. п. 111. ИСБН  978-1-4612-4250-5 . OCLC   852790658 .
  10. ^ Крамер (1946)
  11. ^ Рао (1945)
  12. ^ Нильсен, Франк (2023). «Простой метод аппроксимации расстояния Фишера – Рао между многомерными нормальными распределениями» . Энтропия . 25 (4): 654. arXiv : 2302.08175 . Бибкод : 2023Entrp..25..654N . дои : 10.3390/e25040654 . ПМЦ   10137715 . ПМИД   37190442 .
  13. ^ Нильсен, Франк (2013). «Нижняя граница Крамера-Рао и информационная геометрия». Подключено к Infinity II . Тексты и чтения по математике. Том. 67. стр. 18–37. arXiv : 1301.3578 . дои : 10.1007/978-93-86279-56-9_2 . ISBN  978-93-80250-51-9 . S2CID   16759683 .
  14. ^ Сполл, Дж. К. (2005). «Расчет Монте-Карло информационной матрицы Фишера в нестандартных настройках». Журнал вычислительной и графической статистики . 14 (4): 889–909. дои : 10.1198/106186005X78800 . S2CID   16090098 .
  15. ^ Сполл, Дж. К. (2008), «Улучшенные методы оценки информационной матрицы Фишера по методу Монте-Карло», Труды Американской конференции по контролю , Сиэтл, Вашингтон, 11–13 июня 2008 г., стр. 2395–2400. https://doi.org/10.1109/ACC.2008.4586850
  16. ^ Дас, С.; Сполл, Дж. К.; Ганем, Р. (2010). «Эффективное вычисление информационной матрицы Фишера по методу Монте-Карло с использованием априорной информации». Вычислительная статистика и анализ данных . 54 (2): 272–289. дои : 10.1016/j.csda.2009.09.018 .
  17. ^ Барндорф-Нильсен, О.Э.; Кокс, Д.Р. (1994). Вывод и асимптотика . Чепмен и Холл. ISBN  9780412494406 .
  18. ^ Кокс, доктор медицинских наук; Рид, Н. (1987). «Ортогональность параметров и приближенный условный вывод (с обсуждением)». J. Royal Statistical Soc. Б. 49 : 1–39. дои : 10.1111/j.2517-6161.1987.tb01422.x .
  19. ^ Ватанабэ, С. (2008), Аккарди, Л.; Фройденберг, В.; Ойя, М. (ред.), «Алгебраико-геометрический метод в сингулярной статистической оценке», Quantum Bio-Informatics , World Scientific : 325–336, Bibcode : 2008qbi..conf..325W , doi : 10.1142/9789812793171_0024 , ISBN  978-981-279-316-4 .
  20. ^ Ватанабэ, С. (2013). «Широко применимый байесовский информационный критерий». Журнал исследований машинного обучения . 14 : 867–897.
  21. ^ Малаго, Луиджи; Пистоне, Джованни (2015). «Информационная геометрия гауссовского распределения с учетом стохастической оптимизации». Материалы конференции ACM 2015 года по основам генетических алгоритмов XIII . стр. 150–162. дои : 10.1145/2725494.2725510 . ISBN  9781450334341 . S2CID   693896 .
  22. ^ Мардия, КВ; Маршалл, Р.Дж. (1984). «Оценка максимального правдоподобия моделей остаточной ковариации в пространственной регрессии». Биометрика . 71 (1): 135–46. дои : 10.1093/biomet/71.1.135 .
  23. ^ Замир, Р. (1998). «Доказательство информационного неравенства Фишера с помощью аргумента обработки данных». Транзакции IEEE по теории информации . 44 (3): 1246–1250. CiteSeerX   10.1.1.49.6628 . дои : 10.1109/18.669301 .
  24. ^ Полянский, Юрий (2017). «Конспекты лекций по теории информации, глава 29, ECE563 (UIUC)» (PDF) . Конспект лекций по теории информации . Архивировано (PDF) из оригинала 24 мая 2022 г. Проверено 24 мая 2022 г.
  25. ^ Шервиш, Марк Дж. (1995). ТеорияСтатистика . Спрингер-Верлаг. п. 113.
  26. ^ Леманн и Казелла, экв. (2.5.11).
  27. ^ Леманн и Казелла, экв. (2.6.16)
  28. ^ Янке, В.; Джонстон, Д.А.; Кенна, Р. (2004). «Информационная геометрия и фазовые переходы». Физика А. 336 (1–2): 181. arXiv : cond-mat/0401092 . Бибкод : 2004PhyA..336..181J . дои : 10.1016/j.physa.2004.01.023 . S2CID   119085942 .
  29. ^ Прокопенко М.; Лизье, Джозеф Т.; Лизье, Дж. Т.; Обст, О.; Ван, XR (2011). «Связь информации Fisher с параметрами заказа». Физический обзор E . 84 (4): 041116. Бибкод : 2011PhRvE..84d1116P . дои : 10.1103/PhysRevE.84.041116 . ПМИД   22181096 . S2CID   18366894 .
  30. ^ Коста, М.; Ковер, Т. (ноябрь 1984 г.). «О подобии энтропийного степенного неравенства и неравенства Брунна-Минковского» . Транзакции IEEE по теории информации . 30 (6): 837–839. дои : 10.1109/TIT.1984.1056983 . ISSN   1557-9654 .
  31. ^ Обложка, Томас М. (2006). Элементы теории информации . Джой А. Томас (2-е изд.). Хобокен, Нью-Джерси: Wiley-Interscience. п. 256. ИСБН  0-471-24195-4 . OCLC   59879802 .
  32. ^ Пукельсхайм, Фридрих (1993). Оптимальный план экспериментов . Нью-Йорк: Уайли. ISBN  978-0-471-61971-0 .
  33. ^ Бернардо, Хосе М.; Смит, Адриан FM (1994). Байесовская теория . Нью-Йорк: Джон Уайли и сыновья. ISBN  978-0-471-92416-6 .
  34. ^ Эбботт, Ларри Ф.; Даян, Питер (1999). «Влияние коррелированной изменчивости на точность популяционного кода». Нейронные вычисления . 11 (1): 91–101. дои : 10.1162/089976699300016827 . ПМИД   9950724 . S2CID   2958438 .
  35. ^ Параг, КВ; Доннелли, Калифорния; Заребский, А.Е. (2022). «Количественная оценка информации в зашумленных эпидемических кривых» . Природа вычислительной науки . 2 (9): 584–594. дои : 10.1038/s43588-022-00313-1 . hdl : 10044/1/100205 . ПМИД   38177483 . S2CID   248811793 .
  36. ^ Стритер, РФ (2007). Утраченные дела в физике и за ее пределами . Спрингер. п. 69. ИСБН  978-3-540-36581-5 .
  37. ^ Киркпатрик, Джеймс; Пашкану, Разван; Рабиновиц, Нил; Венесс, Джоэл; Дежарден, Гийом; Русу, Андрей А.; Милан, Киран; Куан, Джон; Рамальо, Тьяго (28 марта 2017 г.). «Преодоление катастрофического забывания в нейронных сетях» . Труды Национальной академии наук . 114 (13): 3521–3526. arXiv : 1612.00796 . Бибкод : 2017PNAS..114.3521K . дои : 10.1073/pnas.1611835114 . ISSN   0027-8424 . ПМК   5380101 . ПМИД   28292907 .
  38. ^ Мартенс, Джеймс (август 2020 г.). «Новые идеи и перспективы метода естественного градиента». Журнал исследований машинного обучения (21). arXiv : 1412.1193 .
  39. ^ да Фонсека, Мария; Саменго, Инес (1 декабря 2016 г.). «Вывод способности человека к цветовому различению из теоретико-информационного представления о расстоянии в цветовом пространстве». Нейронные вычисления . 28 (12): 2628–2655. arXiv : 1611.07272 . дои : 10.1162/NECO_a_00903 .
  40. ^ Гурьеро и Монфор (1995), стр. 87
  41. ^ Дикарь (1976)
  42. ^ Дикарь (1976), стр. 156
  43. ^ Эджворт (сентябрь 1908 г., декабрь 1908 г.)
  44. ^ Пратт (1976)
  45. ^ Стиглер (1978, 1986, 1999)
  46. ^ Проведено (1998, 1999)
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 74ec7c0803223e72a92a0ab612c5900f__1720487400
URL1:https://arc.ask3.ru/arc/aa/74/0f/74ec7c0803223e72a92a0ab612c5900f.html
Заголовок, (Title) документа по адресу, URL1:
Fisher information - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)