Jump to content

Алгоритмический вывод

Алгоритмический вывод объединяет новые разработки в методах статистического вывода , которые стали возможными благодаря мощным вычислительным устройствам, широко доступным любому аналитику данных. Краеугольными камнями в этой области являются теория вычислительного обучения , гранулярные вычисления , биоинформатика и, давным-давно, структурная вероятность ( Fraser 1966 ).Основное внимание уделяется алгоритмам, которые вычисляют статистику, лежащую в основе изучения случайного явления, а также объему данных, которые они должны использовать для получения надежных результатов. Это смещает интерес математиков от изучения законов распределения к функциональным свойствам статистики , а интерес учёных-компьютерщиков от алгоритмов обработки данных к информации, которую они обрабатывают.

Фишера параметрического Задача вывода

Что касается идентификации параметров закона распределения, зрелый читатель может вспомнить длительные споры середины 20-го века по поводу интерпретации их изменчивости с точки зрения фидуциального распределения ( Fisher 1956 ), структурных вероятностей ( Fraser 1966 ), априорных/апостериорных значений ( Рэмси 1925 ) и так далее. С точки зрения эпистемологии это повлекло за собой сопутствующий спор о природе вероятности : является ли это физической особенностью явлений, описываемой с помощью случайных величин , или способом синтеза данных о явлении? Выбирая последнее, Фишер определяет фидуциальный закон распределения параметров данной случайной величины, который он выводит из выборки ее спецификаций. С помощью этого закона он вычисляет, например, «вероятность того, что ц (среднее значение гауссовой переменной – примечание омера) меньше любого присвоенного значения, или вероятность того, что оно находится между любыми присвоенными значениями, или, короче говоря, его распределение вероятностей, в свете наблюдаемого образца».

Классическое решение [ править ]

Фишер упорно боролся за защиту разницы и превосходства своего понятия распределения параметров по сравнению с Байеса аналогичные понятия, такие как апостериорное распределение , конструктивная вероятность Фрейзера и доверительные интервалы Неймана . В течение полувека доверительные интервалы Неймана преобладали во всех практических целях, подчеркивая феноменологическую природу вероятности. С этой точки зрения, когда вы имеете дело с гауссовой переменной, ее среднее значение μ фиксируется физическими особенностями наблюдаемого вами явления, где наблюдения являются случайными операторами, следовательно, наблюдаемые значения являются спецификациями случайной выборки . Из-за их случайности вы можете вычислить на основе конкретных интервалов выборки, содержащих фиксированное значение µ, с заданной вероятностью, которую вы обозначаете доверительностью .

Пример [ править ]

Пусть X — гауссова переменная [1] с параметрами и и образец, взятый из него. Работа со статистикой

и

является выборочным средним, мы понимаем, что

следует t-распределению Стьюдента ( Wilks 1962 ) с параметром (степенью свободы) m − 1, так что

Измерение T между двумя квантилями и инвертирование его выражения как функции вы получаете доверительные интервалы для .

С образцом спецификации:

имея размер m = 10, вы вычисляете статистику и и получим доверительный интервал 0,90 для с экстремумами (3,03, 5,65).

Вывод функций с помощью компьютера [ править ]

С точки зрения моделирования весь спор выглядит как дилемма куриного яйца: либо фиксированные данные по первым и вероятностное распределение их свойств, как следствие, либо фиксированные свойства по первым и вероятностное распределение наблюдаемых данных как следствие.Классическое решение имеет одно преимущество и один недостаток. Первое особенно ценилось еще тогда, когда люди еще производили вычисления с помощью листа и карандаша. По сути, задача вычисления доверительного интервала Неймана для фиксированного параметра θ сложна: вы не знаете θ, но ищете вокруг него интервал с, возможно, очень низкой вероятностью неудачи. Аналитическое решение допускается для очень ограниченного числа теоретических случаев. И наоборот, большое количество примеров можно быстро решить приближенным способом с помощью центральной предельной теоремы с точки зрения доверительного интервала вокруг гауссова распределения – в этом преимущество. Недостаток состоит в том, что центральная предельная теорема применима, когда размер выборки достаточно велик. Следовательно, он все менее и менее применим к выборке, используемой в современных случаях вывода. Проблема не в размере выборки как таковом. Скорее, этот размер недостаточно велик из-за сложность задачи вывода.

Благодаря наличию крупных вычислительных мощностей ученые переориентировались с вывода изолированных параметров на вывод сложных функций, то есть сброс наборов сильно вложенных параметров, идентифицирующих функции. В этих случаях мы говорим об обучении функций (в терминах, например, регрессии , нейро-нечеткой системы или компьютерного обучения ) на основе высокоинформативных выборок. Первым эффектом наличия сложной структуры, связывающей данные, является уменьшение количества степеней свободы выборки , т.е. сжигание части точек выборки, так что эффективный размер выборки, который следует учитывать в центральной предельной теореме, оказывается слишком мал. Если сосредоточиться на размере выборки, обеспечивающем ограниченную ошибку обучения с заданным уровнем достоверности , то нижняя граница этого размера растет с ростом индексов сложности, таких как размерность VC или детализация класса, к которому принадлежит функция, которую мы хотим изучить.

Пример [ править ]

Выборки в 1000 независимых бит достаточно, чтобы обеспечить абсолютную ошибку не более 0,081 при оценке параметра p базовой переменной Бернулли с достоверностью не менее 0,99. Один и тот же размер не может гарантировать пороговое значение меньше 0,088 с той же достоверностью 0,99, когда ошибка идентифицируется с вероятностью того, что 20-летний мужчина, живущий в Нью-Йорке, не соответствует диапазонам роста, веса и талии, наблюдаемым на 1000 Big Яблочные жители. Недостаток точности возникает из-за того, что и размерность VC, и детализация класса параллелепипедов, к которому относится наблюдаемый из диапазонов 1000 жителей, равны 6.

Общая задача обращения, Фишера решающая вопрос

При недостаточно больших выборках подход: фиксированная выборка – случайные свойства предполагает процедуру вывода в три этапа:

1. Механизм выборки . Он состоит из пары , где начальное число Z — случайная величина без неизвестных параметров, а объясняющая функция представляет собой отображение функции от выборок Z к выборкам случайной величины X. Вектор параметров интересующей нас является спецификацией случайного параметра . Его компоненты являются параметрами X. закона распределения Теорема интегрального преобразования обеспечивает существование такого механизма для каждого (скалярного или векторного) X , когда затравочное число совпадает со случайной величиной U, равномерно распределенной в .
Пример. Для X соответствует распределению Парето с параметрами a и k , т.е.

механизм выборки для X с начальным числом U читается:

или, что то же самое,

2. Основные уравнения . Фактическая связь между моделью и наблюдаемыми данными выражается в виде набора отношений между статистикой данных и неизвестными параметрами, которые являются следствием механизмов выборки. Мы называем эти отношения основными уравнениями . Вращение вокруг статистики , общая форма основного уравнения:
.

С помощью этих отношений мы можем проверить значения параметров, которые могли бы создать выборку с наблюдаемой статистикой из определенного набора начальных значений, представляющих начальное значение выборки. Следовательно, совокупности образцов семян соответствует совокупность параметров. Чтобы обеспечить чистые свойства этой популяции, достаточно случайным образом нарисовать начальные значения и включить в основные уравнения либо достаточную статистику , либо, просто, статистику с хорошим поведением относительно параметров.

Например, статистика и оказываются достаточными для параметров a и k случайной величины Парето X . Благодаря (эквивалентной форме) механизму выборки мы можем читать их как

соответственно.

3. Параметр популяции . Зафиксировав набор основных уравнений, вы можете сопоставить выборочные семена с параметрами либо численно с помощью начальной загрузки популяции , либо аналитически с помощью искажающего аргумента . Следовательно, из совокупности семян вы получаете совокупность параметров.
Пример. Из приведенного выше основного уравнения мы можем нарисовать пару параметров: , совместимого с наблюдаемой выборкой, путем решения следующей системы уравнений:

где и наблюдаемая статистика и набор однородных семян. Перенеся в параметры вероятность (плотность), влияющую на семена, вы получите закон распределения случайных параметров А и К, совместимый с наблюдаемой вами статистикой.

Совместимость обозначает параметры совместимых популяций, т.е. популяций, которые могли бы создать выборку, дающую начало наблюдаемой статистике. Формализовать это понятие можно следующим образом:

Определение [ править ]

Для случайной величины и взятой из нее выборки совместимым распределением является распределение, имеющее одинаковый механизм выборки. X со значением случайного параметра получено из основного уравнения, основанного на статистике s с хорошим поведением .

Пример [ править ]

Совместная эмпирическая кумулятивная функция распределения параметров случайной величины Парето.
Кумулятивная функция распределения среднего значения M гауссовой случайной величины

Вы можете найти закон распределения параметров Парето A и K в качестве примера реализации метода начальной загрузки населения , как на рисунке слева.

Реализуя метод скручивающего аргумента , вы получаете закон распределения среднего значения M гауссовой переменной X на основе статистики когда известно, что он равен  ( Apolloni, Malchiodi & Gaito 2006 ). Its expression is:

показано на рисунке справа, где кумулятивная функция распределения стандартного нормального распределения .

Верхний (фиолетовая кривая) и нижний (синяя кривая) экстремумы 90% доверительного интервала среднего значения M гауссовой случайной величины для фиксированной и разные значения статистики s m .

Вычислить доверительный интервал для M с учетом его функции распределения несложно: нам нужно найти только два квантиля (например, и квантилей в случае, если нас интересует доверительный интервал уровня δ, симметричный относительно вероятностей хвоста), как указано слева на диаграмме, показывающей поведение двух границ для разных значений статистики s m .

Ахиллесова пята подхода Фишера заключается в совместном распределении более чем одного параметра, скажем, среднего значения и дисперсии гауссова распределения. Напротив, с помощью последнего подхода (и вышеупомянутых методов: начальной загрузки населения и скручивающего аргумента ) мы можем узнать совместное распределение многих параметров. Например, сосредоточив внимание на распределении двух или более параметров, на рисунках ниже мы сообщаем о двух доверительных областях, в которых изучаемая функция попадает с достоверностью 90%. Первое касается вероятности, с которой машина расширенных опорных векторов присваивает двоичную метку 1 точкам самолет. Две поверхности рисуются на основе набора точек выборки, которые, в свою очередь, помечены в соответствии с определенным законом распределения ( Аполлони и др., 2008 ). Последнее касается доверительной области риска рецидива рака молочной железы, рассчитанной на основе цензурированной выборки ( Аполлони, Мальчиоди и Гаито, 2006 ).

Доверительная область 90% для семейства машин опорных векторов, наделенных функцией гиперболического профиля тангенса.
Доверительная область 90% для функции риска рецидива рака молочной железы, рассчитанной на основе цензурированной выборки. где > t обозначает цензурированное время


Примечания [ править ]

  1. ^ По умолчанию заглавные буквы (например, U , X ) обозначают случайные величины, а маленькие буквы ( u , x ) — их соответствующие характеристики.

Ссылки [ править ]

  • Фрейзер, DAS (1966), «Структурная вероятность и обобщение», Biometrika , 53 (1/2): 1–9, doi : 10.2307/2334048 , JSTOR   2334048 .
  • Фишер, Массачусетс (1956), Статистические методы и научные выводы , Эдинбург и Лондон: Оливер и Бойд.
  • Аполлони, Б.; Мальчиоди, Д.; Гайто, С. (2006), Алгоритмический вывод в машинном обучении , Международная серия по продвинутому интеллекту, том. 5 (2-е изд.), Аделаида: Мэгилл, Advanced Knowledge International
  • Аполлони, Б.; Бассис, С.; Мальчиоди, Д.; Витольд, П. (2008), Загадка гранулярных вычислений , Исследования в области вычислительного интеллекта, том. 138, Берлин: Springer, ISBN.  9783540798637
  • Рэмси, Ф. П. (1925), «Основы математики», Труды Лондонского математического общества : 338–384, doi : 10.1112/plms/s2-25.1.338 .
  • Уилкс, СС (1962), Математическая статистика , Публикации Wiley по статистике, Нью-Йорк: Джон Уайли
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 1a2f77b9ee6c49843195a2d01aa3aa83__1707735120
URL1:https://arc.ask3.ru/arc/aa/1a/83/1a2f77b9ee6c49843195a2d01aa3aa83.html
Заголовок, (Title) документа по адресу, URL1:
Algorithmic inference - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)