~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 71CDBE1A78C20658516993EBA5081895__1699124880 ✰
Заголовок документа оригинал.:
✰ Inductive probability - Wikipedia ✰
Заголовок документа перевод.:
✰ Индуктивная вероятность — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Inductive_probability ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/71/95/71cdbe1a78c20658516993eba5081895.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/71/95/71cdbe1a78c20658516993eba5081895__translat.html ✰
Дата и время сохранения документа:
✰ 18.06.2024 17:25:25 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 4 November 2023, at 22:08 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Индуктивная вероятность — Википедия Jump to content

Индуктивная вероятность

Из Википедии, бесплатной энциклопедии

Индуктивная вероятность пытается определить вероятность будущих событий на основе прошлых событий. Это основа индуктивного рассуждения и математическая основа для обучения и восприятия закономерностей. Это источник знаний о мире.

Есть три источника знаний: умозаключение , общение и дедукция. Связь передает информацию, найденную другими методами. Дедукция устанавливает новые факты на основе существующих фактов. Вывод устанавливает новые факты на основе данных. Ее основой является теорема Байеса .

Информация, описывающая мир, записана на языке. Например, можно выбрать простой математический язык предложений. Предложения могут быть записаны на этом языке в виде строк символов. Но в компьютере эти предложения можно закодировать как строки битов (1 и 0). Затем язык можно закодировать так, чтобы наиболее часто используемые предложения были самыми короткими. Этот внутренний язык неявно представляет вероятности утверждений.

Бритва Оккама утверждает, что «самая простая теория, согласующаяся с данными, скорее всего, будет правильной». «Простейшая теория» интерпретируется как представление теории, записанное на этом внутреннем языке. Теория с кратчайшей кодировкой на этом внутреннем языке, скорее всего, верна.

История [ править ]

Вероятность и статистика были сосредоточены на вероятностных распределениях и критериях значимости. Вероятность была формальной, четко определенной, но ограниченной по объему. В частности, его применение ограничивалось ситуациями, которые можно было определить как эксперимент или испытание, с четко определенной популяцией.

Теорема Байеса названа в честь преподобного Томаса Байеса (1701–1761). Байесовский вывод расширил применение вероятности во многих ситуациях, когда популяция не была четко определена. Но теорема Байеса всегда зависела от предшествующих вероятностей, чтобы генерировать новые вероятности. Было неясно, откуда взялись эти априорные вероятности.

Примерно в 1964 году Рэй Соломонов разработал алгоритмическую вероятность , которая дала объяснение тому, что такое случайность и как закономерности в данных могут быть представлены компьютерными программами, которые дают более короткие представления данных.

Крис Уоллес и Д.М. Бултон разработали минимальную длину сообщения примерно в 1968 году. Позже Йорма Риссанен разработал минимальную длину описания примерно в 1978 году. Эти методы позволяют теории информации связать с вероятностью способом, который можно сравнить с применением теоремы Байеса, но которые дают источник и объяснение роли априорных вероятностей.

Маркус Хаттер объединил теорию принятия решений с работами Рэя Соломонова и Андрея Колмогорова , чтобы создать теорию оптимального по Парето поведения интеллектуального агента , примерно в 1998 году.

Минимальная длина описания/сообщения [ изменить ]

Программа с наименьшей длиной, соответствующей данным, с наибольшей вероятностью предскажет будущие данные. Это тезис о минимальной длине сообщения. [1] и минимальная длина описания [2] методы.

На первый взгляд теорема Байеса отличается от принципа минимальной длины сообщения/описания. При ближайшем рассмотрении оказывается то же самое. Теорема Байеса касается условных вероятностей и утверждает вероятность того, что событие B произойдет, если сначала произойдет событие A :

становится с точки зрения длины сообщения L ,

Это означает, что если дана вся информация, описывающая событие, то длину информации можно использовать для определения необработанной вероятности события. Таким образом, если дана информация, описывающая появление A , вместе с информацией, описывающей B при данном A , то вся информация, описывающая A и B , была дана. [3] [4]

Переоснащение [ править ]

Переобучение происходит, когда модель соответствует случайному шуму, а не шаблону данных. Например, возьмем ситуацию, когда кривая соответствует набору точек. Если подбирается полином со многими членами, он может более точно представлять данные. Тогда соответствие будет лучше, и информации, необходимой для описания отклонений от подобранной кривой, будет меньше. Меньшая длина информации означает более высокую вероятность.

Однако необходимо также учитывать информацию, необходимую для описания кривой. Общая информация для кривой со многими членами может быть больше, чем для кривой с меньшим количеством членов, которая не так хорошо подходит, но требует меньше информации для описания полинома.

на основе программы Вывод сложности

Теория индуктивного вывода Соломонова также является индуктивным выводом. битовая строка x Обнаружена . Затем рассмотрим все программы, генерирующие строки, начинающиеся с x . Представленные в форме индуктивного вывода, программы представляют собой теории, предполагающие наблюдение битовой строки x .

Используемый здесь метод определения вероятностей индуктивного вывода основан на теории индуктивного вывода Соломонова .

Обнаружение закономерностей в данных [ править ]

Если все биты равны 1, то люди делают вывод, что монета имеет смещение и что более вероятно, что следующий бит также будет равен 1. Это описывается как обучение на основе данных или обнаружение закономерностей в данных.

Такой шаблон может быть представлен компьютерной программой . Можно написать короткую компьютерную программу, которая выдает серию битов, все из которых равны 1. Если длина программы K равна бит, то его априорная вероятность равна

Длина кратчайшей программы, представляющей собой строку битов, называется колмогоровской сложностью .

Колмогоровская сложность невычислима. Это связано с проблемой остановки . При поиске самой короткой программы некоторые программы могут зайти в бесконечный цикл.

Учитывая все теории [ править ]

греческий философ Эпикур сказал: «Если более чем одна теория согласуется с наблюдениями, сохраните все теории». Цитируется, что [5]

Как в криминальном романе при определении вероятного убийцы необходимо учитывать все теории, так и с индуктивной вероятностью все программы должны учитываться при определении вероятных будущих битов, возникающих из потока битов.

Программы, длина которых уже превышает n, не обладают предсказательной силой. Необработанная (или априорная) вероятность того, что последовательность битов является случайной (не имеет последовательности), равна .

Каждая программа, которая создает последовательность битов, но короче n, представляет собой теорию/шаблон о битах с вероятностью где k — длина программы.

Вероятность получения последовательности битов y после получения серии битов x равна условной вероятности получения y при заданном x , которая представляет собой вероятность x с добавленным y , деленную на вероятность x . [6] [7] [8]

Универсальные приоры [ править ]

Язык программирования влияет на предсказания следующего бита в строке. Язык действует как априорная вероятность . Это особенно проблема, когда язык программирования кодирует числа и другие типы данных. Интуитивно мы думаем, что 0 и 1 — простые числа и что простые числа в некотором смысле более сложны, чем числа, которые могут быть составными.

Использование колмогоровской сложности дает несмещенную оценку (универсальную априорную оценку) априорной вероятности числа. В качестве мысленного эксперимента интеллектуальный агент может быть оснащен устройством ввода данных, выдающим ряд чисел, после применения некоторой функции преобразования к необработанным числам. Другой агент может иметь то же устройство ввода с другой функцией преобразования. Агенты не видят и не знают об этих функциях преобразования. Тогда не появляется никакого рационального основания для предпочтения одной функции другой. Универсальный априор гарантирует, что, хотя два агента могут иметь разные начальные распределения вероятностей для входных данных, разница будет ограничена константой.

Таким образом, универсальные априоры не устраняют первоначальную предвзятость, но уменьшают и ограничивают ее. Всякий раз, когда мы описываем событие на языке, используя естественный или другой язык, язык закодировал в нем наши предыдущие ожидания. Поэтому некоторая уверенность в априорных вероятностях неизбежна.

Проблема возникает, когда предшествующие ожидания интеллектуального агента взаимодействуют с окружающей средой, образуя самоусиливающуюся петлю обратной связи. Это проблема предвзятости или предубеждений. Универсальные приоры уменьшают, но не устраняют эту проблему.

Универсальный искусственный интеллект [ править ]

Теория универсального искусственного интеллекта применяет теорию принятия решений к индуктивным вероятностям. Теория показывает, как можно выбрать лучшие действия для оптимизации функции вознаграждения. Результатом является теоретическая модель интеллекта. [9]

Это фундаментальная теория интеллекта, которая оптимизирует поведение агентов в:

  • Исследование окружающей среды; выполнение действий для получения ответов, которые расширяют знания агентов.
  • Конкуренция или сотрудничество с другим агентом; игры.
  • Балансирование краткосрочных и долгосрочных вознаграждений.

В общем, ни один агент не всегда будет действовать наилучшим образом во всех ситуациях. Конкретный выбор, сделанный агентом, может быть неправильным, и окружающая среда может не дать агенту возможности оправиться от первоначального неправильного выбора. Однако агент является оптимальным по Парето в том смысле, что ни один другой агент не будет действовать лучше, чем этот агент, в этой среде, не ухудшившись при этом в другой среде. Ни о каком другом агенте в этом смысле нельзя сказать, что он лучше.

В настоящее время теория ограничена неисчислимостью ( проблема остановки ). Чтобы избежать этого, можно использовать аппроксимации. Скорость обработки данных и комбинаторный взрыв остаются основными ограничивающими факторами для искусственного интеллекта .

Вероятность [ править ]

Вероятность — это представление неопределенного или частичного знания об истинности утверждений. Вероятности — это субъективные и личные оценки вероятных результатов, основанные на прошлом опыте и выводах, сделанных на основе данных.

Такое описание вероятности на первый взгляд может показаться странным. На естественном языке мы говорим о «вероятности» того, что солнце взойдет завтра. Мы не говорим о «вашей вероятности» того, что солнце взойдет. Но для того, чтобы вывод был правильно смоделирован, вероятность должна быть индивидуальной, а сам акт вывода генерирует новые апостериорные вероятности из предшествующих вероятностей.

Вероятности носят личный характер, поскольку они зависят от знаний человека. Вероятности субъективны, поскольку они всегда в некоторой степени зависят от априорных вероятностей, присвоенных человеком. Под субъективным здесь не следует понимать расплывчатое или неопределенное понятие.

Термин «интеллектуальный агент» используется для обозначения обладателя вероятностей. Интеллектуальный агент может быть человеком или машиной. Если интеллектуальный агент не взаимодействует с окружающей средой, то вероятность со временем будет сходиться к частоте события.

Однако, если агент использует вероятность для взаимодействия со средой, может возникнуть обратная связь, так что два агента в идентичной среде, начиная с лишь немного отличающихся априорных значений, в конечном итоге получат совершенно разные вероятности. В этом случае теория оптимального решения , как в «Универсальном искусственном интеллекте » Маркуса Хаттера, даст оптимальную по Парето производительность агента. Это означает, что ни один другой интеллектуальный агент не может добиться большего успеха в одной среде, не ухудшившись при этом в другой среде.

с вероятностью Сравнение дедуктивной

В дедуктивных теориях вероятности вероятности являются абсолютными, независимыми от человека, производящего оценку. Но дедуктивные вероятности основаны на том,

  • Общие знания.
  • Предполагаемые факты, которые следует вывести из данных.

Например, в суде участники знают результаты всей предыдущей истории испытаний. Они также предполагают, что каждый исход одинаково вероятен. В совокупности это позволяет определить одно безусловное значение вероятности.

Но на самом деле каждый человек не обладает одинаковой информацией. И вообще вероятность каждого исхода не равна. Игральные кости могут быть загружены, и эту нагрузку необходимо определить на основе данных.

Вероятность оценка как

Принцип безразличия сыграл ключевую роль в теории вероятностей. Он гласит, что если N утверждений симметричны и одно условие не может быть предпочтительнее другого, то все утверждения равновероятны. [10]

Если серьезно, то при оценке вероятности этот принцип приводит к противоречиям. Предположим, на расстоянии лежат 3 мешка с золотом, и человека просят выбрать один. Тогда из-за расстояния не видно размеров сумки. Используя принцип безразличия, вы оцениваете, что в каждом мешке находится одинаковое количество золота, и в каждом мешке находится одна треть золота.

Теперь, пока один из нас не смотрит, другой берет один из мешков и делит его на 3 мешка. Теперь есть 5 мешков с золотом. Принцип безразличия теперь гласит, что в каждом мешке содержится пятая часть золота. Сумка, в которой, по оценкам, содержалась одна треть золота, теперь содержит одну пятую золота.

Если рассматривать ценность, связанную с сумкой, то эти ценности различны и поэтому противоречивы. Но если принять за оценку, данную для конкретного сценария, обе величины представляют собой отдельные оценки, полученные при разных обстоятельствах, и нет оснований полагать, что они равны.

Оценки априорных вероятностей вызывают особое подозрение. Оценки будут построены так, чтобы не следовать какому-либо последовательному частотному распределению. По этой причине априорные вероятности рассматриваются как оценки вероятностей, а не вероятностей.

Полное теоретическое рассмотрение будет связано с каждой вероятностью,

  • Заявление
  • Предварительные знания
  • Априорные вероятности
  • Процедура оценки, используемая для определения вероятности.

вероятностных подходов Объединение

Индуктивная вероятность сочетает в себе два разных подхода к вероятности.

  • Вероятность и информация
  • Вероятность и частота

Каждый подход дает немного разную точку зрения. Теория информации используется для связывания вероятностей с количеством информации. Этот подход часто используется для оценки априорных вероятностей.

Частотная вероятность определяет вероятности как объективные утверждения о том, как часто происходит событие. Этот подход можно расширить, определив испытания как возможные миры . Утверждения о возможных мирах определяют события .

Вероятность и информация [ править ]

Тогда как логика представляет только две ценности; true и false в качестве значений утверждения, вероятность связывает число в [0,1] с каждым утверждением. Если вероятность утверждения равна 0, утверждение ложно. Если вероятность утверждения равна 1, то утверждение истинно.

При рассмотрении некоторых данных как строки битов априорные вероятности для последовательности 1 и 0, вероятность 1 и 0 равны. Следовательно, каждый дополнительный бит вдвое уменьшает вероятность последовательности битов. Это приводит к выводу, что,

Где это вероятность строки битов и это его длина.

Априорная вероятность любого утверждения рассчитывается на основе количества битов, необходимых для его утверждения. См. также теорию информации .

Объединение информации [ править ]

Два заявления и может быть представлен двумя отдельными кодировками. Тогда длина кодирования равна

или с точки зрения вероятности,

Но этот закон не всегда верен, поскольку может существовать более короткий метод кодирования. если мы предположим . Таким образом, приведенный выше закон вероятности применим только в том случае, если и являются «независимыми».

Внутренний язык информации [ править ]

Основное использование информационного подхода к вероятности состоит в том, чтобы дать оценки сложности утверждений. Вспомним, что бритва Оккама гласит: «При прочих равных условиях самая простая теория с наибольшей вероятностью будет правильной». Чтобы применить это правило, сначала необходимо дать определение тому, что означает «самый простой». Теория информации определяет самое простое как самое короткое кодирование.

Знания представлены в виде утверждений . Каждый оператор представляет собой логическое выражение . Выражения кодируются функцией, которая принимает описание (а не значение) выражения и кодирует его как битовую строку.

Длина кодирования утверждения дает оценку вероятности утверждения. Эта оценка вероятности часто будет использоваться в качестве априорной вероятности утверждения.

Технически эта оценка не является вероятностью, поскольку она не строится на основе частотного распределения. Данные им оценки вероятности не всегда подчиняются закону суммы вероятностей . Применение закона полной вероятности к различным сценариям обычно дает более точную оценку априорной вероятности, чем оценка на основе длины утверждения.

Кодирование выражений [ править ]

Выражение состоит из подвыражений,

  • Константы (включая идентификатор функции).
  • Применение функций.
  • квантификаторы .

Код Хаффмана должен различать эти 3 случая. Длина каждого кода зависит от частоты каждого типа подвыражений.

Первоначально всем константам присваивается одинаковая длина/вероятность. Более поздним константам можно присвоить вероятность с помощью кода Хаффмана на основе количества использований идентификатора функции во всех записанных на данный момент выражениях. Целью использования кода Хаффмана является оценка вероятностей, а не сжатие данных.

Длина приложения функции равна длине константы идентификатора функции плюс сумма размеров выражений для каждого параметра.

Длина квантора — это длина выражения, по которому вычисляется квантификатор.

Распределение чисел [ править ]

Явного представления натуральных чисел не дано. Однако натуральные числа можно построить, применив функцию-преемник к 0, а затем применив другие арифметические функции. При этом подразумевается распределение натуральных чисел, основанное на сложности построения каждого числа.

Рациональные числа образуются путем деления натуральных чисел. Простейшее представление не имеет общих множителей между числителем и знаменателем. Это позволяет распространить вероятностное распределение натуральных чисел на рациональные числа.

Вероятность и частота [ править ]

Вероятность события можно интерпретировать как частоту исходов, при которых утверждение верно, деленную на общее количество исходов. Если результаты образуют континуум, частоту, возможно, придется заменить показателем .

События – это наборы результатов. Высказывания могут быть связаны с событиями. Логическое утверждение B о результатах определяет набор результатов b,

Условная вероятность [ править ]

Каждая вероятность всегда связана с состоянием знаний в конкретный момент аргумента. Вероятности до вывода известны как априорные вероятности, а вероятности после — как апостериорные вероятности.

Вероятность зависит от известных фактов. Истина факта ограничивает область результатов результатами, соответствующими этому факту. Априорные вероятности — это вероятности до того, как факт станет известен. Апостериорные вероятности возникают после того, как факт известен. Говорят, что апостериорные вероятности обусловлены фактом. вероятность того, что верно, учитывая, что верно, пишется так:

Все вероятности в некотором смысле условны. Априорная вероятность является,

Частотный подход применительно мирам к возможным

В частотном подходе вероятности определяются как отношение количества исходов внутри события к общему числу исходов. В модели возможного мира каждый возможный мир является результатом, а утверждения о возможных мирах определяют события. Вероятность того, что утверждение истинно, равна количеству возможных миров, в которых утверждение истинно, деленное на общее количество возможных миров. Вероятность утверждения быть правдивым относительно возможных миров - это тогда,

Для условной вероятности.

затем

Используя симметрию, это уравнение можно записать как закон Байеса.

Этот закон описывает взаимосвязь между априорными и апостериорными вероятностями изучения новых фактов.

Записанная в виде количества информации , теорема Байеса выглядит следующим образом:

Два утверждения A и B называются независимыми, если знание истинности A не меняет вероятность B. Математически это так:

тогда теорема Байеса сводится к

Закон суммы вероятностей [ править ]

За набор взаимоисключающих возможностей , сумма апостериорных вероятностей должна быть равна 1.

Замена с использованием теоремы Байеса дает закон полной вероятности.

Этот результат используется для получения расширенной формы теоремы Байеса :

Это обычная форма теоремы Байеса, используемая на практике, поскольку она гарантирует сумму всех апостериорных вероятностей для это 1.

Альтернативные возможности [ править ]

Для взаимоисключающих возможностей вероятности складываются.

С использованием

Тогда альтернативы

все взаимоисключающие. Также,

Итак, сложив все это вместе,

Отрицание [ править ]

Как,

затем

последствий условий Вероятность и

Импликация связана с условной вероятностью следующим уравнением:

Вывод,

байесовской Проверка гипотезы

Теорему Байеса можно использовать для оценки вероятности гипотезы или теории H с учетом некоторых фактов F. Тогда апостериорная вероятность H равна

или с точки зрения информации,

Если предположить, что гипотеза верна, можно дать более простое представление утверждения F. Длина кодирования этого более простого представления равна

представляет собой количество информации, необходимое для представления фактов F, если H истинно. — это объем информации, необходимый для представления F без гипотезы H. Разница в том, насколько сжимается представление фактов при предположении, что H истинно. Это является доказательством того, что гипотеза H верна.

Если оценивается на основе длины кодирования , то полученная вероятность не будет находиться в диапазоне от 0 до 1. Полученное значение пропорционально вероятности и не является хорошей оценкой вероятности. Полученное число иногда называют относительной вероятностью, поскольку она определяет, насколько более вероятна теория, чем ее несоблюдение.

Если известен полный набор взаимоисключающих гипотез, подтверждающих доказательства, можно дать правильную оценку априорной вероятности. .

Набор гипотез [ править ]

Вероятности можно рассчитать на основе расширенной формы теоремы Байеса. Учитывая все взаимоисключающие гипотезы которые дают доказательства, такие, что,

а также гипотеза R, согласно которой ни одна из гипотез не верна, тогда

Что касается информации,

В большинстве ситуаций хорошим приближением будет предположение, что не зависит от , что значит предоставление,

Булев индуктивный вывод [ править ]

Абдуктивный вывод [11] [12] [13] [14] начинается с набора фактов F , который представляет собой утверждение (логическое выражение). Абдуктивное рассуждение имеет форму:

Теория T подразумевает утверждение F. Поскольку теория T проще, чем F, абдукция говорит, что существует вероятность того, что теория T подразумевается из F .

Теория T , также называемая объяснением условия F , является ответом на вездесущий фактический вопрос «почему». Например, условие F — «Почему падают яблоки?». Ответом является теория Т , которая подразумевает, что яблоки падают;

Индуктивный вывод имеет вид

Все наблюдаемые объекты класса C обладают свойством P. Поэтому существует вероятность, что все объекты класса C обладают свойством P.

С точки зрения абдуктивного вывода, все объекты в классе C или наборе обладают свойством P. Это теория, которая подразумевает наблюдаемое условие. Все наблюдаемые объекты в классе C обладают свойством P.

Таким образом, индуктивный вывод является частным случаем абдуктивного вывода. В обычном использовании термин «индуктивный вывод» часто используется для обозначения как абдуктивного, так и индуктивного вывода.

Обобщение и специализация [ править ]

Индуктивный вывод связан с обобщением . Обобщения могут быть сформированы из утверждений путем замены конкретного значения принадлежностью к категории или путем замены принадлежности к категории принадлежностью к более широкой категории. В дедуктивной логике обобщение является мощным методом создания новых теорий, которые могут быть верными. При индуктивном выводе обобщение порождает теории, которые с вероятностью являются истинными.

Противоположностью генерализации является специализация. Специализация используется при применении общего правила к конкретному случаю. Специализации создаются на основе обобщений путем замены членства в категории определенным значением или путем замены категории подкатегорией.

Классификация живых существ и объектов Линнена составляет основу обобщения и уточнения. Умение идентифицировать, распознавать и классифицировать является основой обобщения. Восприятие мира как набора объектов является ключевым аспектом человеческого интеллекта. Это объектно-ориентированная модель в некомпьютерном смысле .

Объектно-ориентированная модель строится на основе нашего восприятия . В частности, зрение основано на способности сравнивать два изображения и рассчитывать, сколько информации необходимо для трансформации или сопоставления одного изображения с другим. Компьютерное зрение использует это сопоставление для создания трехмерных изображений из пар стереоизображений .

Индуктивное логическое программирование — это средство построения теории, подразумевающей условие. Плоткина [15] [16] Подход « относительно наименьшее общее обобщение (rlgg) » создает простейшее обобщение, соответствующее условию.

Ньютоном индукции Использование

Исаак Ньютон использовал индуктивные аргументы при построении своего закона всемирного тяготения . [17] Начиная с заявления,

  • Центр яблока падает к центру Земли.

Обобщение путем замены яблока на объект и Земли на объект дает в системе двух тел:

  • Центр объекта падает к центру другого объекта.

Теория объясняет падение всех объектов, поэтому имеются веские доказательства. Второе наблюдение,

  • Кажется, что планеты следуют по эллиптической траектории.

После некоторых сложных математических вычислений можно увидеть, что если ускорение подчиняется закону обратных квадратов, то объекты будут следовать по эллипсу. Таким образом, индукция доказывает существование закона обратных квадратов.

Используя наблюдение Галилея о том, что все объекты падают с одинаковой скоростью,

где и векторы к центру другого объекта. Тогда используя третий закон Ньютона

Вероятности индуктивного вывода [ править ]

Импликация определяет вероятность условия как:

Так,

Этот результат можно использовать при определении вероятностей для проверки байесовской гипотезы. Для одной теории H = T и

или с точки зрения информации, относительная вероятность равна:

Обратите внимание, что эта оценка для P(T|F) не является истинной вероятностью. Если тогда у теории есть доказательства, подтверждающие ее. Тогда для набора теорий , такой, что ,

предоставление,

Производные [ править ]

Вывод индуктивной вероятности [ править ]

Составьте список всех самых коротких программ что каждый из них создает отдельную бесконечную строку битов и удовлетворяет соотношению:

где это результат запуска программы и усекает строку после n бит.

Задача состоит в том, чтобы вычислить вероятность того, что источник создан программой. учитывая, что усеченный источник после n битов равен x . Это представлено условной вероятностью,

Используя расширенную форму теоремы Байеса

Расширенная форма опирается на закон полной вероятности . Это означает, что должны быть различные возможности, что определяется условием, что каждая создать другую бесконечную строку. Также одно из условий должно быть правдой. Это должно быть верно, как в пределе, так и в всегда есть хотя бы одна программа, которая производит .

Как выбираются так, что затем,

Априорная вероятность того, что строка будет создана из программы при отсутствии информации о строке, зависит от размера программы.

предоставление,

Программы, длина которых равна или превышает длину x , не обладают предсказательной силой. Разделите их, давая,

Затем определите две вероятности как:

Но априорная вероятность того, что x представляет собой случайный набор битов, равна . Так,

Вероятность того, что источник является случайным или непредсказуемым, равна

Модель индуктивного вывода [ править ]

Модель устройства миров используется при определении вероятностей теорий.

  • Выбирается случайная битовая строка.
  • Условие создается из битовой строки.
  • Мир конструируется, соответствующий условию.

Если w — битовая строка, то мир создается так, что правда. Интеллектуальный агент располагает некоторыми фактами о слове, представленными битовой строкой c , которая задает условие:

Набор битовых строк, идентичных любому условию x , равен .

Теория — это более простое условие, которое объясняет (или подразумевает C. ) Множество всех таких теорий называется T ,

Байеса Применение теоремы

расширенная форма теоремы Байеса может быть применена

где,

Для применения теоремы Байеса должно выполняться следующее: представляет собой раздел пространства событий.

Для чтобы быть разделом, ни одна битовая строка n не может принадлежать двум теориям. Чтобы доказать это, предположим, что они могут это сделать, и получим противоречие:

Во-вторых, докажите, что T включает в себя все исходы, соответствующие условию. Поскольку все теории, соответствующие C , включены, тогда должен быть в этом наборе.

Таким образом, теорему Байеса можно применять как указано, давая:

Используя закон импликации и условной вероятности , определение подразумевает,

Вероятность каждой теории в T определяется выражением:

так,

Наконец, вероятности событий можно отождествить с вероятностями условия, которому удовлетворяют результаты события:

предоставление

Это вероятность теории t условия C. после наблюдения выполнения

не обладающих предсказательной силой Удаление теорий ,

Теории, которые менее вероятны, чем условие C , не обладают предсказательной силой. Разделите их, давая,

Вероятность теорий, не обладающих предсказательной силой относительно C такая же, как и вероятность C. , Так,

Таким образом, вероятность

и вероятность отсутствия прогноза для C, записанная как ,

Вероятность состояния определялась как:

Битовые строки для теорий, которые более сложны, чем битовая строка, переданная агенту в качестве входных данных, не обладают предсказательной силой. Вероятности лучше учитываются в случайном случае. Для реализации этого дано новое определение как F in,

Используя F , улучшенная версия абдуктивных вероятностей:

Ключевые люди [ править ]

См. также [ править ]

Ссылки [ править ]

  1. ^ Уоллес, Крис; Бултон (1968). «Информационная мера классификации» . Компьютерный журнал . 11 (2): 185–194. дои : 10.1093/comjnl/11.2.185 .
  2. ^ Риссанен, Дж. (1978). «Моделирование по кратчайшему описанию данных». Автоматика . 14 (5): 465–658. дои : 10.1016/0005-1098(78)90005-5 .
  3. ^ Эллисон, Ллойд. «Минимальная длина сообщения (MML) – введение в MML в Лос-Анджелесе» .
  4. ^ Оливер, Джей-Джей; Бакстер, Рохан А. (1994). «MML и байесианство: сходства и различия (Введение в минимальный вывод о кодировании - Часть II)» .
  5. ^ Ли, М. и Витаньи, П., Введение в колмогоровскую сложность и ее применение , 3-е издание, Springer Science and Business Media, Нью-Йорк, 2008, стр. 347.
  6. ^ Соломонов Р., « Предварительный отчет по общей теории индуктивного вывода », отчет V-131, Zator Co., Кембридж, Массачусетс. 4 февраля 1960 г., редакция - ноябрь 1960 г.
  7. ^ Соломонов, Р., « Формальная теория индуктивного вывода, часть I » , « Информация и контроль » , том 7, № 1, стр. 1–22, март 1964 г.
  8. ^ Соломонов, Р., « Формальная теория индуктивного вывода, Часть II », Информация и контроль , Том 7, № 2, стр. 224–254, июнь 1964.
  9. ^ Хаттер, Маркус (1998). Последовательные решения на основе алгоритмической вероятности . Спрингер. ISBN  3-540-22139-5 .
  10. ^ Карнап, Рудольф . «СТАТИСТИЧЕСКАЯ И ИНДУКТИВНАЯ ВЕРОЯТНОСТЬ» (PDF) .
  11. ^ Похищение . Лаборатория метафизических исследований Стэнфордского университета. 2017.
  12. ^ Пфайфер, Ники; Кляйтер, Гернот Д. (2006). «ВЫВОД В ЛОГИКЕ УСЛОВНОЙ ВЕРОЯТНОСТИ». Кибернетика . 42 (4): 391–404.
  13. ^ "Условная возможность" . Искусственный интеллект — Основы вычислительных агентов .
  14. ^ «Введение в теорию индуктивно-логического программирования (ИЛП)» .
  15. ^ Плоткин, Гордон Д. (1970). Мельцер, Б.; Мичи, Д. (ред.). «Заметка об индуктивном обобщении». Машинный интеллект . 5 . Издательство Эдинбургского университета: 153–163.
  16. ^ Плоткин, Гордон Д. (1971). Мельцер, Б.; Мичи, Д. (ред.). «Дальнейшее примечание об индуктивном обобщении». Машинный интеллект . 6 . Издательство Эдинбургского университета: 101–124.
  17. ^ Исаак Ньютон: «В [экспериментальной] философии частные положения выводятся из явлений, а затем становятся общими посредством индукции»: « Principia », Книга 3, General Scholium, стр. 392 во 2 томе английского перевода Эндрю Мотта, опубликованного в 1729 году.

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 71CDBE1A78C20658516993EBA5081895__1699124880
URL1:https://en.wikipedia.org/wiki/Inductive_probability
Заголовок, (Title) документа по адресу, URL1:
Inductive probability - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)