Jump to content

Персептрон

В машинном обучении перцептрон ) (или нейрон Маккаллоха-Питтса представляет собой алгоритм контролируемого обучения бинарных классификаторов . Бинарный классификатор — это функция, которая может решить, принадлежит ли входной сигнал, представленный вектором чисел, к какому-то конкретному классу. [1] Это тип линейного классификатора , то есть алгоритм классификации, который делает свои прогнозы на основе функции линейного предиктора, объединяющей набор весов с вектором признаков .

История [ править ]

Машина Mark I Perceptron, первая реализация алгоритма перцептрона. Он был подключен к камере с из сульфида кадмия фотоэлементами 20×20 для получения изображения размером 400 пикселей. Основной видимой особенностью является панель сенсорных ассоциаций, которая устанавливает различные комбинации входных функций. Справа расположены массивы потенциометров , реализующие адаптивные веса. [2] : 213 
Перцептрон Mark 1, настраиваемый Чарльзом Вайтманом (инженером проекта Mark I Perceptron). [3] Сенсорные блоки слева, ассоциативные блоки в центре, а также панель управления и блоки реагирования крайне справа. Панель сенсорных ассоциаций находится за закрытой панелью справа от оператора. Буква «С» на передней панели — индикация текущего состояния сенсорного входа. [4]

Персептрон был изобретен в 1943 году Уорреном Маккалоком и Уолтером Питтсом . [5] Первой аппаратной реализацией была машина Mark I Perceptron, построенная в 1957 году в Корнеллской авиационной лаборатории Фрэнком Розенблаттом . [6] США финансируется Отделением информационных систем Управления военно-морских исследований и Римским центром развития авиации . Впервые он был публично продемонстрирован 23 июня 1960 года. [7] Машина была «частью ранее секретной четырехлетней работы NPIC [ Национального центра интерпретации фотографий США ] с 1963 по 1966 год по разработке этого алгоритма в полезный инструмент для фотоинтерпретаторов». [8]

Розенблатт описал детали персептрона в статье 1958 года. [9] Его организация персептрона построена из трех видов клеток («единиц»): AI, AII, R, которые означают « проекцию », «ассоциацию» и «ответ».

Проект Розенблатта финансировался в рамках контракта Nonr-401(40) «Программа исследований когнитивных систем», который длился с 1959 по 1970 год. [10] и Контракт Nonr-2381(00) «Проект ПАРА» («ПАРА» означает «Автоматы восприятия и распознавания»), который длился с 1957 года. [6] до 1963 года. [11]

I Perceptron Машина Mark

Организация биологического мозга и перцептрона.

Перцептрон был задуман как машина, а не программа, и хотя его первая реализация была в программном обеспечении для IBM 704 , впоследствии он был реализован на специально изготовленном оборудовании как «Персептрон Mark I» с названием проекта «Проект PARA». ", [12] предназначен для распознавания изображений . В настоящее время машина находится в Смитсоновском национальном музее американской истории . [13]

Персептрон Mark I имеет 3 слоя.

  • Массив из 400 фотоэлементов, расположенных в сетке 20x20, названных «сенсорными единицами» (S-единицы) или «входной сетчаткой». К каждому S-блоку можно подключить до 40 A-блоков.
  • Скрытый слой из 512 перцептронов, названный «ассоциативными единицами» (А-единицы).
  • Выходной слой из 8 перцептронов, названных «единицами ответа» (R-единицы).

Розенблатт назвал эту трехслойную сеть перцептрона альфа-перцептроном , чтобы отличить ее от других моделей перцептрона, с которыми он экспериментировал. [7]

S-блоки подключаются к A-блокам случайным образом (согласно таблице случайных чисел) через коммутационную панель (см. фото), чтобы «устранить какое-либо конкретное преднамеренное смещение в перцептроне». Веса соединений фиксированы, а не изучены. Розенблатт был непреклонен в отношении случайных связей, поскольку он считал, что сетчатка случайным образом связана со зрительной корой, и хотел, чтобы его перцептронная машина напоминала зрительное восприятие человека. [14]

Блоки A соединены с блоками R, при этом регулируемые веса закодированы в потенциометрах , а обновление веса во время обучения выполнялось с помощью электродвигателей. [2] : 193  Подробная информация об аппаратном обеспечении содержится в руководстве оператора. [12]

Компоненты персептрона Mark I. Из руководства оператора. [12]

На пресс-конференции 1958 года, организованной ВМС США, Розенблатт сделал заявления о персептроне, вызвавшие горячие споры среди молодого сообщества ИИ ; Основываясь на заявлениях Розенблатта, газета «Нью-Йорк Таймс» сообщила, что перцептрон является «зародышем электронного компьютера, который, как ожидает [ВМФ], сможет ходить, говорить, видеть, писать, воспроизводить себя и осознавать свое существование». [15]

нейродинамики 1962 Принципы ) (

Розенблатт описал свои эксперименты со многими вариантами машины перцептрона в книге «Принципы нейродинамики» (1962). Книга представляет собой опубликованную версию отчета 1961 года. [16]

Среди вариантов:

  • «перекрестная связь» (соединения между блоками внутри одного слоя) с возможными замкнутыми контурами,
  • «обратная связь» (соединения блоков более позднего уровня с блоками предыдущего уровня),
  • четырехслойные перцептроны, где последние два слоя имеют регулируемый вес (и, следовательно, правильный многослойный перцептрон),
  • включение временных задержек в блоки перцептрона, чтобы обеспечить обработку последовательных данных,
  • анализ аудио (вместо изображений).

Машина была отправлена ​​из Корнелла в Смитсоновский институт в 1967 году по правительственной передаче, администрируемой Управлением военно-морских исследований. [8]

Персептроны ( 1969 )

Хотя поначалу перцептрон казался многообещающим, быстро было доказано, что перцептроны невозможно научить распознавать многие классы шаблонов. области исследований нейронных сетей Это привело к стагнации на многие годы, прежде чем было признано, что нейронная сеть прямого распространения с двумя или более слоями (также называемая многослойным перцептроном ) имеет большую вычислительную мощность, чем перцептроны с одним слоем (также называемые однослойным перцептроном). слой перцептрона ).

Однослойные перцептроны способны изучать только линейно разделимые шаблоны. [17] Для задачи классификации с некоторой функцией пошаговой активации один узел будет иметь одну линию, разделяющую точки данных, образующие шаблоны. Больше узлов может создать больше разделительных линий, но эти линии необходимо каким-то образом объединить, чтобы сформировать более сложную классификацию. Второго слоя перцептронов или даже линейных узлов достаточно для решения многих неразделимых иначе проблем.

В 1969 году знаменитая книга названием «Персептроны» под Марвина Мински и Сеймура Пейперта показала, что эти классы сетей не могут изучить функцию XOR . Часто полагают (ошибочно), что они также предполагали, что аналогичный результат справедлив и для многослойной сети перцептрона. Однако это неправда, поскольку и Мински, и Паперт уже знали, что многослойные перцептроны способны создавать функцию XOR. (Для получения дополнительной информации см. страницу «Персептроны» (книга) .) Тем не менее, часто ошибочно трактуемый текст Мински/Пейперта вызвал значительное снижение интереса и финансирования исследований нейронных сетей. Прошло еще десять лет, прежде чем в 1980-х годах исследования нейронных сетей возобновились. [17] Этот текст был переиздан в 1987 году как «Персептроны — расширенное издание», где показаны и исправлены некоторые ошибки в исходном тексте.

Последующая работа [ править ]

Розенблатт продолжал работать над перцептронами, несмотря на сокращение финансирования. Последней попыткой стал Тобермори, построенный между 1961 и 1967 годами и предназначенный для распознавания речи. [18] Оно занимало целую комнату. [19] Он имел 4 слоя с 12 000 весов, реализованных тороидальными магнитными сердечниками . К моменту его завершения моделирование на цифровых компьютерах стало быстрее, чем специально созданные перцептронные машины. [20] Он погиб в катастрофе в 1971 году.

Изометрический вид Тобермори, фаза I. [19]

Алгоритм ядра персептрона был представлен еще в 1964 году Айзерманом и др. [21] Гарантии границ маржи были даны для алгоритма Персептрона в общем неразделимом случае впервые Фрейндом и Шапиром ( 1998): [1] и совсем недавно Мори и Ростамизаде (2013), которые расширили предыдущие результаты и дали новые, более благоприятные границы L1. [22] [23]

Персептрон — это упрощенная модель биологического нейрона . Хотя для полного понимания поведения нейронов часто требуется сложность моделей биологических нейронов , исследования показывают, что линейная модель, подобная перцептрону, может воспроизводить некоторое поведение, наблюдаемое в реальных нейронах. [24]

Изучаются пространства решений границ решений для всех бинарных функций и поведения обучения. [25]

Определение [ править ]

К входным данным применяются соответствующие веса, и полученная взвешенная сумма передается функции, которая выдает результат o.

В современном смысле персептрон — это алгоритм обучения двоичного классификатора, называемого пороговой функцией : функция, которая отображает входные данные с действительным знаком ( вектор ) к выходному значению (одно двоичное значение):

где ступенчатая функция Хевисайда , вектор действительных весов, это скалярное произведение , где m — количество входов в персептрон, а b смещение . Смещение смещает границу решения от начала координат и не зависит ни от какого входного значения.

Эквивалентно, поскольку , мы можем добавить член смещения как еще один вес и добавьте координату к каждому входу , а затем запишите его как линейный классификатор, передающий начало координат:

Двоичное значение (0 или 1) используется для выполнения двоичной классификации на как положительный или отрицательный пример. В пространственном отношении смещение меняет положение (но не ориентацию) плоской границы решения .

В контексте нейронных сетей перцептрон — это искусственный нейрон, использующий ступенчатую функцию Хевисайда в качестве функции активации. Алгоритм персептрона также называют однослойным персептроном , чтобы отличить его от многослойного персептрона , который является неправильным названием для более сложной нейронной сети. В качестве линейного классификатора однослойный перцептрон представляет собой простейшую нейронную сеть прямого распространения .

Представительская власть [ править ]

Теория информации [ править ]

С точки зрения теории информации , одиночный персептрон с K входами имеет емкость 2K бит информации. [26] Этот результат принадлежит Томасу Коверу . [27]

Конкретно пусть — количество способов линейно разделить N точек в K измерениях, тогда

Когда К велико, очень близко к тому, когда , но очень близко к нулю, когда . Другими словами, одна единица перцептрона почти наверняка может запомнить случайное назначение двоичных меток в N точках, когда , но почти наверняка не тогда, когда .

Булева функция [ править ]

При работе только с двоичными входами персептрон называется линейно разделимой булевой функцией или пороговой булевой функцией. Последовательность номеров пороговых булевых функций на n входах — OEIS A000609 . Значение известно только с точностью до случай, но порядок величины известен совершенно точно: он имеет верхнюю границу и нижняя граница . [28]

Любая булева линейная пороговая функция может быть реализована только с целочисленными весами. Кроме того, количество битов, необходимое и достаточное для представления одного целочисленного весового параметра, равно . [28]

универсальной аппроксимации об Теорема

Один персептрон может научиться классифицировать любое полупространство. Он не может решить никакие линейно неразделимые векторы, такие как булева проблема «исключающее ИЛИ» (знаменитая «проблема XOR»).

Сеть перцептрона с одним скрытым слоем может научиться сколь угодно точно классифицировать любое компактное подмножество. Точно так же он также может сколь угодно точно аппроксимировать любую с компактным носителем непрерывную функцию . По сути, это частный случай теорем Джорджа Цыбенко и Курта Хорника .

Конъюнктивно-локальный перцептрон [ править ]

Перцептроны (Мински и Паперт, 1969) изучали виды сетей перцептронов, необходимые для изучения различных булевых функций.

Рассмотрим персептронную сеть с входные блоки, один скрытый слой и один выходной, как в машине Mark I Perceptron. Он вычисляет булеву функцию типа . Они вызывают функцию конъюнктивно локального порядка , если существует сеть перцептронов, в которой каждый элемент скрытого слоя соединяется не более чем с входные единицы.

Теорема. (Теорема 3.1.1): Функция четности конъюнктивно локальна порядка .

Теорема. (раздел 5.5): Функция связности конъюнктивно локальна порядка .

Алгоритм обучения однослойного перцептрона [ править ]

Диаграмма, показывающая, как перцептрон обновляет свою линейную границу по мере добавления новых обучающих примеров.

Ниже приведен пример алгоритма обучения однослойного перцептрона с одним выходным блоком. Для однослойного перцептрона с несколькими выходными блоками, поскольку веса одного выходного блока полностью отделены от всех остальных, один и тот же алгоритм можно запустить для каждого выходного блока.

Для многослойных перцептронов , где существует скрытый слой, более сложные алгоритмы, такие как обратное распространение ошибки необходимо использовать . Если функция активации или основной процесс, моделируемый перцептроном, нелинейны , можно использовать альтернативные алгоритмы обучения, такие как дельта-правило, при условии, что функция активации дифференцируема . Тем не менее, алгоритм обучения, описанный ниже, часто работает даже для многослойных персептронов с нелинейными функциями активации.

Когда несколько перцептронов объединяются в искусственную нейронную сеть, каждый выходной нейрон работает независимо от всех остальных; таким образом, изучение каждого результата можно рассматривать изолированно.

Определения [ править ]

Сначала мы определяем некоторые переменные:

  • это скорость обучения перцептрона. Скорость обучения — это положительное число, обычно выбираемое меньше 1. Чем больше значение, тем больше вероятность волатильности изменений веса.
  • обозначает выходной сигнал перцептрона для входного вектора .
  • это обучающий набор образцы, где:
    • это -мерный входной вектор.
    • — желаемое выходное значение перцептрона для этого входа.

Мы показываем значения функций следующим образом:

  • это ценность эта особенность обучения входной вектор .
  • .

Чтобы представить веса:

  • это th значение в векторе весов , которое будет умножено на значение функция ввода.
  • Потому что , по сути, это смещение, которое мы используем вместо константы смещения .

Чтобы показать зависимость от времени , мы используем:

  • это вес во время .

Шаги [ править ]

  1. Инициализируйте веса. Веса могут быть инициализированы значением 0 или небольшим случайным значением. В примере ниже мы используем 0.
  2. Для каждого примера j в нашем обучающем наборе D выполните следующие шаги над входными данными: и желаемый результат :
    1. Рассчитаем фактическую производительность:
    2. Обновите веса:
      , для всех функций , это скорость обучения .
  3. Для автономного обучения второй шаг может повторяться до тех пор, пока не будет обнаружена ошибка итерации. меньше заданного пользователем порога ошибки , или было завершено заранее определенное количество итераций, где s — это снова размер набора выборок.

Алгоритм обновляет веса после каждой обучающей выборки на шаге 2b.

Сходимость одного перцептрона на линейно разделимом наборе данных

Иллюстрация конвергенции перцептрона. На картинке . Все точки данных имеют , поскольку отрицательные образцы эквивалентны после отражения через начало координат. По мере обучения вектор весов совершает несколько случайное блуждание в пространстве весов. Каждый шаг отклоняется как минимум на 90 градусов от текущего направления, что увеличивает его норма-квадрат не более чем на 90 градусов. . Каждый шаг добавляет по точке в выборках, и поскольку все выборки имеют , весовой вектор должен двигаться вдоль по крайней мере . Поскольку норма растет как но -компонент растет как , это в конечном итоге приведет к тому, что весовой вектор почти полностью укажет на направлении и, таким образом, достичь конвергенции.

Одиночный персептрон представляет собой линейный классификатор . Он может достичь стабильного состояния только в том случае, если все входные векторы правильно классифицированы. В случае, если обучающий набор D является не линейно разделимым , т. е. если положительные примеры не могут быть отделены от отрицательных примеров гиперплоскостью, то алгоритм не будет сходиться, поскольку решения нет. Следовательно, если линейная отделимость обучающего набора априори неизвестна, следует использовать один из приведенных ниже вариантов обучения. Подробный анализ и расширения теоремы о сходимости приведены в главе 11 книги «Персептроны» (1969).

Линейную разделимость можно проверить во времени. , где количество точек данных, и - размерность каждой точки. [29]

Если обучающее множество линейно разделимо , то персептрон гарантированно сходится после совершения конечного числа ошибок. [30] Теорема доказана Розенблаттом и др.

Теорема о сходимости перцептрона Учитывая набор данных , такой, что , и он линейно разделим некоторым единичным вектором , с запасом :

Тогда алгоритм обучения персептрона 0-1 сходится, сделав не более ошибок при любой скорости обучения и любом методе выборки из набора данных.

Следующее простое доказательство принадлежит Новикову (1962). Идея доказательства состоит в том, что весовой вектор всегда корректируется на ограниченную величину в направлении, с которым он имеет отрицательное произведение , и, таким образом, может быть ограничен сверху величиной O ( √t ) скалярное , где t — количество изменений в вектор веса. Однако его также можно ограничить снизу величиной O ( t ), поскольку если существует (неизвестный) удовлетворительный весовой вектор, то каждое изменение продвигается в этом (неизвестном) направлении на положительную величину, которая зависит только от входного вектора.

Доказательство

Предположим, на шаге , перцептрон с весом делает ошибку в точке данных , затем он обновляется до .

Если , аргумент симметричен, поэтому мы его опускаем.

блог , , затем , , и .

По предположению имеем разделение с полями:

Таким образом,

Также

и поскольку перцептрон допустил ошибку, , и так

Поскольку мы начали с , после создания ошибки,

но и

Объединив их, мы имеем

Два класса точек и две из бесконечного множества линейных границ, разделяющих их. Несмотря на то, что границы расположены почти под прямым углом друг к другу, алгоритм перцептрона не имеет возможности выбирать между ними.

Хотя алгоритм перцептрона гарантированно сходится к некоторому решению в случае линейно разделимого обучающего набора, он все равно может выбрать любое решение, и проблемы могут допускать множество решений различного качества. [31] and Mezard , 1987 Для решения этой проблемы был разработан персептрон оптимальной устойчивости, ныне более известный как линейная машина опорных векторов (Krauth ) . [32]

использовании перцептрона циклическом Теорема о

Когда набор данных не является линейно разделимым, единый перцептрон не может сойтись. Однако у нас еще есть [33]

Теорема о цикле перцептрона . Если набор данных имеет лишь конечное число точек, то существует верхнее граничное число , такой, что для любого стартового весового вектора весь вектор веса имеет норму, ограниченную

Первым это доказал Брэдли Эфрон . [34]

Изучение логической функции [ править ]

Рассмотрим набор данных, в котором из , то есть вершины n-мерного гиперкуба с центром в начале координат, и . То есть все точки данных с положительным иметь , и наоборот. По теореме о сходимости перцептрона перцептрон сходится после того, как сделает не более ошибки.

Если бы мы написали логическую программу для выполнения одной и той же задачи, каждый положительный пример показал бы, что одна из координат является правильной, а каждый отрицательный пример показал бы, что ее дополнение является положительным примером. Собрав все известные положительные примеры, мы в конечном итоге исключаем все координаты, кроме одной, после чего набор данных изучается. [35]

Эта граница асимптотически точна в наихудшем случае. В худшем случае первый представленный пример является совершенно новым и дает бит информации, но каждый последующий пример будет минимально отличаться от предыдущих примеров и дает по 1 биту каждый. После примеры, есть бит информации, которого достаточно для перцептрона (с кусочки информации). [26]

Однако с точки зрения ожиданий это не является жестким, если примеры представлены равномерно и случайным образом, поскольку первый дал бы бит, второй биты и так далее, принимая примеры всего. [35]

Варианты [ править ]

Карманный алгоритм с храповым механизмом (Gallant, 1990) решает проблему стабильности обучения перцептрона, сохраняя лучшее из виденных до сих пор решений «в кармане». Затем карманный алгоритм возвращает решение в кармане, а не последнее решение. Его также можно использовать для неразделимых наборов данных, где цель состоит в том, чтобы найти персептрон с небольшим количеством ошибочных классификаций. Однако эти решения появляются чисто стохастически, и, следовательно, карманный алгоритм не приближается к ним постепенно в ходе обучения и не гарантирует их появление в течение заданного количества шагов обучения.

Алгоритм Максовера (Вендемут, 1995) является «надежным» в том смысле, что он сходится независимо от (предварительного) знания о линейной разделимости набора данных. [36] В линейно-разделимом случае это решит задачу обучения – при желании даже с оптимальной стабильностью ( максимальным запасом между классами). Для неразделимых наборов данных он вернет решение с небольшим количеством ошибок классификации. Во всех случаях алгоритм в процессе обучения постепенно приближается к решению, без запоминания предыдущих состояний и без стохастических скачков. Сходимость заключается в глобальной оптимальности для разделимых наборов данных и в локальной оптимальности для неразделимых наборов данных.

Голосуемый перцептрон (Freund and Schapire, 1999) представляет собой вариант, использующий несколько взвешенных перцептронов. Алгоритм запускает новый перцептрон каждый раз, когда пример неправильно классифицирован, инициализируя вектор весов окончательными весами последнего перцептрона. Каждому перцептрону также будет присвоен другой вес, соответствующий тому, сколько примеров он правильно классифицирует, прежде чем ошибочно классифицирует один, и в конце результатом будет взвешенное голосование по всем перцептронам.

В разделимых задачах обучение персептрона также может быть направлено на поиск наибольшего разделительного разрыва между классами. Так называемый перцептрон оптимальной устойчивости можно определить с помощью итеративных схем обучения и оптимизации, таких как алгоритм Min-Over (Krauth and Mezard, 1987). [32] или AdaTron (Анлауф и Биль, 1989)). [37] AdaTron использует тот факт, что соответствующая задача квадратичной оптимизации является выпуклой. Персептрон оптимальной устойчивости вместе с трюком ядра являются концептуальными основами машины опорных векторов .

The -перцептрон далее использовал уровень предварительной обработки фиксированных случайных весов с пороговыми единицами вывода. Это позволило перцептрону классифицировать аналоговые закономерности, проецируя их в двоичное пространство . Фактически, для проекционного пространства достаточно высокой размерности шаблоны могут стать линейно разделимыми.

Другой способ решения нелинейных задач без использования нескольких слоев — использовать сети более высокого порядка (модуль сигма-пи). В сети этого типа каждый элемент входного вектора расширяется с каждой попарной комбинацией умноженных входов (второй порядок). Это можно распространить на сеть n -порядка.

Однако следует иметь в виду, что лучший классификатор – это не обязательно тот, который идеально классифицирует все обучающие данные. Действительно, если бы у нас было предварительное ограничение, согласно которому данные поступают из эквивариантных гауссовых распределений, линейное разделение во входном пространстве является оптимальным, а нелинейное решение переоснащается .

Другие алгоритмы линейной классификации включают Winnow , машину опорных векторов и логистическую регрессию .

Мультиклассовый перцептрон [ править ]

Как и большинство других методов обучения линейных классификаторов, перцептрон естественным образом обобщается на многоклассовую классификацию . Здесь вход и вывод взяты из произвольных наборов. Функция представления объектов сопоставляет каждую возможную пару ввода/вывода с конечномерным вектором признаков с действительным знаком. Как и раньше, вектор признаков умножается на вектор весов. , но теперь полученная оценка используется для выбора среди множества возможных выходов:

При повторном обучении повторяются примеры, прогнозируя результат для каждого, оставляя веса неизменными, когда прогнозируемый результат соответствует целевому, и изменяя их, когда это не так. Обновление становится:

Эта формулировка многоклассовой обратной связи сводится к исходному перцептрону, когда вектор с действительным знаком, выбирается из , и .

Для определенных задач представления и функции ввода/вывода могут быть выбраны так, чтобы можно найти эффективно, хотя выбирается из очень большого или даже бесконечного множества.

С 2002 года обучение персептроном стало популярным в области обработки естественного языка для таких задач, как разметка частей речи и синтаксический анализ (Коллинз, 2002). Он также применялся для решения крупномасштабных задач машинного обучения в условиях распределенных вычислений . [38]

Ссылки [ править ]

  1. ^ Jump up to: Перейти обратно: а б Фройнд, Ю .; Шапире, RE (1999). «Классификация с большой маржой с использованием алгоритма перцептрона» (PDF) . Машинное обучение . 37 (3): 277–296. дои : 10.1023/А:1007662407062 . S2CID   5885617 .
  2. ^ Jump up to: Перейти обратно: а б Бишоп, Кристофер М. (2006). Распознавание образов и машинное обучение . Спрингер. ISBN  0-387-31073-8 .
  3. ^ Хехт-Нильсен, Роберт (1991). Нейрокомпьютинг (Переиздание с исправлениями под ред.). Ридинг (Массачусетс), Менло-Парк (Калифорния), Нью-Йорк [и др.]: Аддисон-Уэсли. п. 6, подпись к рисунку 1.3. ISBN  978-0-201-09355-1 .
  4. ^ Блок, HD (1 января 1962 г.). «Персептрон: модель функционирования мозга. I» . Обзоры современной физики . 34 (1): 123–135. Бибкод : 1962РвМП...34..123Б . дои : 10.1103/RevModPhys.34.123 . ISSN   0034-6861 .
  5. ^ Маккалок, В; Питтс, W (1943). «Логическое исчисление идей, имманентных нервной деятельности» . Вестник математической биофизики . 5 (4): 115–133. дои : 10.1007/BF02478259 .
  6. ^ Jump up to: Перейти обратно: а б Розенблатт, Франк (1957). «Персептрон — воспринимающий и распознающий автомат» (PDF) . Отчет 85-460-1 . Корнеллская авиационная лаборатория.
  7. ^ Jump up to: Перейти обратно: а б Нильссон, Нильс Дж. (2009). «4.2.1. Перцептроны». В поисках искусственного интеллекта . Кембридж: Издательство Кембриджского университета. ISBN  978-0-521-11639-8 .
  8. ^ Jump up to: Перейти обратно: а б О'Коннор, Джек (21 июня 2022 г.). «Алгоритм под прикрытием: секретная глава в ранней истории искусственного интеллекта и спутниковых изображений» . Международный журнал разведки и контрразведки : 1–15. дои : 10.1080/08850607.2022.2073542 . ISSN   0885-0607 . S2CID   249946000 .
  9. ^ Розенблатт, Ф. (1958). «Персептрон: вероятностная модель хранения и организации информации в мозге» . Психологический обзор . 65 (6): 386–408. дои : 10.1037/h0042519 . ISSN   1939-1471 . ПМИД   13602029 .
  10. ^ Розенблатт, Фрэнк и КОРНЕЛЛСКИЙ УНИВЕРСИТЕТ ИТАКИ, НЬЮ-ЙОРК. Программа исследований когнитивных систем . Технический отчет, Корнелльский университет, 72, 1971 г.
  11. ^ Мюерле, Джон Людвиг и CORNELL AERONAUICAL LAB INC BUFFALO NY. Проект Пара, Автоматы восприятия и распознавания . Корнельская авиационная лаборатория, Инкорпорейтед, 1963 год.
  12. ^ Jump up to: Перейти обратно: а б с Хэй, Джон Кэмерон (1960). Руководство оператора перцептрона Mark I (Проект PARA) / (PDF) . Буффало: Корнеллская авиационная лаборатория. Архивировано из оригинала (PDF) 27 октября 2023 г.
  13. ^ «Персептрон Марк I» . Национальный музей американской истории . Проверено 30 октября 2023 г.
  14. ^ Андерсон, Джеймс А.; Розенфельд, Эдвард, ред. (2000). Говорящие сети: устная история нейронных сетей . Массачусетский технологический институт Пресс. дои : 10.7551/mitpress/6626.003.0004 . ISBN  978-0-262-26715-1 .
  15. ^ Олазаран, Микель (1996). «Социологическое исследование официальной истории спора о перцептронах». Социальные исследования науки . 26 (3): 611–659. дои : 10.1177/030631296026003005 . JSTOR   285702 . S2CID   16786738 .
  16. ^ Принципы нейродинамики: перцептроны и теория механизмов мозга , Фрэнк Розенблатт, номер отчета VG-1196-G-8, Корнельская авиационная лаборатория, опубликовано 15 марта 1961 года. Работа, о которой сообщается в этом томе, была выполнена в соответствии с контрактом Nonr. -2381 (00) (Проект PARA) в CAL и Контракт Nonr-401 (40) в Корнельском университете.
  17. ^ Jump up to: Перейти обратно: а б Сейновски, Терренс Дж. (2018). Революция глубокого обучения . МТИ Пресс. п. 47. ИСБН  978-0-262-03803-4 .
  18. ^ Розенблатт, Франк (1962). « Описание персептрона Тобермори ». Программа когнитивных исследований. Отчет № 4. Сборник технических статей, Том. 2. Под редакцией Фрэнка Розенблатта. Итака, Нью-Йорк: Корнельский университет.
  19. ^ Jump up to: Перейти обратно: а б Надь, Джордж. 1963. Системные и схемные решения перцептрона Тобермори . Технический отчет № 5, Программа исследований когнитивных систем, Корнелльский университет, Итака, Нью-Йорк.
  20. ^ Надь, Джордж. «Нейронные сети – тогда и сейчас». Транзакции IEEE в нейронных сетях 2.2 (1991): 316–318.
  21. ^ Айзерман, Массачусетс; Браверман, Э.М.; Розоноер, Л.И. (1964). «Теоретические основы метода потенциальных функций в обучении распознаванию образов». Автоматизация и дистанционное управление . 25 : 821–837.
  22. ^ Мори, Мехриар; Ростамизаде, Афшин (2013). «Границы ошибок перцептрона». arXiv : 1305.0208 [ cs.LG ].
  23. ^ [1] Основы машинного обучения, MIT Press (глава 8).
  24. ^ Кэш, Сидней; Юсте, Рафаэль (1999). «Линейное суммирование возбуждающих сигналов пирамидальными нейронами CA1» . Нейрон . 22 (2): 383–394. дои : 10.1016/S0896-6273(00)81098-3 . ПМИД   10069343 .
  25. ^ Лиу, Д.-Р.; Лиу, Ж.-В.; Лиу, К.-Ю. (2013). Изучение поведения перцептрона . АйКонцепт Пресс. ISBN  978-1-477554-73-9 .
  26. ^ Jump up to: Перейти обратно: а б Маккей, Дэвид (25 сентября 2003 г.). Теория информации, логический вывод и алгоритмы обучения . Издательство Кембриджского университета . п. 483. ИСБН  9780521642989 .
  27. ^ Обложка, Томас М. (июнь 1965 г.). «Геометрические и статистические свойства систем линейных неравенств с приложениями в распознавании образов» . Транзакции IEEE на электронных компьютерах . EC-14 (3): 326–334. дои : 10.1109/PGEC.1965.264137 . ISSN   0367-7508 .
  28. ^ Jump up to: Перейти обратно: а б Шима, Иржи; Орпонен, Пекка (1 декабря 2003 г.). «Вычисления общего назначения с использованием нейронных сетей: обзор результатов теории сложности» . Нейронные вычисления . 15 (12): 2727–2778. дои : 10.1162/089976603322518731 . ISSN   0899-7667 . ПМИД   14629867 .
  29. ^ «Введение в машинное обучение, глава 3: Перцептрон» . openlearninglibrary.mit.edu . Проверено 27 октября 2023 г.
  30. ^ Новикофф, Альберт Дж. (1963). «О доказательствах сходимости перцептронов». Управление военно-морских исследований .
  31. ^ Бишоп, Кристофер М. (17 августа 2006 г.). «Глава 4. Линейные модели классификации». Распознавание образов и машинное обучение . Спрингер Сайенс+Бизнес Медиа, ООО. п. 194. ИСБН  978-0387-31073-2 .
  32. ^ Jump up to: Перейти обратно: а б Краут, В.; Мезард, М. (1987). «Алгоритмы обучения оптимальной устойчивости в нейронных сетях». Журнал физики A: Математический и общий . 20 (11): Л745–Л752. Бибкод : 1987JPhA...20L.745K . дои : 10.1088/0305-4470/20/11/013 .
  33. ^ Блок, HD; Левин, С.А. (1970). «Об ограниченности итерационной процедуры решения системы линейных неравенств» . Труды Американского математического общества . 26 (2): 229–235. дои : 10.1090/S0002-9939-1970-0265383-5 . ISSN   0002-9939 .
  34. ^ Эфрон, Брэдли. «Процедура коррекции перцептрона в неразделимых ситуациях». Римское авиационное подразделение. Центр Тех. Док. Репт (1964).
  35. ^ Jump up to: Перейти обратно: а б Саймон, Герберт А.; Лэрд, Джон Э. (13 августа 2019 г.). «Ограничения скорости достижения концепции». Науки об искусственном, переиздание третьего издания с новым введением Джона Лэрда (переиздание). Кембридж, Массачусетс, Лондон, Англия: MIT Press. ISBN  978-0-262-53753-7 .
  36. ^ Вендемут, А. (1995). «Изучение необъяснимого». Журнал физики A: Математический и общий . 28 (18): 5423–5436. Бибкод : 1995JPhA...28.5423W . дои : 10.1088/0305-4470/28/18/030 .
  37. ^ Анлауф, Дж. К.; Биль, М. (1989). «АдаТрон: алгоритм адаптивного перцептрона». Письма по еврофизике . 10 (7): 687–692. Бибкод : 1989EL.....10..687A . дои : 10.1209/0295-5075/10/7/014 . S2CID   250773895 .
  38. ^ Макдональд, Р.; Холл, К.; Манн, Г. (2010). «Стратегии распределенного обучения для структурированного перцептрона» (PDF) . Технологии человеческого языка: Ежегодная конференция Североамериканского отделения ACL 2010 года . Ассоциация компьютерной лингвистики. стр. 456–464.

Дальнейшее чтение [ править ]

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 67a825df54ac4898211479d26815b72f__1718713380
URL1:https://arc.ask3.ru/arc/aa/67/2f/67a825df54ac4898211479d26815b72f.html
Заголовок, (Title) документа по адресу, URL1:
Perceptron - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)