Jump to content

АДАЛИН

Обучение внутри одного слоя ADALINE
Фотография тренажера ADALINE с гирями, регулируемыми вручную.
Схема одного блока ADALINE с рисунка 2 (Widrow, 1960).

ADALINE ( Adaptive Linear Neuron или более поздний Adaptive Linear Element ) — ранняя однослойная искусственная нейронная сеть и название физического устройства, реализовавшего эту сеть. [1] [2] [3] [4] [5] В сети используются мемисторы. Он был разработан профессором Бернардом Уидроу и его докторантом Тедом Хоффом в Стэнфордском университете в 1960 году. Он основан на перцептроне . Он состоит из веса, смещения и функции суммирования.

Разница между Адалиной и стандартным перцептроном (Маккаллоха-Питтса) заключается в том, как они учатся. Веса единиц Adaline корректируются в соответствии с сигналом учителя перед применением функции Хевисайда (см. рисунок), но веса стандартных единиц перцептрона корректируются так, чтобы соответствовать правильному выходному сигналу, после применения функции Хевисайда.

Многоуровневая модулей сеть ADALINE — это MADALINE .

Определение [ править ]

Adaline — это однослойная нейронная сеть с несколькими узлами, где каждый узел принимает несколько входных данных и генерирует один выходной. Учитывая следующие переменные:

  • входной вектор
  • весовой вектор
  • это количество входов
  • это некоторая константа
  • это результат модели

то мы обнаруживаем, что результат . Если мы далее предположим, что

тогда результат дополнительно уменьшается до:

Правило обучения [ править ]

Правилом обучения , используемым ADALINE, является алгоритм LMS («наименьшие средние квадраты»), частный случай градиентного спуска.

Определите следующие обозначения:

  • - скорость обучения (некоторая положительная константа)
  • это результат модели
  • целевой (желаемый) результат
  • – квадрат ошибки.


Алгоритм LMS обновляет веса по

Это правило обновления сводит к минимуму , квадрат ошибки, [6] и на самом деле является обновлением стохастического градиентного спуска для линейной регрессии . [7]

МАДАЛИН [ править ]

МАДАЛИН (Много АДАЛИН [8] ) представляет собой трехуровневую (входной, скрытый, выходной), полностью связанную искусственной нейронной сети архитектуру с прямой связью для классификации , которая использует блоки ADALINE в своих скрытых и выходных слоях, т. е. ее функция активации — это функция знака . [9] Трехслойная сеть использует мемисторы . Были предложены три различных алгоритма обучения для сетей MADALINE, которые нельзя обучить с помощью обратного распространения ошибки , поскольку знаковая функция не дифференцируема, и названы Правило I, Правило II и Правило III.

Несмотря на множество попыток, им никогда не удавалось тренировать более одного слоя отягощений в MADALINE. Так было до тех пор, пока Уидроу не увидел алгоритм обратного распространения ошибки на конференции 1982 года. [10]

MADALINE Правило 1 (МРТ). Первое из них датируется 1962 годом. [11] Он состоит из двух слоев. Первый слой выполнен из блоков ADALINE. Пусть выход i-го блока ADALINE будет . Второй слой состоит из двух единиц. Одна из них представляет собой мажоритарную единицу: она принимает все , и если положительных значений больше, чем отрицательных, то единица выдает +1, и наоборот. Другой - «назначитель работы». Предположим, что желаемый результат отличается от результата, полученного большинством голосов, скажем, желаемый результат равен -1, тогда ответственный за задание вычисляет минимальное количество модулей ADALINE, которые должны изменить свои выходные данные с положительного на отрицательный, а затем выбирает те блоки ADALINE, которые находятся ближе всего к на отрицательные значения и заставить их обновить свои веса в соответствии с правилом обучения ADALINE. Это рассматривалось как форма «принципа минимального возмущения». [12]

Самая большая машина MADALINE имела 1000 гирь, каждая из которых была реализована мемистором. [12]

Правило 2 MADALINE (MRII). Второй алгоритм обучения усовершенствовал Правило I и был описан в 1988 году. [8] Алгоритм обучения Правилу II основан на принципе, называемом «минимальное вмешательство». Он продолжается путем перебора обучающих примеров, затем для каждого примера:

  • находит блок скрытого слоя (классификатор ADALINE) с наименьшей уверенностью в его прогнозе,
  • предварительно переворачивает знак единицы,
  • принимает или отклоняет изменение в зависимости от того, уменьшилась ли ошибка сети,
  • останавливается, когда ошибка равна нулю.

Правило MADALINE 3. Третье «Правило» применяется к модифицированной сети с активациями сигмовидной мышцы вместо сигнума; Позже было обнаружено, что это эквивалентно обратному распространению ошибки. [12]

Кроме того, если переворачивание знаков отдельных единиц не приводит к нулю ошибки для конкретного примера, алгоритм обучения начинает переворачивать пары знаков единиц, затем тройки единиц и т. д. [8]

См. также [ править ]

Ссылки [ править ]

  1. ^ Андерсон, Джеймс А.; Розенфельд, Эдвард (2000). Говорящие сети: устная история нейронных сетей . МТИ Пресс. ISBN  9780262511117 .
  2. ^ Youtube: widrowlms: Наука в действии
  3. ^ 1960: Адаптивный нейрон «АДАЛИН» с использованием химических «мемисторов».
  4. ^ Youtube: widrowlms: Алгоритм LMS и ADALINE. Часть I. Алгоритм LMS
  5. ^ Youtube: widrowlms: Алгоритм LMS и ADALINE. Часть II - АДАЛИН и мемистор АДАЛИН
  6. ^ «Адалин (Адаптивная линейная версия)» (PDF) . CS 4793: Введение в искусственные нейронные сети . Департамент компьютерных наук Техасского университета в Сан-Антонио.
  7. ^ Ави Пфеффер. «CS181 Лекция 5 — Персептроны» (PDF) . Гарвардский университет. [ постоянная мертвая ссылка ]
  8. Перейти обратно: Перейти обратно: а б с Родни Винтер; Бернард Уидроу (1988). ПРАВИЛО MADALINE II: Алгоритм обучения нейронных сетей (PDF) . Международная конференция IEEE по нейронным сетям. стр. 401–408. дои : 10.1109/ICNN.1988.23872 .
  9. ^ Youtube: widrowlms: Science in Action (Мадалин упоминается в начале и в 8:46)
  10. ^ Андерсон, Джеймс А.; Розенфельд, Эдвард, ред. (2000). Говорящие сети: устная история нейронных сетей . Массачусетский технологический институт Пресс. дои : 10.7551/mitpress/6626.003.0004 . ISBN  978-0-262-26715-1 .
  11. ^ Уидроу, Бернард (1962). «Обобщение и хранение информации в сетях адалинных нейронов» (PDF) . Самоорганизующиеся системы : 435–461.
  12. Перейти обратно: Перейти обратно: а б с Уидроу, Бернард; Лер, Майкл А. (1990). «30 лет адаптивных нейронных сетей: персептрон, мадалин и обратное распространение ошибки». Труды IEEE . 78 (9): 1415–1442. дои : 10.1109/5.58323 . S2CID   195704643 .

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 2e497fbe349dccaa158aba6a98426a1a__1714778580
URL1:https://arc.ask3.ru/arc/aa/2e/1a/2e497fbe349dccaa158aba6a98426a1a.html
Заголовок, (Title) документа по адресу, URL1:
ADALINE - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)