АДАЛИН



ADALINE ( Adaptive Linear Neuron или более поздний Adaptive Linear Element ) — ранняя однослойная искусственная нейронная сеть и название физического устройства, реализовавшего эту сеть. [1] [2] [3] [4] [5] В сети используются мемисторы. Он был разработан профессором Бернардом Уидроу и его докторантом Тедом Хоффом в Стэнфордском университете в 1960 году. Он основан на перцептроне . Он состоит из веса, смещения и функции суммирования.
Разница между Адалиной и стандартным перцептроном (Маккаллоха-Питтса) заключается в том, как они учатся. Веса единиц Adaline корректируются в соответствии с сигналом учителя перед применением функции Хевисайда (см. рисунок), но веса стандартных единиц перцептрона корректируются так, чтобы соответствовать правильному выходному сигналу, после применения функции Хевисайда.
Многоуровневая модулей сеть ADALINE — это MADALINE .
Определение [ править ]
Adaline — это однослойная нейронная сеть с несколькими узлами, где каждый узел принимает несколько входных данных и генерирует один выходной. Учитывая следующие переменные:
- входной вектор
- весовой вектор
- это количество входов
- это некоторая константа
- это результат модели
то мы обнаруживаем, что результат . Если мы далее предположим, что
тогда результат дополнительно уменьшается до:
Правило обучения [ править ]
Правилом обучения , используемым ADALINE, является алгоритм LMS («наименьшие средние квадраты»), частный случай градиентного спуска.
Определите следующие обозначения:
- - скорость обучения (некоторая положительная константа)
- это результат модели
- целевой (желаемый) результат
- – квадрат ошибки.
Алгоритм LMS обновляет веса по
Это правило обновления сводит к минимуму , квадрат ошибки, [6] и на самом деле является обновлением стохастического градиентного спуска для линейной регрессии . [7]
МАДАЛИН [ править ]
МАДАЛИН (Много АДАЛИН [8] ) представляет собой трехуровневую (входной, скрытый, выходной), полностью связанную искусственной нейронной сети архитектуру с прямой связью для классификации , которая использует блоки ADALINE в своих скрытых и выходных слоях, т. е. ее функция активации — это функция знака . [9] Трехслойная сеть использует мемисторы . Были предложены три различных алгоритма обучения для сетей MADALINE, которые нельзя обучить с помощью обратного распространения ошибки , поскольку знаковая функция не дифференцируема, и названы Правило I, Правило II и Правило III.
Несмотря на множество попыток, им никогда не удавалось тренировать более одного слоя отягощений в MADALINE. Так было до тех пор, пока Уидроу не увидел алгоритм обратного распространения ошибки на конференции 1982 года. [10]
MADALINE Правило 1 (МРТ). Первое из них датируется 1962 годом. [11] Он состоит из двух слоев. Первый слой выполнен из блоков ADALINE. Пусть выход i-го блока ADALINE будет . Второй слой состоит из двух единиц. Одна из них представляет собой мажоритарную единицу: она принимает все , и если положительных значений больше, чем отрицательных, то единица выдает +1, и наоборот. Другой - «назначитель работы». Предположим, что желаемый результат отличается от результата, полученного большинством голосов, скажем, желаемый результат равен -1, тогда ответственный за задание вычисляет минимальное количество модулей ADALINE, которые должны изменить свои выходные данные с положительного на отрицательный, а затем выбирает те блоки ADALINE, которые находятся ближе всего к на отрицательные значения и заставить их обновить свои веса в соответствии с правилом обучения ADALINE. Это рассматривалось как форма «принципа минимального возмущения». [12]
Самая большая машина MADALINE имела 1000 гирь, каждая из которых была реализована мемистором. [12]
Правило 2 MADALINE (MRII). Второй алгоритм обучения усовершенствовал Правило I и был описан в 1988 году. [8] Алгоритм обучения Правилу II основан на принципе, называемом «минимальное вмешательство». Он продолжается путем перебора обучающих примеров, затем для каждого примера:
- находит блок скрытого слоя (классификатор ADALINE) с наименьшей уверенностью в его прогнозе,
- предварительно переворачивает знак единицы,
- принимает или отклоняет изменение в зависимости от того, уменьшилась ли ошибка сети,
- останавливается, когда ошибка равна нулю.
Правило MADALINE 3. Третье «Правило» применяется к модифицированной сети с активациями сигмовидной мышцы вместо сигнума; Позже было обнаружено, что это эквивалентно обратному распространению ошибки. [12]
Кроме того, если переворачивание знаков отдельных единиц не приводит к нулю ошибки для конкретного примера, алгоритм обучения начинает переворачивать пары знаков единиц, затем тройки единиц и т. д. [8]
См. также [ править ]
Ссылки [ править ]
- ^ Андерсон, Джеймс А.; Розенфельд, Эдвард (2000). Говорящие сети: устная история нейронных сетей . МТИ Пресс. ISBN 9780262511117 .
- ^ Youtube: widrowlms: Наука в действии
- ^ 1960: Адаптивный нейрон «АДАЛИН» с использованием химических «мемисторов».
- ^ Youtube: widrowlms: Алгоритм LMS и ADALINE. Часть I. Алгоритм LMS
- ^ Youtube: widrowlms: Алгоритм LMS и ADALINE. Часть II - АДАЛИН и мемистор АДАЛИН
- ^ «Адалин (Адаптивная линейная версия)» (PDF) . CS 4793: Введение в искусственные нейронные сети . Департамент компьютерных наук Техасского университета в Сан-Антонио.
- ^ Ави Пфеффер. «CS181 Лекция 5 — Персептроны» (PDF) . Гарвардский университет. [ постоянная мертвая ссылка ]
- ↑ Перейти обратно: Перейти обратно: а б с Родни Винтер; Бернард Уидроу (1988). ПРАВИЛО MADALINE II: Алгоритм обучения нейронных сетей (PDF) . Международная конференция IEEE по нейронным сетям. стр. 401–408. дои : 10.1109/ICNN.1988.23872 .
- ^ Youtube: widrowlms: Science in Action (Мадалин упоминается в начале и в 8:46)
- ^ Андерсон, Джеймс А.; Розенфельд, Эдвард, ред. (2000). Говорящие сети: устная история нейронных сетей . Массачусетский технологический институт Пресс. дои : 10.7551/mitpress/6626.003.0004 . ISBN 978-0-262-26715-1 .
- ^ Уидроу, Бернард (1962). «Обобщение и хранение информации в сетях адалинных нейронов» (PDF) . Самоорганизующиеся системы : 435–461.
- ↑ Перейти обратно: Перейти обратно: а б с Уидроу, Бернард; Лер, Майкл А. (1990). «30 лет адаптивных нейронных сетей: персептрон, мадалин и обратное распространение ошибки». Труды IEEE . 78 (9): 1415–1442. дои : 10.1109/5.58323 . S2CID 195704643 .
Внешние ссылки [ править ]
- «Правило дельта-обучения: АДАЛИН» . Искусственные нейронные сети . Политехнический университет Мадрида. Архивировано из оригинала 15 июня 2002 г.
- « Многослойные нейронные сети на основе мемристоров с онлайн-обучением градиентного спуска ». Реализация алгоритма ADALINE с мемристорами в аналоговых вычислениях.