~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 115DF5C873973F3B2F8CB3C3AB650BF7__1708002240 ✰
Заголовок документа оригинал.:
✰ Echo state network - Wikipedia ✰
Заголовок документа перевод.:
✰ Государственная сеть «Эхо» — Википедия, бесплатная энциклопедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Echo_state_network ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/11/f7/115df5c873973f3b2f8cb3c3ab650bf7.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/11/f7/115df5c873973f3b2f8cb3c3ab650bf7__translat.html ✰
Дата и время сохранения документа:
✰ 09.06.2024 13:45:36 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 15 February 2024, at 16:04 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Государственная сеть «Эхо» — Википедия, бесплатная энциклопедия Jump to content

Государственная сеть Эхо

Из Википедии, бесплатной энциклопедии
Базовая схема сети эхо-состояний

Сеть состояний эха ( ESN ) [1] [2] это тип коллекторного компьютера , который использует рекуррентную нейронную сеть с редко связанным скрытым слоем (обычно со связностью 1%). Связность и веса скрытых нейронов фиксированы и назначаются случайным образом. Можно узнать веса выходных нейронов, чтобы сеть могла создавать или воспроизводить определенные временные закономерности. Основной интерес этой сети заключается в том, что, хотя ее поведение нелинейно, единственные веса, которые изменяются во время обучения, предназначены для синапсов, которые соединяют скрытые нейроны с выходными нейронами. Таким образом, функция ошибок квадратична по отношению к вектору параметров и ее можно легко дифференцировать до линейной системы.

В качестве альтернативы можно рассмотреть непараметрическую байесовскую формулировку выходного слоя, согласно которой: (i) к выходным весам применяется априорное распределение; и (ii) выходные веса исключаются в контексте генерации прогнозов с учетом обучающих данных. Эта идея была продемонстрирована в [3] с использованием априорных значений Гаусса, в результате чего получается модель гауссовского процесса с функцией ядра, управляемой ESN. Было показано, что такое решение превосходит ESN с обучаемыми (конечными) наборами весов в нескольких тестах.

Некоторые общедоступные реализации ESN: (i) aureservoir: эффективная библиотека C++ для различных типов сетей состояний эха с привязками python/numpy; (ii) Код Matlab: эффективный Matlab для сети эхо-состояний; (iii) ReservoirComputing.jl: эффективная реализация различных типов сетей эхо-состояний на основе Julia; и (iv) pyESN: простые сети состояний эха в Python.

Предыстория [ править ]

Сеть штата Эхо (ESN) [4] принадлежит к семейству рекуррентных нейронных сетей (RNN) и обеспечивает их архитектуру и принцип контролируемого обучения. В отличие от нейронных сетей с прямой связью, рекуррентные нейронные сети представляют собой динамические системы, а не функции. Рекуррентные нейронные сети обычно используются для:

  • Изучение динамических процессов: обработка сигналов в технике и телекоммуникациях, анализ вибрации, сейсмология, управление двигателями и генераторами.
  • Прогнозирование и генерация сигналов: текст, музыка, электрические сигналы, хаотические сигналы. [5]
  • Моделирование биологических систем, нейронауки (когнитивная нейродинамика), моделирование памяти, интерфейсы «мозг-компьютер» (BCI), фильтрация и процессы Калмана, военные приложения, моделирование волатильности и т. д.

Для обучения RNN доступен ряд алгоритмов обучения: обратное распространение ошибки во времени, рекуррентное обучение в реальном времени . Сходимость не гарантируется из-за неустойчивости и явлений бифуркации. [4]  

Основной подход ESN состоит в том, чтобы, во-первых, управлять случайной, большой, фиксированной, повторяющейся нейронной сетью с входным сигналом, который вызывает нелинейный ответный сигнал в каждом нейроне в этой «резервуарной» сети, и, во-вторых, подключать желаемый выходной сигнал с помощью обучаемая линейная комбинация всех этих ответных сигналов. [2]

Еще одной особенностью ESN является автономная работа при прогнозировании: если сеть состояний эха обучена с использованием входных данных, которые представляют собой сдвинутую назад версию выходных данных, то ее можно использовать для генерации/прогнозирования сигналов, используя предыдущий выходной сигнал в качестве входных данных. [4] [5]

Основная идея ESN связана с автоматами с жидкими состояниями (LSM), которые были независимо и одновременно с ESN разработаны Вольфгангом Маассом. [6] LSM, ESN и недавно исследованное правило обучения декорреляции обратного распространения ошибки для RNN. [7] все больше и больше объединяются под названием Reservoir Computing.

Шиллер и Стейл [7] также продемонстрировал, что в традиционных подходах к обучению RNN, в которых адаптируются все веса (не только выходные веса), доминирующие изменения происходят в выходных весах. В области когнитивной нейробиологии Питер Ф. Домини проанализировал родственный процесс, связанный с моделированием обработки последовательностей в мозгу млекопитающих, в частности, с распознаванием речи в мозгу человека. [8] Основная идея также включала модель временного распознавания входных данных в биологических нейронных сетях. [9] Ранняя ясная формулировка идеи расчета пласта принадлежит К. Кирби, который раскрыл эту концепцию в почти забытом докладе на конференции. [10] Первая известная сегодня формулировка идеи резервуарных вычислений принадлежит Л. Шомейкеру, [11] который описал, как желаемый целевой результат может быть получен из RNN, научившись комбинировать сигналы от случайно настроенного ансамбля импульсных нейронных осцилляторов. [2]

Варианты [ править ]

Сети состояний эха могут быть построены разными способами. Они могут быть настроены с или без непосредственно обучаемых соединений ввода-вывода, с обратной связью по резервированию выходных данных или без нее, с разными нейротипами, различными моделями внутренних связей резервуара и т. д. Выходной вес может быть рассчитан для линейной регрессии со всеми алгоритмами, независимо от того, являются ли они онлайн или оффлайн. Помимо решений для ошибок с наименьшими квадратами, для определения выходных значений используются критерии максимизации запаса, так называемые машины опорных векторов обучения. [12] Другие варианты сетей эхо-состояний стремятся изменить формулировку, чтобы лучше соответствовать общим моделям физических систем, например тем, которые обычно определяются дифференциальными уравнениями. Работа в этом направлении включает сети эхо-состояний, которые частично включают физические модели, [13] гибридные сети состояний эха, [14] и сети состояний эха непрерывного времени. [15]

Фиксированная RNN действует как случайная нелинейная среда, динамическая реакция которой, «эхо», используется в качестве основы сигнала. Линейную комбинацию этой базы можно обучить восстановлению желаемого результата путем минимизации некоторых критериев ошибки. [2]

Значение [ править ]

До появления ESN RNN редко использовались на практике из-за сложности настройки их связей (например, отсутствие автодифференцировки, склонность к исчезновению/взрыву градиентов и т. д.). Алгоритмы обучения RNN были медленными и часто уязвимыми к таким проблемам, как ошибки ветвления. [16] Таким образом, конвергенция не может быть гарантирована. С другой стороны, обучение ESN не имеет проблем с ветвлением и его легко реализовать. В ранних исследованиях было показано, что ESN хорошо справляются с задачами прогнозирования временных рядов на основе синтетических наборов данных. [1] [17]

Однако сегодня многие проблемы, которые делали RNN медленными и подверженными ошибкам, были решены с появлением библиотек автодифференциации (глубокого обучения), а также более стабильных архитектур, таких как LSTM и GRU . было потеряно. Кроме того, RNN зарекомендовали себя в нескольких практических областях, таких как языковая обработка. Для решения задач подобной сложности с использованием методов расчета пласта требуется память чрезмерного размера.

Однако ESN используются в некоторых областях, например, во многих приложениях обработки сигналов. В частности, они широко использовались в качестве вычислительного принципа, который хорошо сочетается с нецифровыми компьютерными основами. Поскольку ESN не нуждаются в модификации параметров RNN, они позволяют использовать в качестве своего нелинейного «резервуара» множество различных объектов. Например, оптические микрочипы, механические наноосцилляторы, полимерные смеси или даже искусственные мягкие конечности. [2]

См. также [ править ]

Ссылки [ править ]

  1. ^ Перейти обратно: а б Джагер, Х.; Хаас, Х. (2004). «Использование нелинейности: прогнозирование хаотических систем и экономия энергии в беспроводной связи» (PDF) . Наука . 304 (5667): 78–80. Бибкод : 2004Sci...304...78J . дои : 10.1126/science.1091277 . ПМИД   15064413 . S2CID   2184251 .
  2. ^ Перейти обратно: а б с д Это Джагер, Герберт (2007). «Эхо государственной сети» . Схоларпедия . 2 (9): 2330. Бибкод : 2007SchpJ...2.2330J . doi : 10.4249/scholarpedia.2330 .
  3. ^ Чацис, СП; Демирис, Ю. (2011). «Гауссов процесс эхо-состояния». Транзакции IEEE в нейронных сетях . 22 (9): 1435–1445. дои : 10.1109/ТНН.2011.2162109 . ПМИД   21803684 . S2CID   8553623 .
  4. ^ Перейти обратно: а б с Джагер, Герберт (2002). Учебник по обучению рекуррентных нейронных сетей, охватывающий BPPT, RTRL, EKF и подход «сети эхо-состояний» . Германия: Немецкий национальный исследовательский центр информационных технологий. стр. 1–45.
  5. ^ Перейти обратно: а б Антоник, Петр; Гулина, Марвин; Пауэлс, Джаэль; Массар, Серж (2018). «Использование пластового компьютера для изучения хаотических аттракторов с приложениями для синхронизации хаоса и криптографии». Физ. Преподобный Е. 98 (1): 012215. arXiv : 1802.02844 . Бибкод : 2018PhRvE..98a2215A . дои : 10.1103/PhysRevE.98.012215 . ПМИД   30110744 . S2CID   3616565 .
  6. ^ Маасс В., Натшлагер Т. и Маркрам Х. (2002). «Вычисления в реальном времени без стабильных состояний: новая основа нейронных вычислений, основанная на возмущениях». Нейронные вычисления . 14 (11): 2531–2560. дои : 10.1162/089976602760407955 . ПМИД   12433288 . S2CID   1045112 . {{cite journal}}: CS1 maint: несколько имен: список авторов ( ссылка )
  7. ^ Перейти обратно: а б Шиллер У.Д. и Стейл Дж.Дж. (2005). «Анализ весовой динамики алгоритмов рекуррентного обучения». Нейрокомпьютинг . 63 : 5–23. doi : 10.1016/j.neucom.2004.04.006 .
  8. ^ Домини П.Ф. (1995). «Сложное обучение сенсомоторной последовательности, основанное на репрезентации повторяющихся состояний и обучении с подкреплением». Биол. Кибернетика . 73 (3): 265–274. дои : 10.1007/BF00201428 . ПМИД   7548314 . S2CID   1603500 .
  9. ^ Буономано Д.В. и Мерцених ММ (1995). «Временная информация преобразуется в пространственный код с помощью нейронной сети с реалистичными свойствами». Наука . 267 (5200): 1028–1030. Бибкод : 1995Sci...267.1028B . дои : 10.1126/science.7863330 . ПМИД   7863330 . S2CID   12880807 . {{cite journal}}: CS1 maint: несколько имен: список авторов ( ссылка )
  10. ^ Кирби, К. (1991). «Контекстная динамика в нейронном последовательном обучении. Учебное пособие». Исследовательский симпозиум по искусственному интеллекту во Флориде : 66–70.
  11. ^ Шомейкер, Л. (1992). «Нейронная осцилляторно-сетевая модель генерации временных паттернов». Наука о движении человека . 11 (1–2): 181–192. дои : 10.1016/0167-9457(92)90059-К .
  12. ^ Шмидхубер Дж., Гомес Ф., Виерстра Д. и Гальоло М. (2007). «Обучение рекуррентных сетей от evolino». Нейронные вычисления . 19 (3): 757–779. CiteSeerX   10.1.1.218.3086 . дои : 10.1162/neco.2007.19.3.757 . ПМИД   17298232 . S2CID   11745761 . {{cite journal}}: CS1 maint: несколько имен: список авторов ( ссылка )
  13. ^ Доан Н., Полифке В., Магри Л. (2020). «Сети состояний эха, основанные на физике». Журнал вычислительной науки . 47 : 101237. arXiv : 2011.02280 . дои : 10.1016/j.jocs.2020.101237 . S2CID   226246385 . {{cite journal}}: CS1 maint: несколько имен: список авторов ( ссылка )
  14. ^ Патак Дж., Викнер А., Рассел Р., Чандра С., Хант Б., Гирван М., Отт Э. (2018). «Гибридное прогнозирование хаотических процессов: использование машинного обучения в сочетании с моделью, основанной на знаниях». Хаос . 28 (4): 041101. arXiv : 1803.04779 . Бибкод : 2018Хаос..28d1101P . дои : 10.1063/1.5028373 . ПМИД   31906641 . S2CID   3883587 . {{cite journal}}: CS1 maint: несколько имен: список авторов ( ссылка )
  15. ^ Анантараман, Ранджан; Ма, Инбо; Гауда, Шаши; Лафман, Крис; Шах, Вирал; Эдельман, Алан; Ракаукас, Крис (2020). «Ускорение моделирования жестких нелинейных систем с использованием сетей состояний эхо-сигнала непрерывного времени». arXiv : 2010.04004 [ cs.LG ].
  16. ^ Дойя К. (1992). «Бифуркации в обучении рекуррентных нейронных сетей». [Труды] Международный симпозиум IEEE по схемам и системам , 1992 г. Том. 6. С. 2777–2780. дои : 10.1109/ISCAS.1992.230622 . ISBN  0-7803-0593-0 . S2CID   15069221 .
  17. ^ Джагер Х. (2007). «Обнаружение многомасштабных динамических характеристик с помощью иерархических сетей эхо-состояний». Технический отчет 10, Школа инженерии и науки, Университет Джейкобса .
Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 115DF5C873973F3B2F8CB3C3AB650BF7__1708002240
URL1:https://en.wikipedia.org/wiki/Echo_state_network
Заголовок, (Title) документа по адресу, URL1:
Echo state network - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)