Jump to content

Сеть аттракторов

Сеть аттракторов — это тип рекуррентной динамической сети , которая со временем развивается в сторону стабильной структуры. Узлы в сети аттракторов сходятся к шаблону, который может быть либо фиксированной точкой (единственное состояние), циклическим (с регулярно повторяющимися состояниями), хаотичным (локально, но не глобально нестабильным) или случайным ( стохастическим ). [1] Сети аттракторов широко используются в вычислительной нейробиологии для моделирования нейронных процессов, таких как ассоциативная память. [2] и двигательное поведение, а также в биологических методах машинного обучения.

Сеть аттракторов содержит набор из n узлов, которые можно представить в виде векторов в d -мерном пространстве, где n > d . Со временем состояние сети стремится к одному из множества предопределенных состояний d -многообразия; это аттракторы .

В сетях аттракторов аттрактор (или притягивающее множество ) представляет собой замкнутое подмножество состояний A , к которому развивается система узлов. Стационарный аттрактор — это состояние или набор состояний, в которых глобальная динамика сети стабилизируется. Циклические аттракторы развивают сеть в направлении набора состояний в предельном цикле , который повторяется неоднократно. Хаотические аттракторы — это неповторяющиеся ограниченные аттракторы, которые непрерывно пересекаются.

Пространство состояний сети представляет собой набор всех возможных состояний узла. Пространство аттрактора — это множество узлов аттрактора.Сети аттракторов инициализируются на основе входного шаблона. Размерность входного шаблона может отличаться от размерности узлов сети. Траектория . сети состоит из набора состояний на пути эволюции, когда сеть сходится к состоянию аттрактора Бассейн притяжения – это совокупность состояний, в результате которых происходит движение к определенному аттрактору. [1]

Различные типы аттракторов могут использоваться для моделирования различных типов сетевой динамики. Хотя сети аттракторов с фиксированной точкой являются наиболее распространенными (происходящие из сетей Хопфилда [3] ), также рассматриваются другие типы сетей.

Аттракторы с фиксированной точкой

[ редактировать ]

Аттрактор с неподвижной точкой естественным образом следует из сети Хопфилда . Обычно фиксированные точки в этой модели представляют собой закодированные воспоминания. Эти модели использовались для объяснения ассоциативной памяти, классификации и завершения шаблонов. Сети Хопфилда содержат основную энергетическую функцию. [4] которые позволяют сети асимптотически приближаться к стационарному состоянию. Один класс сети точечных аттракторов инициализируется входными данными, после чего входные данные удаляются, и сеть переходит в стабильное состояние. Другой класс сетей аттракторов имеет заранее определенные веса, которые проверяются различными типами входных данных. Если это устойчивое состояние различно во время и после ввода, оно служит моделью ассоциативной памяти. Однако если состояния во время и после ввода не различаются, сеть можно использовать для завершения шаблона.

Другие стационарные аттракторы

[ редактировать ]

Линейные и плоские аттракторы используются при изучении глазодвигательного контроля. Эти линейные аттракторы, или нейронные интеграторы , описывают положение глаз в ответ на стимулы. Кольцевые аттракторы использовались для моделирования направления головы грызунов.

Циклические аттракторы

[ редактировать ]

Циклические аттракторы играют важную роль в моделировании центральных генераторов паттернов — нейронов, которые управляют колебательной активностью животных, такой как жевание, ходьба и дыхание.

Хаотические аттракторы

[ редактировать ]

хаотические аттракторы (также называемые странными аттракторами Было высказано предположение, что ) отражают закономерности распознавания запахов. Хотя хаотические аттракторы обладают преимуществом более быстрой сходимости на предельных циклах, экспериментальных доказательств, подтверждающих эту теорию, пока нет. [5]

Непрерывные аттракторы

[ редактировать ]

Соседние стабильные состояния (фиксированные точки) непрерывных аттракторов (также называемых нейронными сетями непрерывных аттракторов) кодируют соседние значения непрерывной переменной, такой как направление головы или фактическое положение в пространстве.

Кольцевые аттракторы

[ редактировать ]

Подтип непрерывных аттракторов с определенной топологией нейронов (кольцо для одномерных сетей и тор или скрученный тор для двумерных сетей). Наблюдаемую активность клеток сетки успешно объясняют, предполагая наличие кольцевых аттракторов в медиальной энторинальной коре . [6] Недавно было высказано предположение, что подобные кольцевые аттракторы присутствуют в латеральной части энторинальной коры и их роль распространяется на регистрацию новых эпизодических воспоминаний . [7]

Реализации

[ редактировать ]

Сети аттракторов в основном реализуются как модели памяти с использованием аттракторов с фиксированной точкой. Однако они оказались в значительной степени непрактичными для вычислительных целей из-за трудностей в разработке ландшафта аттракторов и сетевых соединений, что приводило к появлению ложных аттракторов и плохо обусловленных бассейнов притяжения. Кроме того, обучение на сетях-аттракторах обычно требует больших вычислительных затрат по сравнению с другими методами, такими как k -ближайших соседей . классификаторы [8] Однако их роль в общем понимании различных биологических функций, таких как двигательная функция, память, принятие решений и т. д., делает их более привлекательными в качестве биологически реалистичных моделей.

Сети Хопфилда

[ редактировать ]

Сети аттракторов Хопфилда представляют собой раннюю реализацию сетей аттракторов с ассоциативной памятью . Эти рекуррентные сети инициализируются входными данными и стремятся к аттрактору с фиксированной точкой. Функция обновления в дискретное время , где вектор узлов в сети и — симметричная матрица, описывающая их связность. Постоянное обновление времени .

Двунаправленные сети похожи на сети Хопфилда, за исключением того, что матрица представляет собой блочную матрицу . [4]

Локалистские сети-аттракторы

[ редактировать ]

Zemel and Mozer (2001) [8] предложил метод уменьшения количества ложных аттракторов, возникающих в результате кодирования нескольких аттракторов каждым соединением в сети. Локалистские сети аттракторов кодируют знания локально, реализуя алгоритм максимизации ожидания на смеси гауссиан, представляющих аттракторы, чтобы минимизировать свободную энергию в сети и сходиться только наиболее подходящий аттрактор. Это приводит к следующим уравнениям обновления:

  1. Определим активность аттракторов:
  2. Определим следующее состояние сети:
  3. Определим ширину аттрактора через сеть:

( обозначает прочность бассейна, обозначает центр бассейна. обозначает ввод в сеть, представляет собой ненормализованное гауссово распределение с центром в и стандартного отклонения равно .)

Затем сеть повторно наблюдается, и описанные выше шаги повторяются до тех пор, пока не произойдет сходимость. Модель также отражает две биологически значимые концепции. Изменение стимула моделирует подготовку , обеспечивая более быструю конвергенцию к недавно посещенному аттрактору. Более того, суммарная активность аттракторов обеспечивает эффект банды , который заставляет два соседних аттрактора взаимно усиливать бассейн другого.

Сети аттракторов реконсолидации

[ редактировать ]

Сигельманн (2008) [9] обобщил модель локальной сети аттракторов, включив в нее настройку самих аттракторов. В этом алгоритме используется описанный выше метод EM со следующими модификациями: (1) раннее завершение алгоритма, когда активность аттрактора наиболее распределена или когда высокая энтропия предполагает необходимость в дополнительных воспоминаниях, и (2) возможность обновления аттракторов. сами себя: , где – параметр размера шага изменения . Эта модель отражает реконсолидацию памяти у животных и демонстрирует ту же динамику, что и динамика, обнаруженная в экспериментах с памятью.

Дальнейшие разработки сетей аттракторов, таких как ядра , сети аттракторов на основе [10] улучшили вычислительную осуществимость сетей аттракторов в качестве алгоритма обучения, сохраняя при этом гибкость высокого уровня для выполнения шаблонов для сложных композиционных структур.

  1. ^ Jump up to: Перейти обратно: а б Амит, диджей (1989). Моделирование функций мозга: Мир нейронных сетей-аттракторов . Нью-Йорк, штат Нью-Йорк: Издательство Кембриджского университета.
  2. ^ Пусе Б. и Сэйв Э. (2005). «Аттракторы в памяти». Наука . 308 (5723): 799–800. дои : 10.1126/science.1112555 . ПМИД   15879197 . S2CID   9681032 .
  3. ^ Хопфилд, Джей-Джей (1982). «Нейронные сети и физические системы с возникающими коллективными вычислительными способностями» . Труды Национальной академии наук . 79 (8): 2554–2558. Бибкод : 1982PNAS...79.2554H . дои : 10.1073/pnas.79.8.2554 . ПМЦ   346238 . ПМИД   6953413 .
  4. ^ Jump up to: Перейти обратно: а б Джон Хопфилд (ред.). «Сеть Хопфилда» . Схоларпедия .
  5. ^ Крис Элиасмит (ред.). «Сеть аттракторов» . Схоларпедия .
  6. ^ Макнотон Б.Л., Батталья Ф.П., Дженсен О., Мозер Э.И., Мозер М.Б. (август 2006 г.). «Интеграция путей и нейронная основа «когнитивной карты» » . Нат. Преподобный Нейроски . 7 (8): 663–678. дои : 10.1038/nrn1932 . ПМИД   16858394 . S2CID   16928213 .
  7. ^ Ковач К.А. (сентябрь 2020 г.). «Эпизодические воспоминания: как гиппокамп и энторинальные кольцевые аттракторы взаимодействуют, создавая их?» . Границы системной нейронауки . 14:68 . дои : 10.3389/fnsys.2020.559186 . ПМЦ   7511719 . ПМИД   33013334 .
  8. ^ Jump up to: Перейти обратно: а б Земель Р. и Мозер М. (2001). «Локалистские сети аттракторов». Нейронные вычисления . 13 (5): 1045–1064. дои : 10.1162/08997660151134325 . ПМИД   11359644 . S2CID   2934449 .
  9. ^ Сигельманн, HT (2008). «Аналогово-символическая память, отслеживающая посредством реконсолидации». Физика Д. 237 (9): 1207–1214. Бибкод : 2008PhyD..237.1207S . дои : 10.1016/j.physd.2008.03.038 .
  10. ^ Новицкий, Д.; Сигельманн, HT (2010). «Гибкая память ядра» . ПЛОС ОДИН . 5 (6): е10955. Бибкод : 2010PLoSO...510955N . дои : 10.1371/journal.pone.0010955 . ПМЦ   2883999 . ПМИД   20552013 .
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 4e4ddcb05aaed8b07f4d44b0729c283f__1716846000
URL1:https://arc.ask3.ru/arc/aa/4e/3f/4e4ddcb05aaed8b07f4d44b0729c283f.html
Заголовок, (Title) документа по адресу, URL1:
Attractor network - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)