Сеть аттракторов
Сеть аттракторов — это тип рекуррентной динамической сети , которая со временем развивается в сторону стабильной структуры. Узлы в сети аттракторов сходятся к шаблону, который может быть либо фиксированной точкой (единственное состояние), циклическим (с регулярно повторяющимися состояниями), хаотичным (локально, но не глобально нестабильным) или случайным ( стохастическим ). [1] Сети аттракторов широко используются в вычислительной нейробиологии для моделирования нейронных процессов, таких как ассоциативная память. [2] и двигательное поведение, а также в биологических методах машинного обучения.
Сеть аттракторов содержит набор из n узлов, которые можно представить в виде векторов в d -мерном пространстве, где n > d . Со временем состояние сети стремится к одному из множества предопределенных состояний d -многообразия; это аттракторы .
Обзор
[ редактировать ]В сетях аттракторов аттрактор (или притягивающее множество ) представляет собой замкнутое подмножество состояний A , к которому развивается система узлов. Стационарный аттрактор — это состояние или набор состояний, в которых глобальная динамика сети стабилизируется. Циклические аттракторы развивают сеть в направлении набора состояний в предельном цикле , который повторяется неоднократно. Хаотические аттракторы — это неповторяющиеся ограниченные аттракторы, которые непрерывно пересекаются.
Пространство состояний сети представляет собой набор всех возможных состояний узла. Пространство аттрактора — это множество узлов аттрактора.Сети аттракторов инициализируются на основе входного шаблона. Размерность входного шаблона может отличаться от размерности узлов сети. Траектория . сети состоит из набора состояний на пути эволюции, когда сеть сходится к состоянию аттрактора Бассейн притяжения – это совокупность состояний, в результате которых происходит движение к определенному аттрактору. [1]
Типы
[ редактировать ]Различные типы аттракторов могут использоваться для моделирования различных типов сетевой динамики. Хотя сети аттракторов с фиксированной точкой являются наиболее распространенными (происходящие из сетей Хопфилда [3] ), также рассматриваются другие типы сетей.
Аттракторы с фиксированной точкой
[ редактировать ]Аттрактор с неподвижной точкой естественным образом следует из сети Хопфилда . Обычно фиксированные точки в этой модели представляют собой закодированные воспоминания. Эти модели использовались для объяснения ассоциативной памяти, классификации и завершения шаблонов. Сети Хопфилда содержат основную энергетическую функцию. [4] которые позволяют сети асимптотически приближаться к стационарному состоянию. Один класс сети точечных аттракторов инициализируется входными данными, после чего входные данные удаляются, и сеть переходит в стабильное состояние. Другой класс сетей аттракторов имеет заранее определенные веса, которые проверяются различными типами входных данных. Если это устойчивое состояние различно во время и после ввода, оно служит моделью ассоциативной памяти. Однако если состояния во время и после ввода не различаются, сеть можно использовать для завершения шаблона.
Другие стационарные аттракторы
[ редактировать ]Линейные и плоские аттракторы используются при изучении глазодвигательного контроля. Эти линейные аттракторы, или нейронные интеграторы , описывают положение глаз в ответ на стимулы. Кольцевые аттракторы использовались для моделирования направления головы грызунов.
Циклические аттракторы
[ редактировать ]Циклические аттракторы играют важную роль в моделировании центральных генераторов паттернов — нейронов, которые управляют колебательной активностью животных, такой как жевание, ходьба и дыхание.
Хаотические аттракторы
[ редактировать ]хаотические аттракторы (также называемые странными аттракторами Было высказано предположение, что ) отражают закономерности распознавания запахов. Хотя хаотические аттракторы обладают преимуществом более быстрой сходимости на предельных циклах, экспериментальных доказательств, подтверждающих эту теорию, пока нет. [5]
Непрерывные аттракторы
[ редактировать ]Соседние стабильные состояния (фиксированные точки) непрерывных аттракторов (также называемых нейронными сетями непрерывных аттракторов) кодируют соседние значения непрерывной переменной, такой как направление головы или фактическое положение в пространстве.
Кольцевые аттракторы
[ редактировать ]Подтип непрерывных аттракторов с определенной топологией нейронов (кольцо для одномерных сетей и тор или скрученный тор для двумерных сетей). Наблюдаемую активность клеток сетки успешно объясняют, предполагая наличие кольцевых аттракторов в медиальной энторинальной коре . [6] Недавно было высказано предположение, что подобные кольцевые аттракторы присутствуют в латеральной части энторинальной коры и их роль распространяется на регистрацию новых эпизодических воспоминаний . [7]
Реализации
[ редактировать ]Сети аттракторов в основном реализуются как модели памяти с использованием аттракторов с фиксированной точкой. Однако они оказались в значительной степени непрактичными для вычислительных целей из-за трудностей в разработке ландшафта аттракторов и сетевых соединений, что приводило к появлению ложных аттракторов и плохо обусловленных бассейнов притяжения. Кроме того, обучение на сетях-аттракторах обычно требует больших вычислительных затрат по сравнению с другими методами, такими как k -ближайших соседей . классификаторы [8] Однако их роль в общем понимании различных биологических функций, таких как двигательная функция, память, принятие решений и т. д., делает их более привлекательными в качестве биологически реалистичных моделей.
Сети Хопфилда
[ редактировать ]Сети аттракторов Хопфилда представляют собой раннюю реализацию сетей аттракторов с ассоциативной памятью . Эти рекуррентные сети инициализируются входными данными и стремятся к аттрактору с фиксированной точкой. Функция обновления в дискретное время , где вектор узлов в сети и — симметричная матрица, описывающая их связность. Постоянное обновление времени .
Двунаправленные сети похожи на сети Хопфилда, за исключением того, что матрица представляет собой блочную матрицу . [4]
Локалистские сети-аттракторы
[ редактировать ]Zemel and Mozer (2001) [8] предложил метод уменьшения количества ложных аттракторов, возникающих в результате кодирования нескольких аттракторов каждым соединением в сети. Локалистские сети аттракторов кодируют знания локально, реализуя алгоритм максимизации ожидания на смеси гауссиан, представляющих аттракторы, чтобы минимизировать свободную энергию в сети и сходиться только наиболее подходящий аттрактор. Это приводит к следующим уравнениям обновления:
- Определим активность аттракторов:
- Определим следующее состояние сети:
- Определим ширину аттрактора через сеть:
( обозначает прочность бассейна, обозначает центр бассейна. обозначает ввод в сеть, представляет собой ненормализованное гауссово распределение с центром в и стандартного отклонения равно .)
Затем сеть повторно наблюдается, и описанные выше шаги повторяются до тех пор, пока не произойдет сходимость. Модель также отражает две биологически значимые концепции. Изменение стимула моделирует подготовку , обеспечивая более быструю конвергенцию к недавно посещенному аттрактору. Более того, суммарная активность аттракторов обеспечивает эффект банды , который заставляет два соседних аттрактора взаимно усиливать бассейн другого.
Сети аттракторов реконсолидации
[ редактировать ]Сигельманн (2008) [9] обобщил модель локальной сети аттракторов, включив в нее настройку самих аттракторов. В этом алгоритме используется описанный выше метод EM со следующими модификациями: (1) раннее завершение алгоритма, когда активность аттрактора наиболее распределена или когда высокая энтропия предполагает необходимость в дополнительных воспоминаниях, и (2) возможность обновления аттракторов. сами себя: , где – параметр размера шага изменения . Эта модель отражает реконсолидацию памяти у животных и демонстрирует ту же динамику, что и динамика, обнаруженная в экспериментах с памятью.
Дальнейшие разработки сетей аттракторов, таких как ядра , сети аттракторов на основе [10] улучшили вычислительную осуществимость сетей аттракторов в качестве алгоритма обучения, сохраняя при этом гибкость высокого уровня для выполнения шаблонов для сложных композиционных структур.
Ссылки
[ редактировать ]- ^ Jump up to: Перейти обратно: а б Амит, диджей (1989). Моделирование функций мозга: Мир нейронных сетей-аттракторов . Нью-Йорк, штат Нью-Йорк: Издательство Кембриджского университета.
- ^ Пусе Б. и Сэйв Э. (2005). «Аттракторы в памяти». Наука . 308 (5723): 799–800. дои : 10.1126/science.1112555 . ПМИД 15879197 . S2CID 9681032 .
- ^ Хопфилд, Джей-Джей (1982). «Нейронные сети и физические системы с возникающими коллективными вычислительными способностями» . Труды Национальной академии наук . 79 (8): 2554–2558. Бибкод : 1982PNAS...79.2554H . дои : 10.1073/pnas.79.8.2554 . ПМЦ 346238 . ПМИД 6953413 .
- ^ Jump up to: Перейти обратно: а б Джон Хопфилд (ред.). «Сеть Хопфилда» . Схоларпедия .
- ^ Крис Элиасмит (ред.). «Сеть аттракторов» . Схоларпедия .
- ^ Макнотон Б.Л., Батталья Ф.П., Дженсен О., Мозер Э.И., Мозер М.Б. (август 2006 г.). «Интеграция путей и нейронная основа «когнитивной карты» » . Нат. Преподобный Нейроски . 7 (8): 663–678. дои : 10.1038/nrn1932 . ПМИД 16858394 . S2CID 16928213 .
- ^ Ковач К.А. (сентябрь 2020 г.). «Эпизодические воспоминания: как гиппокамп и энторинальные кольцевые аттракторы взаимодействуют, создавая их?» . Границы системной нейронауки . 14:68 . дои : 10.3389/fnsys.2020.559186 . ПМЦ 7511719 . ПМИД 33013334 .
- ^ Jump up to: Перейти обратно: а б Земель Р. и Мозер М. (2001). «Локалистские сети аттракторов». Нейронные вычисления . 13 (5): 1045–1064. дои : 10.1162/08997660151134325 . ПМИД 11359644 . S2CID 2934449 .
- ^ Сигельманн, HT (2008). «Аналогово-символическая память, отслеживающая посредством реконсолидации». Физика Д. 237 (9): 1207–1214. Бибкод : 2008PhyD..237.1207S . дои : 10.1016/j.physd.2008.03.038 .
- ^ Новицкий, Д.; Сигельманн, HT (2010). «Гибкая память ядра» . ПЛОС ОДИН . 5 (6): е10955. Бибкод : 2010PLoSO...510955N . дои : 10.1371/journal.pone.0010955 . ПМЦ 2883999 . ПМИД 20552013 .