Разреженная распределенная память
Разреженная распределенная память ( SDM ) — математическая модель долговременной памяти человека, представленная Пентти Канервой в 1988 году, когда он работал в Исследовательском центре Эймса НАСА . [1]
Эта память демонстрирует поведение, как в теории, так и в эксперименте, которое напоминает поведение, ранее недоступное машинам – например, быстрое распознавание лиц или запахов, обнаружение новых связей между, казалось бы, несвязанными идеями и т. д. Разреженная распределенная память используется для хранения и извлечения больших объемов информации. суммы ( биты ) информации, не ориентируясь на точность, а на сходство информации. [2] Есть несколько недавних приложений в области навигации роботов. [3] и манипулирование роботами, основанное на опыте. [4]
Общий принцип
[ редактировать ]Это обобщенное оперативное запоминающее устройство (ОЗУ) для длинных (например, 1000 бит) двоичных слов. Эти слова служат одновременно адресами и данными для памяти. Главный признак памяти — чувствительность к сходству. Это означает, что слово можно прочитать обратно, не только указав исходный адрес записи, но и указав близкий к нему адрес, измеряемый количеством несовпадающих битов (т. е. расстоянием Хэмминга между адресами памяти ). [1]
SDM реализует преобразование логического пространства в физическое, используя распределенное представление и хранение данных, аналогично процессам кодирования в памяти человека. [5] Значение, соответствующее логическому адресу, хранится во многих физических адресах. Этот способ хранения является надежным и не детерминированным. Ячейка памяти не обращается напрямую. Если входные данные (логические адреса) вообще частично повреждены, мы все равно можем получить правильные выходные данные. [6]
Теория памяти математически завершена [1] и было подтверждено компьютерным моделированием . Оно возникло в результате наблюдения, что расстояния между точками многомерного пространства напоминают отношения близости между понятиями в человеческой памяти. Теория практична еще и тем, что основанные на ней воспоминания могут быть реализованы с помощью обычных элементов оперативной памяти . [7]
Определение
[ редактировать ]Человеческая память имеет тенденцию объединять воспоминания на основе сходства между ними (хотя они могут и не быть связаны), например, «пожарные машины красные, а яблоки красные». [8] Разреженная распределенная память представляет собой математическое представление человеческой памяти и использует многомерное пространство для моделирования больших объемов памяти, имитирующих память человеческой нейронной сети. [9] [10] АнВажным свойством таких многомерных пространств является то, что два случайно выбранных вектора находятся относительно далеко друг от друга, а это означает, что они некоррелированы. [11] SDM можно рассматривать как реализацию хеширования с учетом местоположения .
Основная идея SDM заключается в отображении огромной двоичной памяти на меньший набор физических мест, так называемых жестких мест . Как правило, эти жесткие местоположения должны быть равномерно распределены в виртуальном пространстве , чтобы максимально точно имитировать существование большего виртуального пространства. Все данные хранятся и распределяются по набору жестких местоположений и извлекаются путем усреднения этих местоположений. Поэтому припоминание может быть не идеальным, точность зависит от насыщенности памяти.
Предложение Канервы основано на четырех основных идеях: [12]
- Логическое пространство , или указывает на измерений, демонстрирует свойства, которые аналогичны интуитивным представлениям людей о взаимосвязях между понятиями. Это означает, что имеет смысл хранить данные в виде точек упомянутого пространства, где каждый элемент памяти хранится в виде n-битного вектора.
- Нейроны с n входами можно использовать как декодеры адресов оперативной памяти.
- Принцип унификации: данные, хранящиеся в памяти, могут использоваться как адреса одной и той же памяти. Расстояние между двумя точками является мерой сходства между двумя элементами памяти. Чем ближе точки, тем более похожи сохраненные векторы.
- Время можно проследить в памяти как функцию того, где хранятся данные, если данные организованы как последовательность событий.
Бинарное пространство N
[ редактировать ]SDM работает с n-мерными векторами с двоичными компонентами. В зависимости от контекста векторы называются точками, шаблонами, адресами, словами, элементами памяти, данными или событиями. Этот раздел в основном посвящен свойствам векторного пространства N = . Пусть n — число измерений пространства. Тогда количество точек или возможных элементов памяти . Мы обозначим это число N и будем использовать N и стоять также за само пространство. [6]
Понятия, связанные с пространством N: [6]
- Начало координат , 0: Точка со всеми координатами 0 называется началом координат, 0 = 000...00.
- Дополнение , 'x: Дополнением или противоположностью точки x является n-кортеж, в котором есть единицы, где x имеет нули, и наоборот.
- Норма , |x|: Норма точки x — это количество единиц в ее двоичном представлении.
- Разница , x - y: разница двух точек x и y представляет собой n-кортеж, в котором есть точки, в которых x и y различаются, и нули в других местах. Это побитовое « исключительное или »: x − y = x ⊕ y. Разница коммутирует: x − y = y − x.
- Расстояние , d(x, y) Расстояние между двумя точками x и y — это количество измерений, в которых x и y различаются. Оно называется расстоянием Хэмминга (его квадратный корень — евклидово расстояние ) и выражается в битах. Расстояние – это норма разности: d(x, y) = |x − y|
- Между , x:y:z: Точка y находится между точками x и z тогда и только тогда, когда расстояние от x до z является суммой расстояний от x до y и от y до z; то есть x:y:z ⇔ d(x, z) = d(x, y) + d(y, z). Легко заметить, что каждый бит промежуточной точки является копией соответствующего бита конечной точки.
- Ортогональность , x ⊥ y: точка x ортогональна точке y, или они перпендикулярны или безразличны, если и только если расстояние между ними составляет половину количества измерений: x ⊥ y ⇔ d(x, y) = n /2. Расстояние n/2 называется расстоянием безразличия пространства N. Если x ортогонален y, он также ортогонален своему дополнению 'y (x находится на полпути между y и 'y).
- Circle , O(r,x) Круг с радиусом r и центром x — это набор точек, которые находятся не более чем на r битах от x: O(r,x) = {y | d(x, y) ≤ r}.
Свойства пространства N: [1] [6]
Пространство N можно представить вершинами единичного куба в n-мерном евклидовом пространстве . Вершины лежат на поверхности n-мерной сферы с (евклидово-метрическим) радиусом. . Отсюда возникает аналогия со сферой . Назовем пространство сферическим, если
- любая точка x имеет уникальную противоположность 'x,
- все пространство находится между любой точкой x и ее противоположностью 'x, и
- все точки «равны» (это означает, что для любых двух точек x и y существует автоморфизм пространства, сохраняющий расстояние, который отображает x в y, так что из любой из своих точек пространство «выглядит» одинаково).
Поверхность сферы (в евклидовом 3d-пространстве) явно сферическая. Согласно определению, N также является сферическим, поскольку y ⊕ x ⊕ (…) — автоморфизм, отображающий x в y. Поскольку N имеет сферическую форму, полезно думать о нем как о поверхности сферы с длиной окружности 2n. Все точки N в равной степени считаются точками происхождения, а точка и ее дополнение подобны двум полюсам, находящимся на расстоянии n друг от друга, со всем пространством между ними. Точки на полпути между полюсами и перпендикулярные им подобны экватору.
- Распределение пространства N
Количество точек, которые являются ровно d битами от произвольной точки x (скажем, от точки 0), представляет собой количество способов выбрать d координат из общего числа n координат и, следовательно, определяется биномиальным коэффициентом :
Таким образом, распределение N представляет собой биномиальное распределение с параметрами n и p, где p = 1/2. Среднее значение биномиального распределения равно n/2, а дисперсия — n/4. Эту функцию распределения будем обозначать N(d). Нормальное распределение F со средним значением n/2 и стандартным отклонением является хорошим приближением к нему: N(d) = Pr{d(x, y) ≤ d} ≅ F{(d − n/2)/ }
- Склонность к ортогональности
Выдающимся свойством N является то, что большая его часть находится примерно на среднем (безразличном) расстоянии n/2 от точки (и ее дополнения). Вдругими словами, большая часть пространства почти ортогональна любой данной точке, и чем больше n, тем более выражен этот эффект.
Как нейронная сеть
[ редактировать ]SDM можно рассматривать либо как адресуемое по контенту расширение классической памяти с произвольным доступом (ОЗУ), либо как особый тип трехслойной нейронной сети с прямой связью . Основные изменения SDM в оперативной памяти: [13]
- SDM вычисляет расстояния Хэмминга между эталонным адресом и каждым адресом местоположения. Для каждого расстояния, меньшего или равного заданному радиусу, выбирается соответствующее местоположение.
- Память представлена счетчиками (где n — количество ячеек, а m — длина входных данных) вместо однобитовых элементов хранения.
- Запись в память вместо перезаписи осуществляется следующим образом:
- если i-бит входных данных равен 1, соответствующие счетчики (счетчики в выбранных местах (строках) и в i-м столбцах) увеличиваются,
- если i-бит входных данных равен 0, соответствующие счетчики уменьшаются.
- Чтение (или вызов) из памяти аналогично:
- Содержимое выбранных местоположений суммируется по столбцам.
- Каждая сумма имеет пороговое значение. Если сумма больше или равна пороговому значению, соответствующий выходной бит устанавливается в 1, в противном случае он очищается. Обратите внимание, что пороги могут быть нулевыми, если входные обучающие векторы замкнуты на ортогональные.
Модель нейрона
[ редактировать ]Идеализированное описание нейрона выглядит следующим образом: нейрон имеет клеточное тело с двумя видами ветвей: дендритами и аксоном . Он получает входные сигналы от других нейронов через дендриты, интегрирует (суммирует) их и генерирует собственный (электрический) выходной сигнал, который отправляется внешним нейронам через аксон. Точки электрического контакта между нейронами называются синапсами .
Когда нейрон генерирует сигнал, он срабатывает , и после срабатывания он должен восстановиться, прежде чем снова сработает.Относительная важность синапса для срабатывания нейрона называется синаптическим весом (или входным коэффициентом ). Существует два типа синапсов: возбуждающие нейрона , которые вызывают возбуждение , и тормозные , которые препятствуют возбуждению. Нейрон может быть возбуждающим или тормозящим в зависимости от типа синапсов, образуемых его аксоном. [14]
Нейрон срабатывает, когда сумма входных данных превышает определенный порог . Чем выше порог, тем важнее, чтобы возбуждающие синапсы имели входной сигнал, а тормозные — нет. [15] Действительно ли восстановленный нейрон срабатывает, зависит от того, получил ли он достаточную возбуждающую информацию (сверх порога) и не слишком много тормозной энергии в течение определенного периода.
Формальная модель нейрона делает дальнейшие упрощающие предположения. [16] -входной нейрон n моделируется линейной пороговой функцией следующее :
Для где n — количество входов, пусть быть выходом в момент времени t : , и пусть быть i -м входом в момент времени t : . Позволять быть весом i -го входа и пусть быть порогом.
Взвешенная сумма входных данных в момент времени t определяется выражением
в Выход нейрона момент времени t затем определяется как булева функция :
Где F t =1 означает, что нейрон срабатывает в момент времени t , а F t =0 — нет, т.е. для того, чтобы нейрон сработал, взвешенная сумма должна достичь или превысить пороговое значение.Возбуждающие входы увеличивают сумму, а тормозные входы уменьшают ее.
Нейрон как декодер адреса
[ редактировать ]Ключевой тезис Канервы [1] заключается в том, что входные коэффициенты и пороговые значения некоторых нейронов могут быть фиксированными на протяжении всей жизни организма и использоваться в качестве декодеров адреса, где n -кортеж входных коэффициентов (паттерн, на который нейроны реагируют с наибольшей готовностью) определяет n -битный адрес памяти, и порог контролирует размер области аналогичных шаблонов адресов, на которые реагирует нейрон.
Этот механизм дополняет регулируемые синапсы или регулируемые веса в нейронной сети ( конвергентное обучение перцептрона ), поскольку этот механизм фиксированного доступа будет постоянной системой отсчета , которая позволяет выбирать синапсы, в которых хранится информация и из которых она извлекается. при данном стечении обстоятельств. Более того, кодирование настоящего обстоятельства могло бы служить адресом.
Адрес a нейрона с входными коэффициентами w , где определяется как n -битный входной шаблон, который максимизирует взвешенную сумму. Максимум возникает, когда тормозные входы равны нулю, а возбуждающие входы — единицам. -й бит i адреса:
(при условии, что веса не равны нулю)
Максимальная взвешенная сумма тогда представляет собой сумму всех положительных коэффициентов:
И минимальная взвешенная сумма будет соответствовать точке напротив адреса нейрона a`:
Когда порог c находится в диапазоне выход нейрона равен 0 для некоторых адресов (входных шаблонов) и 1 для других. Если порог выше S, выход всегда равен 0, если он ниже s, выход всегда равен 1. Таким образом, при правильном выборе порога нейрон реагирует только на один адрес. Когда порог равен S (максимум взвешенной суммы), нейрон реагирует только на свой собственный адрес и действует как декодер адреса обычной оперативной памяти .
Местоположение памяти
[ редактировать ]SDM разработан для работы с шаблонами адресов, охватывающими огромное адресное пространство (порядка ). SDM предполагает, что шаблоны адресов, фактически описывающие интересующие физические ситуации, редко разбросаны по входному пространству. Невозможно зарезервировать отдельное физическое место, соответствующее каждому возможному входу; SDM реализует только ограниченное количество физических или жестких мест. Физическое местоположение называется ячейкой памяти (или жесткой памятью ). [7]
С каждой жесткой локацией связаны два предмета:
- фиксированный жесткий адрес, который представляет собой N-битный адрес местоположения
- часть содержимого шириной M бит, которая может накапливать несколько шаблонов данных M бит, записанных в эту ячейку. Часть содержимого не фиксирована; он модифицируется шаблонами данных, записанными в память.
В SDM слово можно было сохранить в памяти, записав его в свободное место хранения и одновременно снабдив это место соответствующим декодером адреса. Нейрон в качестве декодера адреса будет выбирать местоположение на основе сходства адреса местоположения с сигналом поиска. В отличие от обычных машин Тьюринга, SDM использует преимущества параллельных вычислений с помощью декодеров адресов . Простой доступ к памяти рассматривается как вычисление, объем которого увеличивается с размером памяти. [1]
Шаблон адреса
[ редактировать ]N-битный вектор, используемый для записи и чтения из памяти. Шаблон адреса представляет собой закодированное описание состояния окружающей среды. (например, N = 256.)
Шаблон данных
[ редактировать ]M-битный вектор, который является объектом операций записи и чтения. Как и шаблон адреса, это закодированное описание состояния окружающей среды. (например, М = 256.)
Письмо
[ редактировать ]Запись — это операция сохранения шаблона данных в памяти с использованием определенногоадресный шаблон. Во время записи входные данные в память состоят из шаблона адреса и шаблона данных. Шаблон адреса используется для выбора ячеек жесткой памяти, жесткие адреса которых находятся в пределах определенного расстояния от шаблона адреса. Шаблон данных сохраняется в каждом из выбранных мест.
Чтение
[ редактировать ]Чтение — это операция извлечения шаблона данных из памяти с использованием определенного шаблона адреса. Во время чтения шаблон адреса используется для выбора определенного количества ячеек жесткой памяти (так же, как и во время записи). Содержимое выбранных ячеек побитово суммируется и определяется пороговое значение для получения M-битного шаблона данных. Это служит выходом, считываемым из памяти.
Цепочки указателей
[ редактировать ]Все элементы связаны в единый список (или массив) указателей на ячейки памяти и хранятся в оперативной памяти. Каждый адрес в массиве указывает на отдельную строку в памяти. Затем эта строка возвращается, если она похожа на другие строки. Нейроны используются в качестве декодеров и кодировщиков адресов, подобно тому, как нейроны работают в мозге, и возвращают элементы массива, которые совпадают или похожи.
Критическое расстояние
[ редактировать ]В модели памяти Канервы есть концепция критической точки : до этой точки ранее сохраненный элемент можно легко восстановить; но после этого предмет не может быть получен. Канерва методично рассчитал эту точку для определенного набора (фиксированных) параметров. Соответствующее критическое расстояние разреженной распределенной памяти можно приблизительно оценить, минимизировав следующее уравнение с ограничением и . Доказательство можно найти в [17] [18]
Где:
- : расстояние до цели;
- : количество измерений;
- : нормализованное нормальное распределение с нулевым средним значением и единицей дисперсии;
- : количество раз, когда целевая битовая строка была записана в память;
- : общее количество случайных битовых строк во всех жесткие местоположения, активируемые операцией чтения; т.е. размер сборки клеток;
- : среднее количество общих жестких мест, активируемых двумя битовыми строками. немного далеко друг от друга. Некоторые значения для 1000-мерной SDM можно найти в книге Канервы, таблица 7.1, с. 63 или уравнения для расчета любого SDM в Приложении B, стр. 125 той же книги.
Вероятностная интерпретация
[ редактировать ]Систему ассоциативной памяти , использующую разреженные, распределенные представления, можно интерпретировать как образец важности , метод Монте. Метод Карло аппроксимации байесовского вывода . [19] SDM можно рассматривать как приближение Монте-Карло к многомерному условному интегралу вероятности. SDM будет давать приемлемые ответы из обучающего набора, когда это приближение действительно, то есть, когда обучающий набор содержит достаточно данных для обеспечения хороших оценок основных совместных вероятностей и имеется достаточно выборок Монте-Карло для получения точной оценки интеграла. . [20]
Биологическое правдоподобие
[ редактировать ]Разреженное кодирование может быть общей стратегией нейронных систем для увеличения объема памяти. Чтобы адаптироваться к окружающей среде, животные должны узнать, какие стимулы связаны с поощрениями или наказаниями, и отличать эти усиленные стимулы от похожих, но нерелевантных. Такая задача требует реализации ассоциативной памяти , специфичной для стимула , в которой только несколько нейронов из популяции реагируют на любой данный стимул, а каждый нейрон реагирует только на несколько стимулов из всех возможных стимулов.
Теоретическая работа Канервы по SDM показала, что разреженное кодирование увеличивает емкость ассоциативной памяти за счет уменьшения перекрытия между представлениями. Экспериментально скудное представление сенсорной информации наблюдалось во многих системах, включая зрение, [21] прослушивание, [22] трогать, [23] и обоняние. [24] Однако, несмотря на накопление доказательств широко распространенного разреженного кодирования и теоретических аргументов в пользу его важности, до недавнего времени отсутствовало доказательство того, что разреженное кодирование улучшает стимульную специфичность ассоциативной памяти.
Некоторый прогресс был достигнут в 2014 году лабораторией Геро Мизенбека в Оксфордском университете, анализирующей дрозофилы обонятельную систему . [25] Считается , что у дрозофилы редкое кодирование запаха клетками Кеньона тела гриба создает большое количество точно адресуемых мест для хранения воспоминаний, специфичных для запаха. Лин и др. [26] продемонстрировали, что разреженность контролируется цепью отрицательной обратной связи между клетками Кеньона и ГАМКергическим передним парным латеральным (APL) нейроном. Систематическая активация и блокада каждой ветви этой цепи обратной связи показывают, что клетки Кеньона активируют APL, а APL ингибирует клетки Кеньона. Нарушение петли обратной связи между клетками Кеньона и APL уменьшает разреженность реакций клеток Кеньона на запах, увеличивает корреляцию между запахами и не позволяет мухам научиться различать похожие, но не разные запахи. Эти результаты позволяют предположить, что ингибирование обратной связи подавляет активность клеток Кеньона, поддерживая разреженное, декоррелированное кодирование запаха и, следовательно, запаховую специфичность воспоминаний. Публикация в журнале Science за 2017 год. [27] показали, что обонятельная схема мух реализует улучшенную версию двоичного хеширования, чувствительного к местоположению , посредством редких случайных проекций.
Приложения
[ редактировать ]В приложениях памяти слова представляют собой образцы функций. Некоторые функции производятся сенсорной системой, другие управляются двигательной системой. Существует текущий шаблон системы (например, 1000 бит), который является текущим содержимым фокуса . Датчики поступают в фокус, двигатели приводятся в движение от фокуса, а доступ к памяти осуществляется через фокус.
То, что происходит в мире – «субъективный» опыт системы – внутренне представлено последовательностью паттернов в фокусе. Память сохраняет эту последовательность и может воссоздать ее позже в фокусе, если обратиться к ней по шаблону, подобному тому, который встречался в прошлом. Таким образом, память учится предсказывать , что должно произойти. Широкое применение памяти найдут в системах, которые обрабатывают информацию реального мира в режиме реального времени.
Приложения включают в себя зрение – обнаружение и идентификацию объектов на сцене и предвидение последующих сцен – робототехнику , обнаружение и проверку сигналов , а также адаптивное обучение и управление . С теоретической точки зрения работа памяти может помочь нам понять память и обучение у людей и животных. [7] [28]
Лучший поиск совпадений
[ редактировать ]SDM можно применить к проблеме поиска наилучшего соответствия тестовому слову в наборе данных сохраненных слов. [1] [29] или, другими словами, задача поиска ближайшего соседа .
Рассмотрим память с N местами, где . Пусть каждая ячейка имеет емкость для одного n -битного слова (например, N= 2 100 100-битные слова), и пусть декодирование адреса выполняется N нейронами декодера адреса. Установите порог каждого нейрона x на максимальную взвешенную сумму. и используйте общий параметр d для настройки всех порогов при доступе к памяти. Тогда эффективный порог нейрона x будет равен это означает, что ячейка x доступна каждый раз, когда адрес x находится в пределах d бит от адреса, представленного в памяти (т. е. адреса, хранящегося в адресном регистре).С у нас обычная оперативная память . Предположим далее, что каждая ячейка имеет специальный бит , занимаемый ячейкой , доступ к которому можно получить так же, как и к обычным битам данных. Запись слова в ячейку устанавливает этот , занимаемый ячейкой бит . Предположим, что можно прочитать только занятое местоположение.
Чтобы сохранить данные в памяти, начните с установки и выдайте команду на очистку бита , занимаемого местоположением . Эта единственная операция помечает всю память как незанятую, независимо от значений адресного регистра. Затем установите и запишите каждое слово y набора данных с самим y в качестве адреса. Обратите внимание, что каждая операция записи влияет только на одно место: местоположение y . Таким образом, время хранения пропорционально количеству слов в наборе данных.
Для поиска наилучшего соответствия тестовому слову z необходимо поместить z в адресный регистр и найти наименьшее расстояние d , на котором имеется занятое место. Мы можем начать поиск, установив и последовательное увеличение d до тех пор, пока не будет найдено занятое место. Этот метод дает среднее время поиска, пропорциональное количеству бит адреса или немного меньшее [1] потому что ближайшее занятое место, как ожидается, будет находиться чуть ниже биты от z (при двоичном поиске по d это будет O(log(n)).
Со 100-битными словами 2 100 потребуются местоположения, то есть чрезвычайно большая память. Однако если мы создаем память для хранения слов набора данных, нам понадобится только одно место (и один декодер адреса) для каждого слова набора данных. Ни одно из незанятых мест не должно присутствовать. Это представляет собой аспект разреженности в SDM.
Распознавание речи
[ редактировать ]SDM может применяться при расшифровке речи , при этом обучение состоит из «прослушивания» большого корпуса разговорной речи . Две трудные проблемы с естественной речью: как определить границы слов и как приспособиться к разным говорящим. Память должна быть в состоянии справиться с обоими. Во-первых, он хранит последовательности шаблонов в виде цепочек указателей. При обучении – при прослушивании речи – он построит вероятностную структуру с наибольшей частотой ветвления на границах слов. При расшифровке речи эти точки ветвления обнаруживаются и имеют тенденцию разбивать поток на сегменты, соответствующие словам. Во-вторых, чувствительность памяти к сходству — это ее механизм адаптации к разным говорящим, а также к различиям в голосе одного и того же говорящего. [7]
«Осознание забвения»
[ редактировать ]
|
В Университете Мемфиса Ума Рамамурти, Сидни К. Д'Мелло и Стэн Франклин создали модифицированную версию системы разреженной распределенной памяти, которая представляет собой «осознание забывания». Он использует уравнение затухания, чтобы лучше показать интерференцию данных. Система разреженной распределенной памяти распределяет каждый шаблон примерно по одной сотой ячейке. [ нужны разъяснения ] поэтому вмешательство может иметь пагубные результаты. [30]
Представлены два возможных примера распада этой модифицированной разреженной распределенной памяти.
Экспоненциальный механизм затухания:
Механизм распада сигмовидной кишки с отрицательным переводом:
В функции экспоненциального затухания она приближается к нулю быстрее по мере увеличения x , а a является константой (обычно между 3–9), а c — счетчиком. Для с отрицательным переводом сигмовидной функции затухание аналогично функции экспоненциального затухания, когда a больше 4. [30]
Когда график приближается к 0, это показывает, как память забывается с помощью механизмов распада.
Генетическая разреженная распределенная память
[ редактировать ]Ашраф Анвар, Стэн Франклин и Дипанкар Дасгупта из Мемфисского университета; предложил модель инициализации SDM с использованием генетических алгоритмов и генетического программирования (1999).
Генетическая память использует генетический алгоритм и разреженную распределенную память в качестве псевдоискусственной нейронной сети. Его рассматривали для использования при создании искусственной жизни. [31]
Статистический прогноз
[ редактировать ]SDM применялся для статистического прогнозирования , задачи связывания чрезвычайно больших векторов состояния восприятия с будущими событиями. В условиях близкой или избыточной емкости, когда поведение ассоциативной памяти моделивыходит из строя, обработку, выполняемую моделью, можно интерпретировать как обработку статистического предиктора, а каждый счетчик данных в SDM можно рассматривать как независимую оценку условной вероятности двоичной функции f, равной набору активации, определенному ячейка памяти счетчика. [32]
Общий искусственный интеллект
[ редактировать ]- LIDA использует разреженную распределенную память, чтобы моделировать познание в биологических системах. Разреженное пространство распределенной памяти напоминает или распознает объект, который он имеет по отношению к другим объектам. Он был разработан Стэном Франклином, создателем модифицированной системы разреженной распределенной памяти, реализующей забывание. [33] Временные эпизодические и декларативные воспоминания имеют распределенные представления в LIDA (на основе модифицированной версии SDM). [34] ), есть данные, что то же самое происходит и в нервной системе. [35]
- CMatie — это «сознательный» программный агент, разработанный для управления объявлениями о семинарах на факультете математических наук Университета Мемфиса . Он основан на SDM, дополненном использованием генетических алгоритмов в качестве ассоциативной памяти . [36]
- Иерархическая темпоральная память использует SDM для хранения разреженных распределенных представлений данных.
Обучение с подкреплением
[ редактировать ]SDM предоставляют линейную схему аппроксимации локальных функций , предназначенную для работы, когда очень большое/многомерное входное (адресное) пространство необходимо отобразить в гораздо меньшую физическую память . В общем, локальные архитектуры, включая SDM, могут быть подвержены проклятию размерности , поскольку некоторые целевые функции могут потребовать, в худшем случае, экспоненциального числа локальных единиц, которые должны быть точно аппроксимированы по всему входному пространству. Однако широко распространено мнение, что большинству систем принятия решений требуется высокая точность только вокруг низкоразмерных многообразий пространства состояний или важных «магистралей» состояний. [37] Работа Ratitch et al. [38] объединили модель памяти SDM с идеями обучения на основе памяти , что обеспечивает аппроксиматор, который может динамически адаптировать свою структуру и разрешение, чтобы найти «более интересные» области пространства состояний. [39] и выделить пропорционально больше ресурсов памяти для их точного моделирования.
Индексирование объектов в компьютерном зрении
[ редактировать ]Даны Х. Баллард Лаборатория [40] продемонстрировал универсальный метод индексации объектов для компьютерного зрения , который сочетает в себе достоинства анализа главных компонентов с благоприятными свойствами сопоставления многомерных пространств для достижения высокоточного распознавания. Алгоритм индексации использует систему активного зрения в сочетании с модифицированной формой SDM и предоставляет платформу для изучения связи между внешним видом объекта и его идентичностью.
Расширения
[ редактировать ]Было предложено множество расширений и улучшений SDM, например:
- Троичное пространство памяти: позволяет использовать память в качестве временной эпизодической памяти (TEM) в когнитивных программных агентах . ТЕМ — это память с высокой специфичностью и низкой запоминаемостью, используемая для событий, имеющих особенности определенного времени и места. [41] [42]
- Целочисленная SDM, в которой используются целочисленные векторы модульной арифметики, а не двоичные векторы. Это расширение улучшает возможности представления памяти и более устойчиво к нормализации. Его также можно расширить для поддержки забывания и надежного хранения последовательностей. [11]
- Использование векторов слов большего размера, чем векторы адресов: это расширение сохраняет многие желательные свойства исходного SDM: автоматическую ассоциируемость, адресацию контента, распределенное хранение и устойчивость к зашумленным входным сигналам. Кроме того, он добавляет новую функциональность, обеспечивая эффективное автоассоциативное хранение последовательностей векторов, а также других структур данных, таких как деревья. [43]
- Создание SDM из импульсных нейронов . Несмотря на биологическое сходство SDM, большая часть работ, предпринятых на сегодняшний день для демонстрации его возможностей, использовала весьма искусственные модели нейронов, которые абстрагируют фактическое поведение нейронов в мозге . Недавняя работа лаборатории Стива Фербера в Манчестерском университете. [44] [45] [46] предлагаемые адаптации к SDM, например, путем включения ранговых кодов N-of-M [47] [48] в то, как популяции нейронов могут кодировать информацию, что может позволить построить вариант SDM из биологически вероятных компонентов. Эта работа была включена в SpiNNaker (Spiking Neural Network Architecture), которая используется в качестве нейроморфной вычислительной платформы для проекта человеческого мозга . [49]
- Неслучайное распределение локаций: [50] [51] Хотя места хранения изначально распределяются случайным образом в адресном пространстве двоичных N, окончательное распределение мест зависит от представленных входных шаблонов и может быть неслучайным, что обеспечивает большую гибкость и обобщение . Шаблон данных сначала сохраняется в местах, ближайших к входному адресу. Затем сигнал (т.е. шаблон данных) распространяется по всей памяти, и небольшой процент мощности сигнала (например, 5%) теряется в каждом последующем обнаруженном месте. Распределение сигнала таким образом устраняет необходимость выбора радиуса чтения/записи, что является одной из проблемных особенностей оригинального SDM. Все местоположения, выбранные в операции записи, теперь не получают копию исходного двоичного шаблона одинаковой силы. Вместо этого они получают копию шаблона, взвешенную с реальным значением от 1,0 до > 0,05, для хранения в счетчиках с реальными значениями (а не в двоичных счетчиках в SDM Kanerva). Это вознаграждает ближайшие местоположения более высоким уровнем сигнала и использует естественную архитектуру SDM для ослабления уровня сигнала. Аналогично, при чтении из памяти выходным данным из ближайших местоположений присваивается больший вес, чем из более удаленных. Новый метод сигнала позволяет использовать общую мощность сигнала, полученного местоположением, в качестве меры пригодности местоположения и является гибким для изменения входных данных (поскольку коэффициент потерь не нужно изменять для входных шаблонов различной длины).
- SDMSCue (разреженная распределенная память для небольших сигналов): Ашраф Анвар и Стэн Франклин из Университета Мемфиса представили вариант SDM, способный обрабатывать небольшие сигналы; а именно SDMSCue в 2002 году. Ключевая идея состоит в том, чтобы использовать несколько операций чтения/записи и пространственных проекций для достижения последовательно более длинного сигнала. [52]
Связанные патенты
[ редактировать ]- Метод и устройство для системы с разреженной распределенной памятью US 5113507 A, Ассоциация космических исследований университетов , 1992 г. [53]
- Способ и устройство для хранения и вызова информации, реализующие систему памяти канерва US 5829009 A, Texas Instruments , 1998 г. [54]
- Цифровая память, Фёрбер, Стивен. США 7512572 B2, 2009 г. [55]
Выполнение
[ редактировать ]![]() | в этом разделе Использование внешних ссылок может не соответствовать политике и рекомендациям Википедии . ( февраль 2023 г. ) |
- Бинарные векторные символы C (CBVS): включают реализацию SDM на C как часть векторной символьной архитектуры. [56] разработано EISLAB в Технологическом университете Лулео : http://pendular.net/cbvs.php. Архивировано 25 сентября 2015 г. на Wayback Machine. [57]
- CommonSense ToolKit (CSTK) для обработки данных датчиков в реальном времени, разработанный в Ланкастерском университете, включает реализацию SDM на C++ : http://cstk.sourceforge.net/ [58]
- Julia Реализация Брайана Хейса : https://github.com/bit-player/sdm-julia [59]
- Обучающийся интеллектуальный агент распространения (LIDA), разработанный лабораторией Стэна Франклина в Университете Мемфиса, включает реализацию SDM на Java : http://ccrg.cs.memphis.edu/framework.html
- Реализация Python : https://github.com/msbrogli/sdm [60]
- Python и OpenCL Реализация : https://github.com/msbrogli/sdm-framework . [60]
- APL реализация [61]
- Реализация LISP для Connection Machine [62]
- ПЛИС реализация [63]
- Оригинальная аппаратная реализация, разработанная НАСА. [7]
- Реализация на языке C, выполненная в Научно-исследовательском институте передовой информатики НАСА в Эймсе. [64]
См. также
[ редактировать ]- Автоассоциативная память
- Контроллер артикуляции модели мозжечка
- Сети динамической памяти
- Голографическая ассоциативная память
- Код проверки четности низкой плотности
- Сети памяти
- Структура прогнозирования памяти
- Нейронное кодирование
- Нейронная машина Тьюринга
- Случайная индексация
- Самоорганизующаяся карта
- Семантическая складчатость
- Семантическая память
- Семантическая сеть
- Составные автоэнкодеры
- Теория визуального индексирования
Ссылки
[ редактировать ]- ^ Перейти обратно: а б с д и ж г час Канерва, Пентти (1988). Разреженная распределенная память . Массачусетский технологический институт Пресс. ISBN 978-0-262-11132-4 .
- ^ Канерва, Пентти (1988). Разреженная распределенная память . Массачусетский технологический институт Пресс. ISBN 978-0-262-11132-4 .
- ^ Мендес, Матеус; Крисостомо, Мануэль; Коимбра, А. Пауло (2008). «Навигация робота с использованием разреженной распределенной памяти». 2008 Международная конференция IEEE по робототехнике и автоматизации . стр. 53–58. дои : 10.1109/РОБОТ.2008.4543186 . ISBN 978-1-4244-1646-2 . S2CID 10977460 .
- ^ Джокель, С.; Линднер, Ф.; Цзяньвэй Чжан (2009). «Разреженная распределенная память для манипулирования роботами на основе опыта». 2008 Международная конференция IEEE по робототехнике и биомиметике . стр. 1298–1303. дои : 10.1109/РОБИО.2009.4913187 . ISBN 978-1-4244-2678-2 . S2CID 16650992 .
- ^ Риссман, Джесси; Вагнер, Энтони Д. (2012). «Распределенные представления в памяти: результаты функциональной визуализации мозга» . Ежегодный обзор психологии . 63 : 101–28. doi : 10.1146/annurev-psych-120710-100344 . ПМЦ 4533899 . ПМИД 21943171 .
- ^ Перейти обратно: а б с д Гребеничек, Франтишек. «Разреженная распределенная память — анализ шаблонных данных. URL: http://www.fit.vutbr.cz/~grebenic/Publikace/mosis2000.pdf »
- ^ Перейти обратно: а б с д и Флинн, Майкл Дж., Пентти Канерва и Нил Бхадкамкар. «Прототип разреженной распределенной памяти: принципы и работа». (1989).
- ^ К. Джордж Бори (2002). «Общая психология» . Шиппенсбургский университет.
- ^ Пентти Канерва (1993). «Разреженная распределенная память и связанные модели». Университет штата Пенсильвания: 50–76. CiteSeerX 10.1.1.2.8403 .
{{cite journal}}
: Для цитирования журнала требуется|journal=
( помощь ) - ^ М. Дж. Флинн; П. Канерва и Н. Бхадкамкар (декабрь 1989 г.). «Разреженная распределенная память: принципы и работа» (PDF) . Стэнфордский университет . Проверено 1 ноября 2011 г. [ постоянная мертвая ссылка ]
- ^ Перейти обратно: а б Снайдер, Хавьер и Стэн Франклин. « Целочисленная разреженная распределенная память. Архивировано 2 августа 2021 г. в Wayback Machine ». Двадцать пятая международная конференция флейринга. 2012.
- ^ Мендес, Матеус Даниэль Алмейда. «Интеллектуальная навигация робота с использованием разреженной распределенной памяти». Кандидатская диссертация (2010). URL: https://eg.sib.uc.pt/handle/10316/17781. Архивировано 4 марта 2016 г. в Wayback Machine.
- ^ Гребеничек, Франтишек. Нейронные сети как ассоциативная память. Дисс. Брненский технологический университет, 2001. URL: http://www.vutium.vutbr.cz/tituly/pdf/ukazka/80-214-1914-8.pdf. Архивировано 4 марта 2016 г. в Wayback Machine.
- ^ Кандел, Эрик Р., Джеймс Х. Шварц и Томас М. Джессел, ред. Принципы нейронауки. Том. 4. Нью-Йорк: МакГроу-Хилл, 2000.
- ^ Экклс, Джон Г. «Под чарами синапса». Нейронауки: пути открытий, И. Биркхойзер, Бостон, 1992. 159–179.
- ^ Маккалок, Уоррен С.; Питтс, Уолтер (1943). «Логическое исчисление идей, имманентных нервной деятельности». Вестник математической биофизики . 5 (4): 115–133. дои : 10.1007/bf02478259 .
- ^ Брольято, Марсело Салхаб (2012). Понимание критического расстояния в разреженной распределенной памяти (тезис). hdl : 10438/13095 .
- ^ Брольято, Марсело Салхаб; Чада, Даниэль де Магальяйнс; Линьярес, Александр (2014). «Разреженная распределенная память: понимание скорости и надежности экспертной памяти» . Границы человеческой неврологии . 8 (222): 222. дои : 10.3389/fnhum.2014.00222 . ПМК 4009432 . ПМИД 24808842 .
- ^ Эбботт, Джошуа Т., Джессика Б. Хэмрик и Томас Л. Гриффитс. « Аппроксимация байесовского вывода с помощью разреженной распределенной системы памяти ». Материалы 35-й ежегодной конференции общества когнитивных наук. 2013.
- ^ Андерсон (1989). «Условно-вероятностная интерпретация разреженной распределенной памяти Канервы». Международная совместная конференция по нейронным сетям . Том. 1. С. 415–417. дои : 10.1109/ijcnn.1989.118597 . S2CID 13935339 .
- ^ Винье, МЫ; Галлант, Дж.Л. (2000). «Редкое кодирование и декорреляция в первичной зрительной коре при естественном зрении» (PDF) . Наука . 287 (5456): 1273–1276. Бибкод : 2000Sci...287.1273V . CiteSeerX 10.1.1.456.2467 . дои : 10.1126/science.287.5456.1273 . ПМИД 10678835 . S2CID 13307465 . Архивировано из оригинала (PDF) 11 сентября 2017 г.
- ^ Громадка, Т; Дьюиз, MR; Задор, AM (2008). «Скудное представление звуков в неанестезированной слуховой коре» . ПЛОС Биол . 6 (1): е16. дои : 10.1371/journal.pbio.0060016 . ПМК 2214813 . ПМИД 18232737 .
- ^ Крючком, С; Пуле, JFA; Кремер, Ю; Петерсен, CCH (2011). «Синаптические механизмы, лежащие в основе редкого кодирования активного прикосновения» . Нейрон . 69 (6): 1160–1175. дои : 10.1016/j.neuron.2011.02.022 . ПМИД 21435560 . S2CID 18528092 .
- ^ Ито, я; Онг, RCY; Раман, Б; Стопфер, М. (2008). «Редкое представление запахов и обонятельное обучение» . Нат Нейроски . 11 (10): 1177–1184. дои : 10.1038/nn.2192 . ПМК 3124899 . ПМИД 18794840 .
- ^ Разреженная память — это точная память. Блог Oxford Science. 28 февраля 2014 г. http://www.ox.ac.uk/news/science-blog/sparse-memory-precision-memory.
- ^ Лин, Эндрю С.; и др. (2014). «Редкая, декоррелированная кодировка запахов в теле гриба усиливает усвоенное различение запахов» . Природная неврология . 17 (4): 559–568. дои : 10.1038/nn.3660 . ПМК 4000970 . ПМИД 24561998 .
- ^ Дасгупта, Санджой; Стивенс, Чарльз Ф.; Навлаха, Сакет (2017). «Нейронный алгоритм для фундаментальной вычислительной задачи» . Наука . 358 (6364): 793–796. Бибкод : 2017Sci...358..793D . дои : 10.1126/science.aam9868 . ПМИД 29123069 .
- ^ Деннинг, Питер Дж. Спарс распределенная память. Научно-исследовательский институт передовых компьютерных наук [Исследовательский центр Эймса НАСА], 1989.
- ^ Мински, Марвин и Паперт Сеймур. «Перцептроны». (1969). «Время и память для наилучшего сопоставления – открытая проблема» с. 222–225
- ^ Перейти обратно: а б Ума Рамамурти; Сидни К. Д'Мелло; Стэн Франклин. «Реализация забывания в модифицированной системе с разреженной распределенной памятью» (PDF) . Кафедра компьютерных наук и Институт интеллектуальных систем . Университет Мемфиса. стр. 1992–1997 гг. Архивировано из оригинала 5 апреля 2012 года . Проверено 1 ноября 2011 г.
{{cite web}}
: CS1 maint: bot: исходный статус URL неизвестен ( ссылка ) - ^ Роша Л.М., Хордейк В. (2005). «Материальные представления: от генетического кода к эволюции клеточных автоматов» . Искусственная жизнь . 11 (1–2): 189–214. CiteSeerX 10.1.1.115.6605 . дои : 10.1162/1064546053278964 . ПМИД 15811227 . S2CID 5742197 . Архивировано из оригинала 20 сентября 2013 г. Проверено 2 августа 2013 г.
- ^ Роджерс, Дэвид. «Статистическое предсказание с использованием разреженной распределенной памяти Канервы». Достижения в области нейронных систем обработки информации. 1989.
- ^ Рао, РПН; Фуэнтес, О. (1998). «Иерархическое обучение навигационному поведению автономного робота с использованием прогнозирующей разреженной распределенной памяти» . Машинное обучение . 31 : 87–113. дои : 10.1023/а:1007492624519 . S2CID 8305178 .
- ^ Франклин, Стэн и др. « Роль сознания в памяти ». Мозг, разум и средства массовой информации 1.1 (2005): 38.
- ^ Шастри, Локендра (2002). «Эпизодическая память и взаимодействие кортико-гиппокампа» (PDF) . Тенденции в когнитивных науках . 6 (4): 162–168. дои : 10.1016/s1364-6613(02)01868-5 . ПМИД 11912039 . S2CID 15022802 .
- ^ Анвар, Ашраф; Франклин, Стэн (2003). «Разреженная распределенная память для «сознательных» программных агентов». Исследование когнитивных систем . 4 (4): 339–354. дои : 10.1016/s1389-0417(03)00015-9 . S2CID 13380583 .
- ^ Рэтич, Богдана, Сваминатан Махадеван и Дойна Прекап . «Редкие распределенные воспоминания в обучении с подкреплением: тематические исследования». Учеб. семинара по обучению и планированию марковских процессов – достижения и проблемы. 2004.
- ^ Рэтич, Богдана и Дойна Прекап. « Разреженные распределенные воспоминания для онлайн-обучения с подкреплением на основе ценностей. Архивировано 24 августа 2015 г. в Wayback Machine ». Машинное обучение: ECML 2004. Springer Berlin Heidelberg, 2004. 347–358.
- ^ Бушар-Коте, Александр. « Обнаружение разреженных структур памяти ». (2004).
- ^ Рао, Раджеш П.Н. и Дана Х. Баллард. « Индексация объектов с использованием культовой разреженной распределенной памяти ». Компьютерное зрение, 1995. Труды. Пятой международной конференции. ИИЭР, 1995.
- ^ Д'Мелло, Сидни К., Рамамурти, У., и Франклин, С. 2005. Эффективность кодирования и извлечения эпизодических данных в модифицированной разреженной распределенной системе памяти . В материалах 27-го ежегодного собрания Общества когнитивных наук. Стреза, Италия
- ^ Рамамаурти, У., Сидни К. Д'Мелло и Стэн Франклин. « Модифицированная разреженная распределенная память как временная эпизодическая память для когнитивных программных агентов. [ мертвая ссылка ] Системы, человек и кибернетика, Международная конференция IEEE 2004 г. Том 6. IEEE, 2004 г.
- ^ Снайдер, Хавьер; Франклин, Стэн (2012). «Расширенная разреженная распределенная память и хранилище последовательностей». Когнитивные вычисления . 4 (2): 172–180. дои : 10.1007/s12559-012-9125-8 . S2CID 14319722 .
- ^ Фербер, Стив Б.; и др. (2004). «Разреженная распределенная память с использованием кодов N-of-M». Нейронные сети . 17 (10): 1437–1451. дои : 10.1016/j.neunet.2004.07.003 . ПМИД 15541946 .
- ^ Шарп, Томас: « Применение разреженной распределенной памяти к проблеме перевернутого маятника ». Дисс. Манчестерский университет, 2009 г. URL: http://studentnet.cs.manchester.ac.uk/resources/library/thesis_abstracts/MSc09/FullText/SharpThomas.pdf.
- ^ Бозе, Джой. Разработка машины последовательности с помощью импульсных нейронов с использованием кодов рангового порядка [ мертвая ссылка ] . Дисс. Манчестерский университет, 2007.
- ^ Саймон Торп и Жак Готре. Кодирование рангового порядка. В книге «Вычислительная нейронаука: тенденции в исследованиях», страницы 113–118. Пленум Пресс, 1998.
- ^ Фербер, Стивен Б.; и др. (2007). «Разреженная распределенная память с использованием нейронных кодов рангового порядка». Транзакции IEEE в нейронных сетях . 18 (3): 648–659. CiteSeerX 10.1.1.686.6196 . дои : 10.1109/tnn.2006.890804 . ПМИД 17526333 . S2CID 14256161 .
- ^ Калимера, А; Маций, Э; Пончино, М (2013). «Проект человеческого мозга и нейроморфные вычисления» . Функциональная неврология . 28 (3): 191–6. ПМЦ 3812737 . ПМИД 24139655 .
- ^ Хели, Тим; Уиллшоу, Дэвид Дж.; Хейс, Джиллиан М. (1997). «Новый подход к разреженной распределенной памяти Канервы». Транзакции IEEE в нейронных сетях . 8 (3): 791–794. дои : 10.1109/72.572115 . ПМИД 18255679 . S2CID 18628649 .
- ^ Кэрейг, Лу Марвин. « Новый алгоритм обучения разреженной распределенной памяти Канервы ». Препринт arXiv arXiv:1207.5774 (2012).
- ^ Анвар, Ашраф; Франклин, Стэн (1 января 2005 г.). Нг, Майкл К.; Донческу, Андрей; Ян, Лоуренс Т.; Ленг, Тау (ред.). Разреженная распределенная память, способная обрабатывать небольшие сигналы, SDMSCue . ИФИП — Международная федерация обработки информации. Спрингер США. стр. 23–38. дои : 10.1007/0-387-24049-7_2 . ISBN 978-0-387-24048-0 . S2CID 10290721 .
- ^ Метод и устройство для системы с разреженной распределенной памятью US 5113507 A, Луи А. Джекель, Ассоциация университетских космических исследований, 1992, URL: https://patents.google.com/patent/US5113507
- ^ Способ и устройство для хранения и вызова информации с использованием системы памяти канерва, США 5829009 A, автор Гэри А. Фрейзер, Texas Instruments Incorporated, 1998, URL: https://patents.google.com/patent/US5829009
- ^ Фербер, Стивен Б. «Цифровая память». Патент США № 7512572. 31 марта 2009 г. URL: https://patents.google.com/patent/US7512572 .
- ^ Эмрули, Блерим; Сандин, Фредрик; Дельсинг, Джеркер (2015). «Векторная пространственная архитектура для обеспечения совместимости систем путем обучения на демонстрациях». Биологически вдохновленные когнитивные архитектуры . 11 : 53–64. дои : 10.1016/j.bica.2014.11.015 .
- ^ Эмрули, Блерим; Сандин, Фредрик (2014). «Аналогическое отображение с разреженной распределенной памятью: простая модель, которая учится делать обобщения на примерах» . Когнитивные вычисления . 6 (1): 74–88. дои : 10.1007/s12559-013-9206-3 . S2CID 12139021 .
- ^ Берхтольд, Мартин. «Обработка данных датчиков с помощью набора инструментов Common Sense Toolkit (CSTK)». *(2005).
- ^ «Разум блуждает», Б. Хейс, 2018. URL: http://bit-player.org/2018/the-mind-wanders
- ^ Перейти обратно: а б Брольято, Марсело С.; Чада, Дэниел М.; Линьярес, Александр (2014). «Разреженная распределенная память: понимание скорости и надежности экспертной памяти» . Границы человеческой неврологии . 8 : 222. дои : 10.3389/fnhum.2014.00222 . ПМК 4009432 . ПМИД 24808842 .
- ^ Суркан, Элвин Дж. (1992). «WSDM: прототип взвешенной разреженной распределенной памяти, выраженный в APL». ACM SIGAPL APL Quote Quad . 23 : 235–242. дои : 10.1145/144052.144142 .
- ^ Турк, Андреас и Гюнтер Гёрц. «Разреженная распределенная память Канервы: объектно-ориентированная реализация на машине подключения». IJCAI. 1995.
- ^ Сильва; Тадеу Пиньейру, Маркус; Падуа Брага, Антониу; Соарес Ласерда, Вилиан (2004). «Реконфигурируемый сопроцессор для разреженной распределенной памяти Канервы» (PDF) . Микропроцессоры и микросистемы . 28 (3): 127–134. дои : 10.1016/j.micpro.2004.01.003 .
- ^ Браун, Роберт Л. (июнь 1987 г.). «Два демонстратора и симулятор для разреженной распределенной памяти» (PDF) . Архив технических отчетов НАСА .