~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 27888CF4F499D2B35B6B7FBEEBA33258__1714784400 ✰
Заголовок документа оригинал.:
✰ Differentiable neural computer - Wikipedia ✰
Заголовок документа перевод.:
✰ Дифференцируемый нейронный компьютер — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Differentiable_neural_computer ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/27/58/27888cf4f499d2b35b6b7fbeeba33258.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/27/58/27888cf4f499d2b35b6b7fbeeba33258__translat.html ✰
Дата и время сохранения документа:
✰ 09.06.2024 13:44:05 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 4 May 2024, at 04:00 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Дифференцируемый нейронный компьютер — Википедия Jump to content

Дифференцируемый нейронный компьютер

Из Википедии, бесплатной энциклопедии
Дифференцируемый нейронный компьютер обучается хранить и запоминать плотные двоичные числа. Показано выполнение эталонного задания во время обучения. Вверху слева: вход (красный) и цель (синий) в виде 5-битных слов и 1-битного сигнала прерывания. Вверху справа: выходные данные модели.

В области искусственного интеллекта ( дифференцируемый нейронный компьютер DNC ) представляет собой архитектуру нейронной сети с расширенной памятью (MANN), которая обычно (но не по определению) является рекуррентной в своей реализации. Модель была опубликована в 2016 году Алексом Грейвсом и др. компании ДипМайнд . [1]

Приложения [ править ]

DNC косвенно черпает вдохновение из архитектуры Фон-Неймана , что позволяет ей превосходить традиционные архитектуры в задачах, которые по своей сути являются алгоритмическими и которые невозможно изучить путем нахождения границы решения .

До сих пор было продемонстрировано, что DNC справляются только с относительно простыми задачами, которые можно решить с помощью обычного программирования. Но DNC не нужно программировать для решения каждой проблемы, их можно обучить. Такая концентрация внимания позволяет пользователю последовательно вводить сложные структуры данных , такие как графики , и вызывать их для дальнейшего использования. Более того, они могут изучить аспекты символического мышления и применить их к рабочей памяти. Исследователи, опубликовавшие этот метод, видят перспективу в том, что DNC можно научить выполнять сложные структурированные задачи. [1] [2] и обращаться к приложениям с большими данными, которые требуют определенного рода рассуждений, таких как создание видеокомментариев или семантический анализ текста. [3] [4]

DNC можно научить ориентироваться в системах скоростного транспорта и применять эту сеть к другой системе. Нейронной сети без памяти обычно приходится изучать каждую транзитную систему с нуля. В задачах обхода графа и обработки последовательностей с контролируемым обучением DNC работали лучше, чем альтернативы, такие как длинная кратковременная память или нейронная машина Тьюринга. [5] Благодаря подходу обучения с подкреплением к задаче головоломки из блоков, вдохновленному SHRDLU , DNC прошел обучение по учебной программе и научился составлять план . Она работала лучше, чем традиционная рекуррентная нейронная сеть . [5]

Архитектура [ править ]

Схема системы DNC

Сети DNC были представлены как расширение нейронной машины Тьюринга (NTM) с добавлением механизмов внимания к памяти, которые контролируют, где хранится память, и временного внимания, которое записывает порядок событий. Эта структура позволяет DNC быть более надежными и абстрактными, чем NTM, и при этом выполнять задачи, которые имеют более долгосрочные зависимости, чем некоторые предшественники, такие как Long Short Term Memory ( LSTM ). Память, которая представляет собой просто матрицу, может распределяться динамически и иметь к ней неограниченный доступ. DNC является . сквозным дифференцируемым (каждый подкомпонент модели дифференцируем, следовательно, дифференцируема и вся модель) Это дает возможность эффективно оптимизировать их с помощью градиентного спуска . [3] [6] [7]

Модель DNC аналогична архитектуре фон Неймана и из-за возможности изменения размера памяти является полной по Тьюрингу . [8]

DNC Традиционный

DNC, как первоначально опубликовано [1]

Независимые переменные
Входной вектор
Целевой вектор
Контроллер
Входная матрица контроллера


Глубокий (многоуровневый) LSTM
Вектор входных ворот
Вектор выходного вентиля
Забудьте о векторе ворот
Вектор государственных ворот,
Вектор скрытых ворот,


Выходной вектор DNC
Чтение и запись головок
Параметры интерфейса


Читать головы
Чтение ключей
Прочтите сильные стороны
Свободные ворота
Режимы чтения,


Написать голову
Написать ключ
Напишите силу
Стереть вектор
Записать вектор
Ворота распределения
Написать ворота
Память
Матрица памяти,
Матрица единиц
Вектор использования
Взвешивание приоритета,
Матрица временных связей,
Напишите вес
Чтение взвешивания
Чтение векторов


Адресация на основе контента ,
Ключ поиска , ключевая сила
Индексы ,
отсортировано в порядке возрастания использования
Вес распределения
Напишите вес контента
Чтение веса контента
Форвардное взвешивание
Обратное взвешивание
Вектор сохранения памяти
Определения
Матрица весов , вектор смещения
Матрица нулей, матрица единиц, матрица единиц
Поэлементное умножение
Косинусное подобие
Сигмовидная функция
Функция Oneplus
для j = 1,..., К . Функция Софтмакс

Расширения [ править ]

Усовершенствования включают разреженную адресацию памяти, что сокращает временную и пространственную сложность в тысячи раз. Этого можно добиться с помощью алгоритма приблизительного ближайшего соседа, такого как хеширование с учетом локальности , или случайного дерева kd, такого как Fast Library for Approximate Nearest Neighbours от UBC . [9] Добавление адаптивного времени вычислений (ACT) отделяет время вычислений от времени обработки данных, что учитывает тот факт, что длина и сложность задачи не всегда совпадают. [10] Обучение с использованием синтетических градиентов работает значительно лучше, чем обратное распространение ошибки во времени (BPTT). [11] Надежность можно повысить, используя нормализацию слоев и обход исключения в качестве регуляризации. [12]

См. также [ править ]

Ссылки [ править ]

  1. ^ Перейти обратно: а б с Грейвс, Алекс; Уэйн, Грег; Рейнольдс, Малькольм; Харли, Тим; Данигелка, Иво; Грабская-Барвинская, Агнешка; Кольменарехо, Серхио Гомес; Грефенштетт, Эдвард; Рамальо, Тьяго (12 октября 2016 г.). «Гибридные вычисления с использованием нейронной сети с динамической внешней памятью» . Природа . 538 (7626): 471–476. Бибкод : 2016Natur.538..471G . дои : 10.1038/nature20101 . ISSN   1476-4687 . ПМИД   27732574 . S2CID   205251479 .
  2. ^ «Дифференцируемые нейронные компьютеры | DeepMind» . ДипМайнд . 12 октября 2016 г. Проверено 19 октября 2016 г.
  3. ^ Перейти обратно: а б Берджесс, Мэтт. «ИИ DeepMind научился ездить в лондонском метро, ​​используя человеческий разум и память» . ПРОВОДНАЯ Великобритания . Проверено 19 октября 2016 г.
  4. ^ Джагер, Герберт (12 октября 2016 г.). «Искусственный интеллект: глубокое нейронное мышление» . Природа . 538 (7626): 467–468. Бибкод : 2016Natur.538..467J . дои : 10.1038/nature19477 . ISSN   1476-4687 . ПМИД   27732576 .
  5. ^ Перейти обратно: а б Джеймс, Майк. «Дифференцируемая нейронная сеть DeepMind мыслит глубоко» . www.i-programmer.info . Проверено 20 октября 2016 г.
  6. ^ «ИИ DeepMind «учится» ориентироваться в лондонском метро» . ПКМАГ . Проверено 19 октября 2016 г.
  7. ^ Маннес, Джон (13 октября 2016 г.). «Дифференцируемый нейронный компьютер DeepMind помогает вам ориентироваться в метро с помощью своей памяти» . ТехКранч . Проверено 19 октября 2016 г.
  8. ^ «Симпозиум RNN 2016: Алекс Грейвс — дифференцируемый нейронный компьютер» . YouTube .
  9. ^ Джек В. Рэй; Джонатан Дж. Хант; Харли, Тим; Данигелка, Иво; Старший, Эндрю; Уэйн, Грег; Грейвс, Алекс; Тимоти П. Лилликрап (2016). «Масштабирование нейронных сетей с расширенной памятью с редкими операциями чтения и записи». arXiv : 1610.09027 [ cs.LG ].
  10. ^ Грейвс, Алекс (2016). «Адаптивное время вычислений для рекуррентных нейронных сетей». arXiv : 1603.08983 [ cs.NE ].
  11. ^ Ядерберг, Макс; Войцех Мариан Чарнецкий; Осиндеро, Саймон; Виньялс, Ориол; Грейвс, Алекс; Сильвер, Дэвид; Кавукчуоглу, Корай (2016). «Раздельные нейронные интерфейсы с использованием синтетических градиентов». arXiv : 1608.05343 [ cs.LG ].
  12. ^ Франке, Йорг; Ниеуэс, Ян; Вайбель, Алекс (2018). «Надежный и масштабируемый дифференцируемый нейронный компьютер для ответов на вопросы». arXiv : 1807.02658 [ cs.CL ].

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 27888CF4F499D2B35B6B7FBEEBA33258__1714784400
URL1:https://en.wikipedia.org/wiki/Differentiable_neural_computer
Заголовок, (Title) документа по адресу, URL1:
Differentiable neural computer - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)