Jump to content

Рекурсивная нейронная сеть

Рекурсивная нейронная сеть — это своего рода глубокая нейронная сеть, применения одного и того же набора весов созданная путем рекурсивного к структурированным входным данным для создания структурированного прогноза по входным структурам переменного размера или скалярного прогноза для них путем обхода заданной структуры в топологический порядок . Рекурсивные нейронные сети, иногда сокращенно называемые RvNN, добились успеха, например, в изучении последовательностей и древовидных структур при обработке естественного языка , в основном непрерывных представлений фраз и предложений на основе встраивания слов . RvNN были впервые использованы для изучения распределенных представлений структур, таких как логические термины . [1] Модели и общие рамки разрабатывались в дальнейших работах, начиная с 1990-х годов. [2] [3]

Архитектуры

[ редактировать ]
Простая архитектура рекурсивной нейронной сети

В самой простой архитектуре узлы объединяются в родительские узлы с использованием весовой матрицы, которая является общей для всей сети, и нелинейности, такой как tanh . Если c 1 и c 2 являются n -мерным векторным представлением узлов, их родительским элементом также будет n -мерный вектор, вычисляемый как

Где W — ученый весовая матрица.

Эта архитектура с некоторыми улучшениями использовалась для успешного анализа естественных сцен, синтаксического анализа предложений естественного языка, [4] а также рекурсивное автокодирование и генеративное моделирование трехмерных структур фигур в форме кубоидных абстракций. [5]

Рекурсивная каскадная корреляция (RecCC)

[ редактировать ]

RecCC — это конструктивный подход нейронной сети для работы с древовидными доменами. [2] с новаторскими приложениями в химии [6] и расширение до ориентированных ациклических графов . [7]

Неконтролируемый РНН

[ редактировать ]

Структура неконтролируемой RNN была введена в 2004 году. [8] [9]

Рекурсивные нейронные тензорные сети используют одну тензорную функцию композиции для всех узлов дерева. [10]

Обучение

[ редактировать ]

Стохастический градиентный спуск

[ редактировать ]

Обычно стохастический градиентный спуск для обучения сети используется (SGD). Градиент вычисляется с использованием обратного распространения ошибки по структуре (BPTS), варианта обратного распространения ошибки по времени, используемого для рекуррентных нейронных сетей .

Характеристики

[ редактировать ]

Универсальная аппроксимационная способность RNN над деревьями доказана в литературе. [11] [12]

[ редактировать ]

Рекуррентные нейронные сети

[ редактировать ]

Рекуррентные нейронные сети — это рекурсивные искусственные нейронные сети с определенной структурой: линейной цепочкой. В то время как рекурсивные нейронные сети работают с любой иерархической структурой, объединяя дочерние представления с родительскими представлениями, рекуррентные нейронные сети работают с линейной прогрессией времени, объединяя предыдущий временной шаг и скрытое представление в представление для текущего временного шага.

Сети состояний древовидного эха

[ редактировать ]

Эффективный подход к реализации рекурсивных нейронных сетей обеспечивается сетью состояний Tree Echo. [13] в рамках парадигмы пластовых вычислений .

Расширение для графиков

[ редактировать ]

Расширения графов включают графовую нейронную сеть (GNN), [14] Нейронная сеть для графов (NN4G), [15] а в последнее время — сверточные нейронные сети для графов.

  1. ^ Голлер, К.; Кюхлер, А. (1996). «Изучение распределенных представлений, зависящих от задачи, путем обратного распространения ошибки через структуру». Материалы Международной конференции по нейронным сетям (ICNN'96) . Том. 1. С. 347–352. CiteSeerX   10.1.1.52.4759 . дои : 10.1109/ICNN.1996.548916 . ISBN  978-0-7803-3210-2 . S2CID   6536466 .
  2. ^ Jump up to: а б Спердути, А.; Старита, А. (1 мая 1997 г.). «Управляемые нейронные сети для классификации структур». Транзакции IEEE в нейронных сетях . 8 (3): 714–735. дои : 10.1109/72.572108 . ISSN   1045-9227 . ПМИД   18255672 .
  3. ^ Фраскони, П.; Гори, М.; Спердути, А. (1 сентября 1998 г.). «Общая основа адаптивной обработки структур данных». Транзакции IEEE в нейронных сетях . 9 (5): 768–786. CiteSeerX   10.1.1.64.2580 . дои : 10.1109/72.712151 . ISSN   1045-9227 . ПМИД   18255765 .
  4. ^ Сошер, Ричард; Лин, Клифф; Нг, Эндрю Ю.; Мэннинг, Кристофер Д. «Анализ естественных сцен и естественного языка с помощью рекурсивных нейронных сетей» (PDF) . 28-я Международная конференция по машинному обучению (ICML 2011) .
  5. ^ Ли, Цзюнь; Сюй, Кай; Чаудхури, Сиддхартха; Юмер, Эрсин; Чжан, Хао; Гибас, Леонадис (2017). «GRASS: Генеративно-рекурсивные автоэнкодеры для структур формы» (PDF) . Транзакции ACM с графикой . 36 (4): 52. arXiv : 1705.02090 . дои : 10.1145/3072959.3073613 . S2CID   20432407 .
  6. ^ Бьянуччи, Анна Мария; Микели, Алессио; Спердути, Алессандро; Старита, Антонина (2000). «Применение сетей каскадной корреляции структур в химии». Прикладной интеллект . 12 (1–2): 117–147. дои : 10.1023/А:1008368105614 . ISSN   0924-669X . S2CID   10031212 .
  7. ^ Микели, А.; Сона, Д.; Спердути, А. (1 ноября 2004 г.). «Контекстная обработка структурированных данных методом рекурсивной каскадной корреляции». Транзакции IEEE в нейронных сетях . 15 (6): 1396–1410. CiteSeerX   10.1.1.135.8772 . дои : 10.1109/ТНН.2004.837783 . ISSN   1045-9227 . ПМИД   15565768 . S2CID   12370239 .
  8. ^ Хаммер, Барбара; Микели, Алессио; Спердути, Алессандро; Стрикерт, Марк (2004). «Рекурсивные самоорганизующиеся сетевые модели». Нейронные сети . 17 (8–9): 1061–1085. CiteSeerX   10.1.1.129.6155 . дои : 10.1016/j.neunet.2004.06.009 . ПМИД   15555852 .
  9. ^ Хаммер, Барбара; Микели, Алессио; Спердути, Алессандро; Стрикерт, Марк (01 марта 2004 г.). «Общая основа неконтролируемой обработки структурированных данных». Нейрокомпьютинг . 57 : 3–35. CiteSeerX   10.1.1.3.984 . doi : 10.1016/j.neucom.2004.01.008 .
  10. ^ Сошер, Ричард; Перелыгин, Алексей; Ю. Ву, Джин; Чуанг, Джейсон; Д. Мэннинг, Кристофер; Ю. Нг, Эндрю; Поттс, Кристофер. «Рекурсивные глубокие модели семантической композиционности в древовидном банке настроений» (PDF) . ЭМНЛП 2013 .
  11. ^ Хаммер, Барбара (3 октября 2007 г.). Обучение с помощью рекуррентных нейронных сетей . Спрингер. ISBN  9781846285677 .
  12. ^ Хаммер, Барбара; Микели, Алессио; Спердути, Алессандро (01 мая 2005 г.). «Возможность универсальной аппроксимации каскадной корреляции структур». Нейронные вычисления . 17 (5): 1109–1159. CiteSeerX   10.1.1.138.2224 . дои : 10.1162/0899766053491878 . S2CID   10845957 .
  13. ^ Галличкио, Клаудио; Микели, Алессио (04 февраля 2013 г.). «Сети состояний древовидного эха». Нейрокомпьютинг . 101 : 319–337. дои : 10.1016/j.neucom.2012.08.017 . hdl : 11568/158480 .
  14. ^ Скарселли, Ф.; Гори, М.; Цой, А.С.; Хагенбухнер, М.; Монфардини, Дж. (1 января 2009 г.). «Модель графовой нейронной сети» . Транзакции IEEE в нейронных сетях . 20 (1): 61–80. дои : 10.1109/ТНН.2008.2005605 . ISSN   1045-9227 . ПМИД   19068426 . S2CID   206756462 .
  15. ^ Микели, А. (01 марта 2009 г.). «Нейронная сеть для графов: контекстно-конструктивный подход». Транзакции IEEE в нейронных сетях . 20 (3): 498–511. дои : 10.1109/ТНН.2008.2010350 . ISSN   1045-9227 . ПМИД   19193509 . S2CID   17486263 .


Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: c47cc074512b9ab3ec2dc697819a54ee__1671985800
URL1:https://arc.ask3.ru/arc/aa/c4/ee/c47cc074512b9ab3ec2dc697819a54ee.html
Заголовок, (Title) документа по адресу, URL1:
Recursive neural network - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)