Jump to content

Сеть глубоких убеждений

Схематический обзор глубокой сети убеждений. Стрелки обозначают направленные соединения в графической модели , которую представляет сеть.

В машинном обучении сеть глубоких убеждений ( DBN ) представляет собой генеративную графическую модель или, альтернативно, класс глубокой нейронной сети , состоящей из нескольких слоев скрытых переменных («скрытых единиц») со связями между слоями, но не между единицами внутри. каждый слой. [1]

При обучении на наборе примеров без присмотра DBN может научиться вероятностно реконструировать свои входные данные. Затем слои действуют как детекторы объектов . [1] После этого этапа обучения DBN можно дополнительно обучить под наблюдением выполнению классификации . [2]

DBN можно рассматривать как совокупность простых неконтролируемых сетей, таких как ограниченные машины Больцмана (RBM). [1] или автоэнкодеры , [3] где скрытый слой каждой подсети служит видимым слоем для следующей. RBM — это ненаправленная генеративная модель, основанная на энергии, с «видимым» входным слоем и скрытым слоем, а также связями между слоями, но не внутри них. Такая композиция приводит к быстрой, послойной неконтролируемой процедуре обучения, где контрастная дивергенция применяется к каждой подсети по очереди, начиная с «самой нижней» пары слоев (самый нижний видимый слой — это обучающий набор ).

Наблюдение [2] Тот факт, что DBN можно обучать жадно , по одному уровню за раз, привел к созданию одного из первых эффективных алгоритмов глубокого обучения . [4] : 6  В целом, существует множество привлекательных реализаций и применений DBN в реальных приложениях и сценариях (например, электроэнцефалография , [5] открытие лекарств [6] [7] [8] ).

Обучение

[ редактировать ]

Метод обучения RBM, предложенный Джеффри Хинтоном для использования с моделями обучения « Продукт экспертов », называется контрастивной дивергенцией (CD). [9] CD обеспечивает приближение к методу максимального правдоподобия , который в идеале можно было бы применять для изучения весов. [10] [11] При обучении одного RBM обновления веса выполняются с градиентным спуском по следующему уравнению:

где, - вероятность видимого вектора, которая определяется выражением . - функция распределения (используется для нормализации) и – энергетическая функция, присвоенная состоянию сети. Более низкая энергия указывает на то, что сеть находится в более «желательной» конфигурации. Градиент имеет простую форму где представляют собой средние значения по отношению к распределению . Проблема возникает при выборке поскольку для этого требуется расширенная попеременная выборка Гиббса . CD заменяет этот шаг, запуская попеременную выборку Гиббса для шаги (значения хорошо выступаем). После шагов, данные отбираются, и эта выборка используется вместо . Процедура CD работает следующим образом: [10]

  1. Инициализируйте видимые единицы обучающим вектором.
  2. Обновите скрытые блоки параллельно с видимыми блоками: . сигмовидная функция и это предвзятость .
  3. Обновите видимые модули параллельно с учетом скрытых модулей: . это предвзятость . Это называется этапом «реконструкции».
  4. Повторно обновите скрытые единицы параллельно с учетом реконструированных видимых единиц, используя то же уравнение, что и на шаге 2.
  5. Выполните обновление веса: .

После обучения RBM поверх него «накладывается» другой RBM, получающий входные данные от последнего обученного слоя. Новый видимый слой инициализируется обучающим вектором, а значения единиц в уже обученных слоях присваиваются с использованием текущих весов и смещений. Затем новый RBM обучается с помощью описанной выше процедуры. Весь этот процесс повторяется до тех пор, пока не будет достигнут желаемый критерий остановки. [12]

Хотя приближение CD к максимальному правдоподобию является грубым (не соответствует градиенту какой-либо функции), оно эмпирически эффективно. [10]

Ограниченная машина Больцмана (RBM) с полностью подключенными видимыми и скрытыми блоками. Обратите внимание, что здесь нет скрыто-скрытых или видимо-видимых связей.

См. также

[ редактировать ]
  1. ^ Jump up to: а б с Хинтон Дж. (2009). «Сети глубоких убеждений» . Схоларпедия . 4 (5): 5947. Бибкод : 2009SchpJ...4.5947H . doi : 10.4249/scholarpedia.5947 .
  2. ^ Jump up to: а б Хинтон Дж.Э. , Осиндеро С., Тех Ю.В. (июль 2006 г.). «Алгоритм быстрого обучения для сетей глубокого доверия» (PDF) . Нейронные вычисления . 18 (7): 1527–54. CiteSeerX   10.1.1.76.1541 . дои : 10.1162/neco.2006.18.7.1527 . ПМИД   16764513 . S2CID   2309950 .
  3. ^ Бенджио Ю., Ламблин П., Поповичи Д., Ларошель Х. (2007). Жадное послойное обучение глубоких сетей (PDF) . НИПС .
  4. ^ Бенджио, Ю. (2009). «Изучение глубокой архитектуры для искусственного интеллекта» (PDF) . Основы и тенденции в машинном обучении . 2 : 1–127. CiteSeerX   10.1.1.701.9550 . дои : 10.1561/2200000006 .
  5. ^ Мовахеди Ф., Койл Дж.Л., Сейдич Э. (май 2018 г.). «Сети глубоких убеждений для электроэнцефалографии: обзор недавних вкладов и перспектив на будущее» . Журнал IEEE по биомедицинской и медицинской информатике . 22 (3): 642–652. дои : 10.1109/jbhi.2017.2727218 . ПМЦ   5967386 . ПМИД   28715343 .
  6. ^ Гасеми, Перес-Санчес; Мехри, Перес-Гарридо (2018). «Нейронные сети и алгоритмы глубокого обучения, используемые в исследованиях QSAR: достоинства и недостатки». Открытие наркотиков сегодня . 23 (10): 1784–1790. дои : 10.1016/j.drudis.2018.06.016 . ПМИД   29936244 . S2CID   49418479 .
  7. ^ Гасеми, Перес-Санчес; Мехри, Фассихи (2016). «Роль различных методов отбора проб в улучшении прогнозирования биологической активности с использованием сети глубокого убеждения». Журнал вычислительной химии . 38 (10): 1–8. дои : 10.1002/jcc.24671 . ПМИД   27862046 . S2CID   12077015 .
  8. ^ Гавен Э., Хисс Дж.А., Шнайдер Г. (январь 2016 г.). «Глубокое обучение в открытии лекарств» . Молекулярная информатика . 35 (1): 3–14. дои : 10.1002/минф.201501008 . ПМИД   27491648 . S2CID   10574953 .
  9. ^ Хинтон Дж. Э. (2002). «Продукт обучения экспертов путем минимизации контрастного расхождения» (PDF) . Нейронные вычисления . 14 (8): 1771–1800. CiteSeerX   10.1.1.35.8613 . дои : 10.1162/089976602760128018 . ПМИД   12180402 . S2CID   207596505 .
  10. ^ Jump up to: а б с Хинтон Дж. Э. (2010). «Практическое руководство по обучению ограниченных машин Больцмана» . Тех. Реп. УТМЛ ТР 2010-003 .
  11. ^ Фишер А., Игель С. (2014). «Обучение ограниченных машин Больцмана: введение» (PDF) . Распознавание образов . 47 (1): 25–39. Бибкод : 2014PatRe..47...25F . CiteSeerX   10.1.1.716.8647 . дои : 10.1016/j.patcog.2013.05.025 . Архивировано из оригинала (PDF) 10 июня 2015 г. Проверено 2 июля 2017 г.
  12. ^ Бенджио Ю. (2009). «Изучение глубокой архитектуры для искусственного интеллекта» (PDF) . Основы и тенденции в машинном обучении . 2 (1): 1–127. CiteSeerX   10.1.1.701.9550 . дои : 10.1561/2200000006 . Архивировано из оригинала (PDF) 4 марта 2016 г. Проверено 2 июля 2017 г.
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 73e0f7116636ce04eba5032c730b2f50__1718212560
URL1:https://arc.ask3.ru/arc/aa/73/50/73e0f7116636ce04eba5032c730b2f50.html
Заголовок, (Title) документа по адресу, URL1:
Deep belief network - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)