~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ 0689E1D6B5418A68E5C10E8BC72683A8__1718212560 ✰
Заголовок документа оригинал.:
✰ Deep belief network - Wikipedia ✰
Заголовок документа перевод.:
✰ Сеть глубоких убеждений — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Deep_Belief_Network ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/06/a8/0689e1d6b5418a68e5c10e8bc72683a8.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/06/a8/0689e1d6b5418a68e5c10e8bc72683a8__translat.html ✰
Дата и время сохранения документа:
✰ 23.06.2024 00:31:42 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 12 June 2024, at 20:16 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Сеть глубоких убеждений — Jump to content

Сеть глубоких убеждений

Из Википедии, бесплатной энциклопедии
(Перенаправлено с сети Deep Belief Network )
Схематический обзор глубокой сети убеждений. Стрелки обозначают направленные соединения в графической модели , которую представляет сеть.

В машинном обучении сеть глубоких убеждений ( DBN ) представляет собой генеративную графическую модель или, альтернативно, класс глубокой нейронной сети , состоящей из нескольких слоев скрытых переменных («скрытых единиц») со связями между слоями, но не между единицами внутри. каждый слой. [1]

При обучении на наборе примеров без присмотра DBN может научиться вероятностно реконструировать свои входные данные. Затем слои действуют как детекторы объектов . [1] После этого этапа обучения DBN можно дополнительно обучить под наблюдением выполнению классификации . [2]

DBN можно рассматривать как совокупность простых неконтролируемых сетей, таких как ограниченные машины Больцмана (RBM). [1] или автоэнкодеры , [3] где скрытый слой каждой подсети служит видимым слоем для следующей. RBM — это ненаправленная генеративная модель, основанная на энергии, с «видимым» входным слоем и скрытым слоем, а также связями между слоями, но не внутри них. Такая композиция приводит к быстрой, послойной неконтролируемой процедуре обучения, где контрастная дивергенция применяется к каждой подсети по очереди, начиная с «самой нижней» пары слоев (самый нижний видимый слой — обучающий набор ).

Наблюдение [2] Тот факт, что DBN можно обучать жадно , по одному уровню за раз, привел к созданию одного из первых эффективных алгоритмов глубокого обучения . [4] : 6  В целом, существует множество привлекательных реализаций и применений DBN в реальных приложениях и сценариях (например, электроэнцефалография , [5] открытие лекарств [6] [7] [8] ).

Обучение [ править ]

Метод обучения RBM, предложенный Джеффри Хинтоном для использования с моделями обучения « Продукт экспертов », называется контрастивной дивергенцией (CD). [9] CD обеспечивает приближение к методу максимального правдоподобия , который в идеале можно было бы применять для изучения весов. [10] [11] При обучении одного RBM обновления веса выполняются с градиентным спуском по следующему уравнению:

где, - вероятность видимого вектора, которая определяется выражением . - функция распределения (используется для нормализации) и – энергетическая функция, присвоенная состоянию сети. Более низкая энергия указывает на то, что сеть находится в более «желательной» конфигурации. Градиент имеет простую форму где представляют собой средние значения по отношению к распределению . Проблема возникает при выборке поскольку для этого требуется расширенная попеременная выборка Гиббса . CD заменяет этот шаг, запуская попеременную выборку Гиббса для шаги (значения Хорошо выступить). После шагов, данные отбираются, и эта выборка используется вместо . Процедура CD работает следующим образом: [10]

  1. Инициализируйте видимые единицы обучающим вектором.
  2. Обновите скрытые блоки параллельно с видимыми блоками: . сигмовидная функция и это предвзятость .
  3. Обновите видимые модули параллельно с учетом скрытых модулей: . это предвзятость . Это называется этапом «реконструкции».
  4. Повторно обновите скрытые единицы параллельно с учетом реконструированных видимых единиц, используя то же уравнение, что и на шаге 2.
  5. Выполните обновление веса: .

После обучения RBM поверх него «накладывается» другой RBM, получающий входные данные от последнего обученного слоя. Новый видимый слой инициализируется обучающим вектором, а значения единиц в уже обученных слоях назначаются с использованием текущих весов и смещений. Затем новый RBM обучается с помощью описанной выше процедуры. Весь этот процесс повторяется до тех пор, пока не будет достигнут желаемый критерий остановки. [12]

Хотя приближение CD к максимальному правдоподобию является грубым (не соответствует градиенту какой-либо функции), оно эмпирически эффективно. [10]

Ограниченная машина Больцмана (RBM) с полностью подключенными видимыми и скрытыми блоками. Обратите внимание, что здесь нет скрыто-скрытых или видимо-видимых связей.

См. также [ править ]

Ссылки [ править ]

  1. ^ Перейти обратно: а б с Хинтон Дж. (2009). «Сети глубоких убеждений» . Схоларпедия . 4 (5): 5947. Бибкод : 2009SchpJ...4.5947H . doi : 10.4249/scholarpedia.5947 .
  2. ^ Перейти обратно: а б Хинтон Дж.Э. , Осиндеро С., Тех Ю.В. (июль 2006 г.). «Алгоритм быстрого обучения для сетей глубокого доверия» (PDF) . Нейронные вычисления . 18 (7): 1527–54. CiteSeerX   10.1.1.76.1541 . дои : 10.1162/neco.2006.18.7.1527 . ПМИД   16764513 . S2CID   2309950 .
  3. ^ Бенджио Ю., Ламблин П., Поповичи Д., Ларошель Х. (2007). Жадное послойное обучение глубоких сетей (PDF) . НИПС .
  4. ^ Бенджио, Ю. (2009). «Изучение глубокой архитектуры для искусственного интеллекта» (PDF) . Основы и тенденции в машинном обучении . 2 : 1–127. CiteSeerX   10.1.1.701.9550 . дои : 10.1561/2200000006 .
  5. ^ Мовахеди Ф., Койл Дж.Л., Сейдич Э. (май 2018 г.). «Сети глубоких убеждений для электроэнцефалографии: обзор недавних вкладов и перспектив на будущее» . Журнал IEEE по биомедицинской и медицинской информатике . 22 (3): 642–652. дои : 10.1109/jbhi.2017.2727218 . ПМЦ   5967386 . ПМИД   28715343 .
  6. ^ Гасеми, Перес-Санчес; Мехри, Перес-Гарридо (2018). «Нейронные сети и алгоритмы глубокого обучения, используемые в исследованиях QSAR: достоинства и недостатки». Открытие наркотиков сегодня . 23 (10): 1784–1790. дои : 10.1016/j.drudis.2018.06.016 . ПМИД   29936244 . S2CID   49418479 .
  7. ^ Гасеми, Перес-Санчес; Мехри, Фассихи (2016). «Роль различных методов отбора проб в улучшении прогнозирования биологической активности с использованием сети глубокого убеждения». Журнал вычислительной химии . 38 (10): 1–8. дои : 10.1002/jcc.24671 . ПМИД   27862046 . S2CID   12077015 .
  8. ^ Гавен Э., Хисс Дж.А., Шнайдер Г. (январь 2016 г.). «Глубокое обучение в открытии лекарств» . Молекулярная информатика . 35 (1): 3–14. дои : 10.1002/минф.201501008 . ПМИД   27491648 . S2CID   10574953 .
  9. ^ Хинтон Дж. Э. (2002). «Продукт обучения экспертов путем минимизации контрастного расхождения» (PDF) . Нейронные вычисления . 14 (8): 1771–1800. CiteSeerX   10.1.1.35.8613 . дои : 10.1162/089976602760128018 . ПМИД   12180402 . S2CID   207596505 .
  10. ^ Перейти обратно: а б с Хинтон Дж. Э. (2010). «Практическое руководство по обучению ограниченных машин Больцмана» . Тех. Реп. УТМЛ ТР 2010-003 .
  11. ^ Фишер А., Игель С. (2014). «Обучение ограниченных машин Больцмана: введение» (PDF) . Распознавание образов . 47 (1): 25–39. Бибкод : 2014PatRe..47...25F . CiteSeerX   10.1.1.716.8647 . дои : 10.1016/j.patcog.2013.05.025 . Архивировано из оригинала (PDF) 10 июня 2015 г. Проверено 2 июля 2017 г.
  12. ^ Бенджио Ю. (2009). «Изучение глубокой архитектуры для искусственного интеллекта» (PDF) . Основы и тенденции в машинном обучении . 2 (1): 1–127. CiteSeerX   10.1.1.701.9550 . дои : 10.1561/2200000006 . Архивировано из оригинала (PDF) 4 марта 2016 г. Проверено 2 июля 2017 г.

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: 0689E1D6B5418A68E5C10E8BC72683A8__1718212560
URL1:https://en.wikipedia.org/wiki/Deep_Belief_Network
Заголовок, (Title) документа по адресу, URL1:
Deep belief network - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)