Jump to content

Слой (глубокое обучение)

Сравнение свертки, объединения и плотных слоев LeNet и AlexNet
(Размер изображения AlexNet должен быть 227×227×3, а не 224×224×3, чтобы математические расчеты были верными. В исходной статье были указаны другие цифры, но Андрей Карпати, бывший руководитель отдела компьютерного зрения в Tesla, сказал это должно быть 227×227×3 (он сказал, что Алекс не объяснил, почему он поставил 224×224×3. Следующая свертка должна быть 11×11 с шагом 4: 55×55×96 (вместо 54×54×96). ). Это будет рассчитываться, например, как: [(входная ширина 227 - ширина ядра 11) / шаг 4] + 1 = [(227 - 11) / 4] + 1 = 55. Поскольку выходные данные ядра одинаковы. длина равна ширине, его площадь 55х55.)

Уровень в модели глубокого обучения — это структура или топология сети в архитектуре модели, которая берет информацию из предыдущих уровней и затем передает ее на следующий уровень.

Типы слоев

[ редактировать ]

Первый тип слоя — это плотный слой , также называемый полносвязным слоем . [1] [2] [3] и используется для абстрактных представлений входных данных. В этом слое нейроны соединяются с каждым нейроном предыдущего слоя. В многослойных перцептронных сетях эти уровни сложены вместе.

Сверточный слой [4] обычно используется для задач анализа изображений. На этом слое сеть обнаруживает края, текстуры и узоры. Выходные данные этого слоя затем передаются на полносвязный уровень для дальнейшей обработки. См. также: Модель CNN .

Слой объединения [5] [6] используется для уменьшения размера вводимых данных.

Рекуррентный слой используется для обработки текста с помощью функции памяти. Подобно сверточному слою, выходные данные рекуррентных слоев обычно передаются в полносвязный слой для дальнейшей обработки. См. также: Модель RNN . [7] [8] [9]

Уровень нормализации корректирует выходные данные предыдущих слоев для достижения равномерного распределения. Это приводит к улучшению масштабируемости и обучению модели.

Скрытый слой это любой из слоев нейронной сети , который не является входным или выходным слоем.

Различия со слоями неокортекса

[ редактировать ]

Существует внутренняя разница между многоуровневым обучением и неокортикальным многоуровневым слоем : многоуровневое глубокое обучение зависит от топологии сети внутри слоев , тогда как неокортикальное многоуровневое образование зависит от однородности .

См. также

[ редактировать ]
  1. ^ «Сверточные нейронные сети CS231n для визуального распознавания» . CS231n Сверточные нейронные сети для визуального распознавания . 10 мая 2016 года . Проверено 27 апреля 2021 г. Полносвязный уровень. Нейроны в полностью связанном слое имеют полные связи со всеми активациями на предыдущем уровне, как это видно в обычных нейронных сетях.
  2. ^ «Полносвязный слой» . МАТЛАБ . 1 марта 2021 г. Проверено 27 апреля 2021 г. Полностью связный слой умножает входные данные на матрицу весов, а затем добавляет вектор смещения.
  3. ^ Жерон, Орельен (2019). Практическое машинное обучение с помощью Scikit-Learn, Keras и TensorFlow: концепции, инструменты и методы построения интеллектуальных систем . Севастополь, Калифорния: O'Reilly Media, Inc., стр. 322–323. ISBN  978-1-4920-3264-9 . OCLC   1124925244 .
  4. ^ Хабиби, Агдам, Хамед (30 мая 2017 г.). Руководство по сверточным нейронным сетям: практическое применение для обнаружения и классификации дорожных знаков . Херави, Эльназ Джахани. Чам, Швейцария. ISBN  9783319575490 . OCLC   987790957 . {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка ) CS1 maint: несколько имен: список авторов ( ссылка )
  5. ^ Ямагути, Коичи; Сакамото, Кендзи; Акабане, Тосио; Фудзимото, Ёсидзи (ноябрь 1990 г.). Нейронная сеть для независимого от говорящего распознавания изолированных слов . Первая международная конференция по обработке разговорной речи (ICSLP 90). Кобе, Япония.
  6. ^ Чиресан, Дэн; Мейер, Ули; Шмидхубер, Юрген (июнь 2012 г.). «Многостолбцовые глубокие нейронные сети для классификации изображений». Конференция IEEE 2012 по компьютерному зрению и распознаванию образов . Нью-Йорк, штат Нью-Йорк: Институт инженеров по электротехнике и электронике (IEEE). стр. 3642–3649. arXiv : 1202.2745 . CiteSeerX   10.1.1.300.3283 . дои : 10.1109/CVPR.2012.6248110 . ISBN  978-1-4673-1226-4 . OCLC   812295155 . S2CID   2161592 .
  7. ^ Дюпон, Сэмюэл (2019). «Тщательный обзор текущего развития структур нейронных сетей» . Ежегодные обзоры под контролем . 14 : 200–230.
  8. ^ Абиодун, г-н Исаак; Джантхан, Аман; Омолара, Абиодун Эстер; Мать, Химическая Виктория; Мохаммед, Начат Абделатиф; Аршад, Хумайра (01 ноября 2018 г.). «Современное состояние приложений искусственных нейронных сетей: обзор» . Гелион 4 (11):e0 Бибкод : 2018Вертолет... 400938A doi : 10.1016/j.helion.2018.e00938 . ISSN   2405-8440 . ПМК   6260436 . ПМИД   30519653 .
  9. ^ Тилаб, Ахмед (01 декабря 2018 г.). «Прогнозирование временных рядов с использованием методологий искусственных нейронных сетей: систематический обзор» . Журнал будущих вычислений и информатики . 3 (2): 334–340. дои : 10.1016/j.fcij.2018.10.003 . ISSN   2314-7288 .
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: fcdd74e8f6837c0beb89515acde58dac__1720839960
URL1:https://arc.ask3.ru/arc/aa/fc/ac/fcdd74e8f6837c0beb89515acde58dac.html
Заголовок, (Title) документа по адресу, URL1:
Layer (deep learning) - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)