Jump to content

Самостоятельное обучение

(Перенаправлено из контрастного обучения )

Самостоятельное обучение ( SSL ) — это парадигма машинного обучения , при которой модель обучается решению задачи, используя сами данные для генерации управляющих сигналов, а не полагаясь на внешние метки, предоставленные людьми. В контексте нейронных сетей самоконтролируемое обучение направлено на использование присущих структур или отношений во входных данных для создания значимых обучающих сигналов. Задачи SSL спроектированы таким образом, что для их решения требуется фиксировать важные функции или взаимосвязи в данных. Входные данные обычно дополняются или преобразуются таким образом, что создаются пары связанных выборок. Одна выборка служит входом, а другая используется для формирования управляющего сигнала. Это увеличение может включать в себя введение шума, обрезку, вращение или другие преобразования. Обучение с самоконтролем более точно имитирует то, как люди учатся классифицировать объекты. [ 1 ]

Типичный метод SSL основан на искусственной нейронной сети или другой модели, например списке решений . [ 2 ] Модель обучается в два этапа. Сначала задача решается на основе вспомогательной или предтекстовой задачи классификации с использованием псевдометок, помогающих инициализировать параметры модели. [ 3 ] [ 4 ] Во-вторых, фактическая задача выполняется с помощью обучения с учителем или без него. [ 5 ] [ 6 ] [ 7 ] Другие вспомогательные задачи включают в себя завершение шаблонов из замаскированных входных шаблонов (тихие паузы в речи или части изображения, замаскированные черным).

В последние годы обучение с самоконтролем дало многообещающие результаты и нашло практическое применение в обработке звука , а также используется Facebook и другими организациями для распознавания речи . [ 8 ]

Автоассоциативное обучение с самоконтролем

[ редактировать ]

Автоассоциативное обучение с самоконтролем — это особая категория обучения с самоконтролем, при которой нейронная сеть обучается воспроизводить или реконструировать свои собственные входные данные. [ 9 ] Другими словами, перед моделью стоит задача изучить представление данных, которое отражает их основные функции или структуру, что позволяет восстановить исходные входные данные.

Термин «автоассоциативный» происходит от того факта, что модель по существу связывает входные данные с самой собой. Это часто достигается с помощью автоэнкодеров , которые представляют собой тип архитектуры нейронной сети, используемый для обучения представлению. Автоэнкодеры состоят из сети кодеров, которая отображает входные данные в представление меньшей размерности (скрытое пространство), и сети декодера, которая реконструирует входные данные из этого представления.

Процесс обучения включает в себя предоставление модели входных данных и требование к ней максимально точно восстановить те же данные. Функция потерь, используемая во время обучения, обычно штрафует разницу между исходным входным сигналом и восстановленным выходным сигналом. Минимизируя эту ошибку реконструкции, автоэнкодер изучает значимое представление данных в скрытом пространстве.

Контрастное самостоятельное обучение

[ редактировать ]

Для задачи двоичной классификации обучающие данные можно разделить на положительные и отрицательные примеры. Положительными примерами являются те, которые соответствуют цели. Например, если вы учитесь распознавать птиц, положительными данными обучения будут те изображения, на которых изображены птицы. Отрицательные примеры – это те, которые этого не делают. [ 10 ] Контрастное обучение с самоконтролем использует как положительные, так и отрицательные примеры. контрастного обучения Функция потерь минимизирует расстояние между парами положительных образцов и максимизирует расстояние между парами отрицательных образцов. [ 10 ]

Неконтрастное самостоятельное обучение

[ редактировать ]

Неконтрастное обучение с самоконтролем (NCSSL) использует только положительные примеры. Как ни странно, NCSSL сходится к полезному локальному минимуму, а не достигает тривиального решения с нулевыми потерями. В примере с бинарной классификацией можно было бы тривиально научиться классифицировать каждый пример как положительный. Для эффективного NCSSL требуется дополнительный предиктор на онлайн-стороне, который не имеет обратного распространения на целевой стороне. [ 10 ]

Сравнение с другими формами машинного обучения

[ редактировать ]

SSL относится к контролируемым методам обучения, поскольку целью является создание классифицированного вывода из входных данных. Однако в то же время он не требует явного использования помеченных пар ввода-вывода. Вместо этого корреляции, метаданные, встроенные в данные, или знания предметной области, присутствующие во входных данных, неявно и автономно извлекаются из данных. Эти управляющие сигналы, генерируемые на основе данных, затем можно использовать для обучения. [ 1 ]

SSL похож на обучение без учителя тем, что не требует меток в образцах данных. Однако, в отличие от обучения без учителя, обучение не осуществляется с использованием присущих структур данных.

Полуконтролируемое обучение лишь небольшой части обучающих данных сочетает в себе контролируемое и неконтролируемое обучение, требующее маркировки . [ 4 ]

При трансферном обучении модель, разработанная для одной задачи, повторно используется для другой задачи. [ 11 ]

Обучение автокодировщика по своей сути представляет собой процесс с самоконтролем, поскольку выходной шаблон должен стать оптимальной реконструкцией самого входного шаблона. Однако на современном жаргоне термин «самоконтроль» стал ассоциироваться с задачами классификации, основанными на схеме обучения «предтекст-задача». Это предполагает (человеческую) разработку таких предтекстовых задач, в отличие от случай полностью автономного обучения автоэнкодера. [ 9 ]

При обучении с подкреплением самоконтролируемое обучение на основе комбинации потерь может создавать абстрактные представления, в которых в сжатом виде хранится только самая важная информация о состоянии. [ 12 ]

Самостоятельное обучение особенно подходит для распознавания речи. Например, Facebook разработал wav2vec , алгоритм с самоконтролем, для распознавания речи с использованием двух глубоких сверточных нейронных сетей , которые опираются друг на друга. [ 8 ]

(BERT) Google Модель двунаправленного кодирования представлений из преобразователей используется для лучшего понимания контекста поисковых запросов. [ 13 ]

OpenAI GPT -3 — это авторегрессионная языковая модель , которую можно использовать в языковой обработке. Его можно использовать, среди прочего, для перевода текстов или ответов на вопросы. [ 14 ]

Bootstrap Your Own Latent (BYOL) — это NCSSL, который показал отличные результаты в ImageNet , а также в тестах передачи и полуконтролируемого тестирования. [ 15 ]

Алгоритм Яровского является примером самостоятельного обучения обработке естественного языка . По небольшому количеству помеченных примеров он учится предсказывать, какой слова используется смысл многозначного в данном месте текста.

DirectPred — это NCSSL, который напрямую устанавливает веса предикторов, а не изучает их посредством обновления градиента . [ 10 ]

Self-GenomeNet — это пример самостоятельного обучения в области геномики. [ 16 ]

  1. ^ Перейти обратно: а б Бушар, Луи (25 ноября 2020 г.). «Что такое самообучение? | Смогут ли когда-нибудь машины учиться, как люди?» . Середина . Проверено 9 июня 2021 г.
  2. ^ Яровский, Дэвид (1995). «Неконтролируемое устранение смысловой неоднозначности, конкурирующее с контролируемыми методами» . Материалы 33-го ежегодного собрания Ассоциации компьютерной лингвистики . Кембридж, Массачусетс: Ассоциация компьютерной лингвистики: 189–196. дои : 10.3115/981658.981684 . Проверено 1 ноября 2022 г.
  3. ^ Дорш, Карл; Зиссерман, Эндрю (октябрь 2017 г.). «Многозадачное визуальное обучение с самоконтролем» . Международная конференция IEEE по компьютерному зрению (ICCV) , 2017 г. IEEE. стр. 2070–2079. arXiv : 1708.07860 . дои : 10.1109/iccv.2017.226 . ISBN  978-1-5386-1032-9 . S2CID   473729 .
  4. ^ Перейти обратно: а б Бейер, Лукас; Чжай, Сяохуа; Оливер, Авиталь; Колесников, Александр (октябрь 2019 г.). «S4L: обучение с самоконтролем и полуконтролем» . Международная конференция IEEE/CVF по компьютерному зрению (ICCV) 2019 . IEEE. стр. 1476–1485. arXiv : 1905.03670 . дои : 10.1109/iccv.2019.00156 . ISBN  978-1-7281-4803-8 . S2CID   167209887 .
  5. ^ Дорш, Карл; Гупта, Абхинав; Эфрос, Алексей А. (декабрь 2015 г.). «Обучение визуальному представлению без учителя с помощью контекстного прогнозирования» . Международная конференция IEEE по компьютерному зрению (ICCV) , 2015 г. IEEE. стр. 1422–1430. arXiv : 1505.05192 . дои : 10.1109/iccv.2015.167 . ISBN  978-1-4673-8391-2 . S2CID   9062671 .
  6. ^ Чжэн, Синь; Ван, Юн; Ван, Гою; Лю, Цзяньго (апрель 2018 г.). «Быстрая и надежная сегментация изображений лейкоцитов путем самостоятельного обучения» . Микрон . 107 : 55–71. дои : 10.1016/j.micron.2018.01.010 . ISSN   0968-4328 . ПМИД   29425969 . S2CID   3796689 .
  7. ^ Гидарис, Спирос; Бурсук, Андрей; Комодакис, Никос; Перес, Патрик Перес; Корд, Матье (октябрь 2019 г.). «Стимулирование визуального обучения с помощью нескольких кадров с помощью самоконтроля» . Международная конференция IEEE/CVF по компьютерному зрению (ICCV) 2019 . IEEE. стр. 8058–8067. arXiv : 1906.05186 . дои : 10.1109/iccv.2019.00815 . ISBN  978-1-7281-4803-8 . S2CID   186206588 .
  8. ^ Перейти обратно: а б «Wav2vec: современное распознавание речи посредством самоконтроля» . ai.facebook.com . Проверено 9 июня 2021 г.
  9. ^ Перейти обратно: а б Крамер, Марк А. (1991). «Нелинейный анализ главных компонент с использованием автоассоциативных нейронных сетей» (PDF) . Журнал Айше . 37 (2): 233–243. Бибкод : 1991АИЧЕ..37..233К . дои : 10.1002/aic.690370209 .
  10. ^ Перейти обратно: а б с д «Демистификация ключевого метода обучения с самоконтролем: неконтрастное обучение» . ai.facebook.com . Проверено 5 октября 2021 г.
  11. ^ Литтвин, Этаи; Вольф, Лиор (июнь 2016 г.). «Потеря мультивселенной для надежного трансферного обучения» . Конференция IEEE 2016 по компьютерному зрению и распознаванию образов (CVPR) . IEEE. стр. 3957–3966. arXiv : 1511.09033 . дои : 10.1109/cvpr.2016.429 . ISBN  978-1-4673-8851-1 . S2CID   6517610 .
  12. ^ Франсуа-Лаве, Винсент; Бенджио, Йошуа; Прекуп, Дойна; Пино, Жоэль (2019). «Комбинированное обучение с подкреплением с помощью абстрактных представлений». Материалы конференции AAAI по искусственному интеллекту . arXiv : 1809.04506 .
  13. ^ «BERT с открытым исходным кодом: современная предварительная подготовка по обработке естественного языка» . Блог Google AI . 2 ноября 2018 года . Проверено 9 июня 2021 г.
  14. ^ Уилкокс, Итан; Цянь, Пэн; Фатрелл, Ричард; Кохита, Рёске; Леви, Роджер; Баллестерос, Мигель (2020). «Структурный контроль улучшает однократное обучение и синтаксическое обобщение в моделях нейронного языка» . Материалы конференции 2020 года по эмпирическим методам обработки естественного языка (EMNLP) . Страудсбург, Пенсильвания, США: Ассоциация компьютерной лингвистики. стр. 4640–4652. arXiv : 2010.05725 . doi : 10.18653/v1/2020.emnlp-main.375 . S2CID   222291675 .
  15. ^ Гриль, Жан-Бастьен; Струб, Флориан; В противном случае, Флоран; Таллек, Корантен; Ричмонд, Пьер Х.; Бучацкая Елена; Дорш, Карл; Пирес, Бернардо Авила; Го, Чжаохан Даниэль; Азар, Мохаммад Гешлаги; Пиот, Билал (10 сентября 2020 г.). «Запустите свое собственное скрытое: новый подход к самостоятельному обучению». arXiv : 2006.07733 [ cs.LG ].
  16. ^ Гюндюз, Хусейн Анил; Биндер, Мартин; То, Сяо-Инь; Мрешес, Рене; Бишль, Бернд; Макхарди, Элис К.; Мюнх, Филипп К.; Резаи, Мина (11 сентября 2023 г.). «Метод глубокого обучения с самоконтролем для эффективного обучения геномике с использованием данных» . Коммуникационная биология . 6 (1): 928. дои : 10.1038/s42003-023-05310-2 . ISSN   2399-3642 . ПМЦ   10495322 . ПМИД   37696966 .

Дальнейшее чтение

[ редактировать ]
  • Арбалетчик, Рэндалл; Ибрагим, Марк; Собаль, Влад; Моркос, да; Шекхар, Шашанк; Гольдштейн, Том; Бордерс, Флориан; Бардес, Адриан; Миалон, Грегори; Тянь, Юаньдун; Шварцшильд, Ави; Уилсон, Эндрю Гордон; Гейпинг, Йонас; Гарридо, Квентин; Фернандес, Пьер (24 апреля 2023 г.). «Поваренная книга самостоятельного обучения». arXiv : 2304.12210 [ cs.LG ].
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 1a966ae4985e5f6d42e6ad18dbbf4e2d__1718395860
URL1:https://arc.ask3.ru/arc/aa/1a/2d/1a966ae4985e5f6d42e6ad18dbbf4e2d.html
Заголовок, (Title) документа по адресу, URL1:
Self-supervised learning - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)