Самостоятельное обучение
Часть серии о |
Машинное обучение и интеллектуальный анализ данных |
---|
Самостоятельное обучение ( SSL ) — это парадигма машинного обучения , при которой модель обучается решению задачи, используя сами данные для генерации управляющих сигналов, а не полагаясь на внешние метки, предоставленные людьми. В контексте нейронных сетей самоконтролируемое обучение направлено на использование присущих структур или отношений во входных данных для создания значимых обучающих сигналов. Задачи SSL спроектированы таким образом, что для их решения требуется фиксировать важные функции или взаимосвязи в данных. Входные данные обычно дополняются или преобразуются таким образом, что создаются пары связанных выборок. Одна выборка служит входом, а другая используется для формирования управляющего сигнала. Это увеличение может включать в себя введение шума, обрезку, вращение или другие преобразования. Обучение с самоконтролем более точно имитирует то, как люди учатся классифицировать объекты. [ 1 ]
Типичный метод SSL основан на искусственной нейронной сети или другой модели, например списке решений . [ 2 ] Модель обучается в два этапа. Сначала задача решается на основе вспомогательной или предтекстовой задачи классификации с использованием псевдометок, помогающих инициализировать параметры модели. [ 3 ] [ 4 ] Во-вторых, фактическая задача выполняется с помощью обучения с учителем или без него. [ 5 ] [ 6 ] [ 7 ] Другие вспомогательные задачи включают в себя завершение шаблонов из замаскированных входных шаблонов (тихие паузы в речи или части изображения, замаскированные черным).
В последние годы обучение с самоконтролем дало многообещающие результаты и нашло практическое применение в обработке звука , а также используется Facebook и другими организациями для распознавания речи . [ 8 ]
Типы
[ редактировать ]Автоассоциативное обучение с самоконтролем
[ редактировать ]Автоассоциативное обучение с самоконтролем — это особая категория обучения с самоконтролем, при которой нейронная сеть обучается воспроизводить или реконструировать свои собственные входные данные. [ 9 ] Другими словами, перед моделью стоит задача изучить представление данных, которое отражает их основные функции или структуру, что позволяет восстановить исходные входные данные.
Термин «автоассоциативный» происходит от того факта, что модель по существу связывает входные данные с самой собой. Это часто достигается с помощью автоэнкодеров , которые представляют собой тип архитектуры нейронной сети, используемый для обучения представлению. Автоэнкодеры состоят из сети кодеров, которая отображает входные данные в представление меньшей размерности (скрытое пространство), и сети декодера, которая реконструирует входные данные из этого представления.
Процесс обучения включает в себя предоставление модели входных данных и требование к ней максимально точно восстановить те же данные. Функция потерь, используемая во время обучения, обычно штрафует разницу между исходным входным сигналом и восстановленным выходным сигналом. Минимизируя эту ошибку реконструкции, автоэнкодер изучает значимое представление данных в скрытом пространстве.
Контрастное самостоятельное обучение
[ редактировать ]Для задачи двоичной классификации обучающие данные можно разделить на положительные и отрицательные примеры. Положительными примерами являются те, которые соответствуют цели. Например, если вы учитесь распознавать птиц, положительными данными обучения будут те изображения, на которых изображены птицы. Отрицательные примеры – это те, которые этого не делают. [ 10 ] Контрастное обучение с самоконтролем использует как положительные, так и отрицательные примеры. контрастного обучения Функция потерь минимизирует расстояние между парами положительных образцов и максимизирует расстояние между парами отрицательных образцов. [ 10 ]
Неконтрастное самостоятельное обучение
[ редактировать ]Неконтрастное обучение с самоконтролем (NCSSL) использует только положительные примеры. Как ни странно, NCSSL сходится к полезному локальному минимуму, а не достигает тривиального решения с нулевыми потерями. В примере с бинарной классификацией можно было бы тривиально научиться классифицировать каждый пример как положительный. Для эффективного NCSSL требуется дополнительный предиктор на онлайн-стороне, который не имеет обратного распространения на целевой стороне. [ 10 ]
Сравнение с другими формами машинного обучения
[ редактировать ]SSL относится к контролируемым методам обучения, поскольку целью является создание классифицированного вывода из входных данных. Однако в то же время он не требует явного использования помеченных пар ввода-вывода. Вместо этого корреляции, метаданные, встроенные в данные, или знания предметной области, присутствующие во входных данных, неявно и автономно извлекаются из данных. Эти управляющие сигналы, генерируемые на основе данных, затем можно использовать для обучения. [ 1 ]
SSL похож на обучение без учителя тем, что не требует меток в образцах данных. Однако, в отличие от обучения без учителя, обучение не осуществляется с использованием присущих структур данных.
Полуконтролируемое обучение лишь небольшой части обучающих данных сочетает в себе контролируемое и неконтролируемое обучение, требующее маркировки . [ 4 ]
При трансферном обучении модель, разработанная для одной задачи, повторно используется для другой задачи. [ 11 ]
Обучение автокодировщика по своей сути представляет собой процесс с самоконтролем, поскольку выходной шаблон должен стать оптимальной реконструкцией самого входного шаблона. Однако на современном жаргоне термин «самоконтроль» стал ассоциироваться с задачами классификации, основанными на схеме обучения «предтекст-задача». Это предполагает (человеческую) разработку таких предтекстовых задач, в отличие от случай полностью автономного обучения автоэнкодера. [ 9 ]
При обучении с подкреплением самоконтролируемое обучение на основе комбинации потерь может создавать абстрактные представления, в которых в сжатом виде хранится только самая важная информация о состоянии. [ 12 ]
Примеры
[ редактировать ]Самостоятельное обучение особенно подходит для распознавания речи. Например, Facebook разработал wav2vec , алгоритм с самоконтролем, для распознавания речи с использованием двух глубоких сверточных нейронных сетей , которые опираются друг на друга. [ 8 ]
(BERT) Google Модель двунаправленного кодирования представлений из преобразователей используется для лучшего понимания контекста поисковых запросов. [ 13 ]
OpenAI GPT -3 — это авторегрессионная языковая модель , которую можно использовать в языковой обработке. Его можно использовать, среди прочего, для перевода текстов или ответов на вопросы. [ 14 ]
Bootstrap Your Own Latent (BYOL) — это NCSSL, который показал отличные результаты в ImageNet , а также в тестах передачи и полуконтролируемого тестирования. [ 15 ]
Алгоритм Яровского является примером самостоятельного обучения обработке естественного языка . По небольшому количеству помеченных примеров он учится предсказывать, какой слова используется смысл многозначного в данном месте текста.
DirectPred — это NCSSL, который напрямую устанавливает веса предикторов, а не изучает их посредством обновления градиента . [ 10 ]
Self-GenomeNet — это пример самостоятельного обучения в области геномики. [ 16 ]
Ссылки
[ редактировать ]- ^ Перейти обратно: а б Бушар, Луи (25 ноября 2020 г.). «Что такое самообучение? | Смогут ли когда-нибудь машины учиться, как люди?» . Середина . Проверено 9 июня 2021 г.
- ^ Яровский, Дэвид (1995). «Неконтролируемое устранение смысловой неоднозначности, конкурирующее с контролируемыми методами» . Материалы 33-го ежегодного собрания Ассоциации компьютерной лингвистики . Кембридж, Массачусетс: Ассоциация компьютерной лингвистики: 189–196. дои : 10.3115/981658.981684 . Проверено 1 ноября 2022 г.
- ^ Дорш, Карл; Зиссерман, Эндрю (октябрь 2017 г.). «Многозадачное визуальное обучение с самоконтролем» . Международная конференция IEEE по компьютерному зрению (ICCV) , 2017 г. IEEE. стр. 2070–2079. arXiv : 1708.07860 . дои : 10.1109/iccv.2017.226 . ISBN 978-1-5386-1032-9 . S2CID 473729 .
- ^ Перейти обратно: а б Бейер, Лукас; Чжай, Сяохуа; Оливер, Авиталь; Колесников, Александр (октябрь 2019 г.). «S4L: обучение с самоконтролем и полуконтролем» . Международная конференция IEEE/CVF по компьютерному зрению (ICCV) 2019 . IEEE. стр. 1476–1485. arXiv : 1905.03670 . дои : 10.1109/iccv.2019.00156 . ISBN 978-1-7281-4803-8 . S2CID 167209887 .
- ^ Дорш, Карл; Гупта, Абхинав; Эфрос, Алексей А. (декабрь 2015 г.). «Обучение визуальному представлению без учителя с помощью контекстного прогнозирования» . Международная конференция IEEE по компьютерному зрению (ICCV) , 2015 г. IEEE. стр. 1422–1430. arXiv : 1505.05192 . дои : 10.1109/iccv.2015.167 . ISBN 978-1-4673-8391-2 . S2CID 9062671 .
- ^ Чжэн, Синь; Ван, Юн; Ван, Гою; Лю, Цзяньго (апрель 2018 г.). «Быстрая и надежная сегментация изображений лейкоцитов путем самостоятельного обучения» . Микрон . 107 : 55–71. дои : 10.1016/j.micron.2018.01.010 . ISSN 0968-4328 . ПМИД 29425969 . S2CID 3796689 .
- ^ Гидарис, Спирос; Бурсук, Андрей; Комодакис, Никос; Перес, Патрик Перес; Корд, Матье (октябрь 2019 г.). «Стимулирование визуального обучения с помощью нескольких кадров с помощью самоконтроля» . Международная конференция IEEE/CVF по компьютерному зрению (ICCV) 2019 . IEEE. стр. 8058–8067. arXiv : 1906.05186 . дои : 10.1109/iccv.2019.00815 . ISBN 978-1-7281-4803-8 . S2CID 186206588 .
- ^ Перейти обратно: а б «Wav2vec: современное распознавание речи посредством самоконтроля» . ai.facebook.com . Проверено 9 июня 2021 г.
- ^ Перейти обратно: а б Крамер, Марк А. (1991). «Нелинейный анализ главных компонент с использованием автоассоциативных нейронных сетей» (PDF) . Журнал Айше . 37 (2): 233–243. Бибкод : 1991АИЧЕ..37..233К . дои : 10.1002/aic.690370209 .
- ^ Перейти обратно: а б с д «Демистификация ключевого метода обучения с самоконтролем: неконтрастное обучение» . ai.facebook.com . Проверено 5 октября 2021 г.
- ^ Литтвин, Этаи; Вольф, Лиор (июнь 2016 г.). «Потеря мультивселенной для надежного трансферного обучения» . Конференция IEEE 2016 по компьютерному зрению и распознаванию образов (CVPR) . IEEE. стр. 3957–3966. arXiv : 1511.09033 . дои : 10.1109/cvpr.2016.429 . ISBN 978-1-4673-8851-1 . S2CID 6517610 .
- ^ Франсуа-Лаве, Винсент; Бенджио, Йошуа; Прекуп, Дойна; Пино, Жоэль (2019). «Комбинированное обучение с подкреплением с помощью абстрактных представлений». Материалы конференции AAAI по искусственному интеллекту . arXiv : 1809.04506 .
- ^ «BERT с открытым исходным кодом: современная предварительная подготовка по обработке естественного языка» . Блог Google AI . 2 ноября 2018 года . Проверено 9 июня 2021 г.
- ^ Уилкокс, Итан; Цянь, Пэн; Фатрелл, Ричард; Кохита, Рёске; Леви, Роджер; Баллестерос, Мигель (2020). «Структурный контроль улучшает однократное обучение и синтаксическое обобщение в моделях нейронного языка» . Материалы конференции 2020 года по эмпирическим методам обработки естественного языка (EMNLP) . Страудсбург, Пенсильвания, США: Ассоциация компьютерной лингвистики. стр. 4640–4652. arXiv : 2010.05725 . doi : 10.18653/v1/2020.emnlp-main.375 . S2CID 222291675 .
- ^ Гриль, Жан-Бастьен; Струб, Флориан; В противном случае, Флоран; Таллек, Корантен; Ричмонд, Пьер Х.; Бучацкая Елена; Дорш, Карл; Пирес, Бернардо Авила; Го, Чжаохан Даниэль; Азар, Мохаммад Гешлаги; Пиот, Билал (10 сентября 2020 г.). «Запустите свое собственное скрытое: новый подход к самостоятельному обучению». arXiv : 2006.07733 [ cs.LG ].
- ^ Гюндюз, Хусейн Анил; Биндер, Мартин; То, Сяо-Инь; Мрешес, Рене; Бишль, Бернд; Макхарди, Элис К.; Мюнх, Филипп К.; Резаи, Мина (11 сентября 2023 г.). «Метод глубокого обучения с самоконтролем для эффективного обучения геномике с использованием данных» . Коммуникационная биология . 6 (1): 928. дои : 10.1038/s42003-023-05310-2 . ISSN 2399-3642 . ПМЦ 10495322 . ПМИД 37696966 .
Дальнейшее чтение
[ редактировать ]- Арбалетчик, Рэндалл; Ибрагим, Марк; Собаль, Влад; Моркос, да; Шекхар, Шашанк; Гольдштейн, Том; Бордерс, Флориан; Бардес, Адриан; Миалон, Грегори; Тянь, Юаньдун; Шварцшильд, Ави; Уилсон, Эндрю Гордон; Гейпинг, Йонас; Гарридо, Квентин; Фернандес, Пьер (24 апреля 2023 г.). «Поваренная книга самостоятельного обучения». arXiv : 2304.12210 [ cs.LG ].
Внешние ссылки
[ редактировать ]- Дорш, Карл; Зиссерман, Эндрю (октябрь 2017 г.). «Многозадачное визуальное обучение с самоконтролем» . Международная конференция IEEE по компьютерному зрению (ICCV) , 2017 г. стр. 2070–2079. arXiv : 1708.07860 . дои : 10.1109/ICCV.2017.226 . ISBN 978-1-5386-1032-9 . S2CID 473729 .
- Дорш, Карл; Гупта, Абхинав; Эфрос, Алексей А. (декабрь 2015 г.). «Обучение визуальному представлению без учителя с помощью контекстного прогнозирования» . Международная конференция IEEE по компьютерному зрению (ICCV) , 2015 г. стр. 1422–1430. arXiv : 1505.05192 . дои : 10.1109/ICCV.2015.167 . ISBN 978-1-4673-8391-2 . S2CID 9062671 .
- Чжэн, Синь; Ван, Юн; Ван, Гою; Лю, Цзяньго (1 апреля 2018 г.). «Быстрая и надежная сегментация изображений лейкоцитов путем самостоятельного обучения» . Микрон . 107 : 55–71. дои : 10.1016/j.micron.2018.01.010 . ISSN 0968-4328 . ПМИД 29425969 . S2CID 3796689 .
- Яровский, Дэвид (1995). «Неконтролируемое устранение смысловой неоднозначности, конкурирующее с контролируемыми методами» . Материалы 33-го ежегодного собрания Ассоциации компьютерной лингвистики . Кембридж, Массачусетс: Ассоциация компьютерной лингвистики: 189–196. дои : 10.3115/981658.981684 . Проверено 1 ноября 2022 г.