Байесовская оптимизация
Байесовская оптимизация — это последовательного проектирования стратегия глобальной оптимизации функций «черного ящика» . [ 1 ] [ 2 ] [ 3 ] не принимающее никаких функциональных форм. Обычно он используется для оптимизации дорогостоящих для оценки функций.
История
[ редактировать ]Этот термин обычно приписывают Йонасу Мокусу и он был придуман в его работах из серии публикаций по глобальной оптимизации 1970-х и 1980-х годов. [ 4 ] [ 5 ] [ 1 ]
Стратегия
[ редактировать ]Байесовская оптимизация обычно используется для решения задач вида , где представляет собой набор точек, , которые основаны на менее чем 20 измерениях ( ), и членство которого можно легко оценить. Байесовская оптимизация особенно полезна для задач, где оценить сложно из-за вычислительных затрат. Целевая функция, , является непрерывным и принимает форму некоторой неизвестной структуры, называемой «черным ящиком». Только после его оценки наблюдается, а его производные не оцениваются. [ 7 ]
Поскольку целевая функция неизвестна, байесовская стратегия состоит в том, чтобы рассматривать ее как случайную функцию и помещать априорную функцию над ней. Априорный уровень отражает представления о поведении функции. После сбора оценок функции, которые рассматриваются как данные, априорное значение обновляется, чтобы сформировать апостериорное распределение по целевой функции. Апостериорное распределение, в свою очередь, используется для построения функции сбора данных (часто также называемой критериями выборки заполнения), которая определяет следующую точку запроса.
Существует несколько методов, используемых для определения априорного/апостериорного распределения целевой функции. Два наиболее распространенных метода используют гауссовы процессы в методе, называемом кригинг . Другой менее затратный метод использует оценщик дерева Парзена для построения двух распределений для «высоких» и «низких» точек, а затем находит местоположение, которое максимизирует ожидаемое улучшение. [ 8 ]
Стандартная байесовская оптимизация опирается на каждый их легко оценить, а задачи, отклоняющиеся от этого предположения, известны как экзотические задачи байесовской оптимизации . Проблемы оптимизации могут стать экзотическими, если известно, что существует шум, оценки выполняются параллельно, качество оценок зависит от компромисса между сложностью и точностью, наличия случайных условий окружающей среды или если оценка включает производные. [ 7 ]
Функции сбора данных
[ редактировать ]Примеры функций сбора данных включают в себя
- вероятность улучшения
- ожидаемое улучшение
- Байесовские ожидаемые потери
- верхние доверительные границы (UCB) или нижние доверительные границы
- Выборка Томпсона
и их гибриды. [ 9 ] Все они сочетают исследование и эксплуатацию , чтобы минимизировать количество запросов к функциям. Таким образом, байесовская оптимизация хорошо подходит для функций, вычисление которых требует больших затрат.
Методы решения
[ редактировать ]Максимум функции сбора данных обычно находится с помощью дискретизации или с помощью вспомогательного оптимизатора. Функции сбора данных максимизируется с помощью методов численной оптимизации , таких как метод Ньютона , или квазиньютоновских методов, таких как алгоритм Бройдена-Флетчера-Гольдфарба-Шенно .
Приложения
[ редактировать ]Данный подход применяется для решения широкого круга задач, [ 10 ] включая обучение ранжированию , [ 11 ] компьютерная графика и визуальный дизайн, [ 12 ] [ 13 ] [ 14 ] робототехника , [ 15 ] [ 16 ] [ 17 ] [ 18 ] сенсорные сети , [ 19 ] [ 20 ] автоматическая настройка алгоритма, [ 21 ] [ 22 ] автоматические наборы инструментов машинного обучения , [ 23 ] [ 24 ] [ 25 ] обучение с подкреплением , [ 26 ] планирование, визуальное внимание, конфигурация архитектуры в глубоком обучении , статический анализ программ, экспериментальная физика элементарных частиц , [ 27 ] [ 28 ] оптимизация качества и разнообразия, [ 29 ] [ 30 ] [ 31 ] химия, дизайн материалов и разработка лекарств. [ 7 ] [ 32 ] [ 33 ]
Байесовская оптимизация применялась в области распознавания лиц. [ 34 ] Производительность алгоритма гистограммы ориентированных градиентов (HOG), популярного метода извлечения признаков, во многом зависит от настроек его параметров. Оптимизация этих параметров может оказаться непростой задачей, но она имеет решающее значение для достижения высокой точности. [ 34 ] Был предложен новый подход к оптимизации параметров алгоритма HOG и размера изображения для распознавания лиц с использованием метода байесовской оптимизации на основе древовидной оценки Парцена (TPE). [ 34 ] Этот оптимизированный подход потенциально может быть адаптирован для других приложений компьютерного зрения и способствует постоянной разработке алгоритмов извлечения признаков на основе параметров, созданных вручную, в компьютерном зрении. [ 34 ]
См. также
[ редактировать ]- Многорукий бандит
- Война
- Выборка Томпсона
- Глобальная оптимизация
- Байесовский экспериментальный план
- Вероятностные числа
- Парето лучший
- Активное обучение (машинное обучение)
- Многокритериальная оптимизация
Ссылки
[ редактировать ]- ^ Jump up to: а б Мочкус, Дж. (1989). Байесовский подход к глобальной оптимизации . Дордрехт: Клювер Академик. ISBN 0-7923-0115-3 .
- ^ Гарнетт, Роман (2023). Байесовская оптимизация . Издательство Кембриджского университета. ISBN 978-1-108-42578-0 .
- ^ Хенниг, П.; Осборн, Массачусетс; Керстинг, HP (2022). Вероятностные числа (PDF) . Издательство Кембриджского университета. стр. 243–278. ISBN 978-1107163447 .
- ^ Мочекус, Йонас (1975). «О байесовских методах поиска экстремума». Техническая конференция ИФИП по методам оптимизации, Новосибирск, 1–7 июля 1974 г. Конспекты лекций по информатике. Том. 27. С. 400–404. дои : 10.1007/3-540-07165-2_55 . ISBN 978-3-540-07165-5 .
- ^ Мочкус, Йонас (1977). «О байесовских методах поиска экстремума и их применении». Конгресс ИФИП : 195–200.
- ^ Уилсон, Сэмюэл (22 ноября 2019 г.), пакет ParBayesianOptimization R , получено 12 декабря 2019 г.
- ^ Jump up to: а б с Фрейзер, Питер И. (8 июля 2018 г.). «Учебник по байесовской оптимизации». arXiv : 1807.02811 [ stat.ML ].
- ^ Дж. С. Бергстра, Р. Бардене, Ю. Бенджио, Б. Кегль: Алгоритмы оптимизации гиперпараметров . Достижения в области нейронных систем обработки информации: 2546–2554 (2011).
- ^ Мэтью В. Хоффман, Эрик Брошу, Нандо де Фрейтас : Распределение портфеля для байесовской оптимизации. Неопределенность в искусственном интеллекте: 327–336 (2011).
- ^ Эрик Брошу, Влад М. Кора, Нандо де Фрейтас: Учебное пособие по байесовской оптимизации дорогостоящих функций стоимости с применением к моделированию активных пользователей и иерархическому обучению с подкреплением . КоRR абс/1012.2599 (2010)
- ^ Эрик Брошу, Нандо де Фрейтас, Абхиджит Гош: Активное обучение предпочтениям с использованием данных дискретного выбора . Достижения в области нейронных систем обработки информации: 409-416 (2007).
- ^ Эрик Брошу, Тайсон Брошу, Нандо де Фрейтас: байесовский подход к интерактивной оптимизации к процедурному дизайну анимации . Симпозиум по компьютерной анимации 2010: 103–112.
- ^ Юки Кояма, Иссэй Сато, Дайсуке Сакамото, Такео Игараси: последовательный поиск строк для эффективной оптимизации визуального дизайна с помощью толпы . Транзакции ACM в графике, том 36, выпуск 4, стр. 48: 1–48: 11 (2017). DOI: https://doi.org/10.1145/3072959.3073598.
- ^ Юки Кояма, Иссей Сато, Масатака Гото: Последовательная галерея для оптимизации интерактивного визуального дизайна . Транзакции ACM в графике, том 39, выпуск 4, стр. 88: 1–88: 12 (2020). DOI: https://doi.org/10.1145/3386569.3392444.
- ^ Дэниел Дж. Лизотт, Тао Ван, Майкл Х. Боулинг, Дейл Шуурманс: автоматическая оптимизация походки с помощью регрессии гауссовского процесса. Архивировано 12 августа 2017 г. в Wayback Machine . Международная совместная конференция по искусственному интеллекту: 944–949 (2007 г.)
- ^ Рубен Мартинес-Кантен, Нандо де Фрейтас, Эрик Брошу, Хосе Кастельянос и Арно Дусе. Байесовский подход к разведке-эксплуатации для оптимального онлайн-обнаружения и планирования с помощью мобильного робота с визуальным управлением . Автономные роботы. Том 27, выпуск 2, стр. 93–103 (2009 г.)
- ^ Скотт Куиндерсма, Родерик Групен и Эндрю Барто. Управление переменным риском посредством стохастической оптимизации . Международный журнал исследований робототехники, том 32, номер 7, стр. 806–825 (2013 г.)
- ^ Роберто Каландра, Андре Зейфарт, Ян Петерс и Марк П. Дейзенрот Байесовская оптимизация для обучения походке в условиях неопределенности . Энн. Математика. Артиф. Интел. Том 76, выпуск 1, стр. 5–23 (2016 г.) DOI: 10.1007/s10472-015-9463-9
- ^ Ниранджан Шринивас, Андреас Краузе, Шам М. Какаде, Матиас В. Сигер: Теоретико-информационные границы сожаления для оптимизации гауссовского процесса в бандитской обстановке . Транзакции IEEE по теории информации 58(5):3250–3265 (2012)
- ^ Гарнетт, Роман; Осборн, Майкл А.; Робертс, Стивен Дж. (2010). «Байесовская оптимизация для выбора набора датчиков» . В Абдельзахере, Тарек Ф.; Фойгт, Тимо; Волиш, Адам (ред.). Материалы 9-й Международной конференции по обработке информации в сенсорных сетях, IPSN 2010, 12–16 апреля 2010 г., Стокгольм, Швеция . АКМ. стр. 209–219. дои : 10.1145/1791212.1791238 .
- ^ Фрэнк Хаттер, Хольгер Хус и Кевин Лейтон-Браун (2011). Последовательная оптимизация на основе модели для общей конфигурации алгоритма , обучения и интеллектуальной оптимизации
- ^ Дж. Снук, Х. Ларошель, Р. П. Адамс. Практическая байесовская оптимизация алгоритмов машинного обучения . Достижения в области нейронных систем обработки информации: 2951-2959 (2012 г.)
- ^ Дж. Бергстра, Д. Яминс, Д. Д. Кокс (2013). Hyperopt: библиотека Python для оптимизации гиперпараметров алгоритмов машинного обучения . Учеб. СкиПи 2013.
- ^ Крис Торнтон, Фрэнк Хаттер, Хольгер Х. Хоос, Кевин Лейтон-Браун: Auto-WEKA: комбинированный выбор и оптимизация гиперпараметров алгоритмов классификации . КДД 2013: 847–855.
- ^ Джаспер Снук, Хьюго Ларошель и Райан Прескотт Адамс. Практическая байесовская оптимизация алгоритмов машинного обучения . Достижения в области нейронных систем обработки информации, 2012 г.
- ^ Беркенкамп, Феликс (2019). Безопасное исследование в обучении с подкреплением: теория и приложения в робототехнике (докторская диссертация). ETH Цюрих. дои : 10.3929/ethz-b-000370833 . hdl : 20.500.11850/370833 .
- ^ Филип Илтен, Майк Уильямс, Юнджи Ян. Настройка генератора событий с использованием байесовской оптимизации . 2017 ДЖИНСТ 12 P04028. DOI: 10.1088/1748-0221/12/04/P04028
- ^ Эваристо Сисбани и др. Оптимизированная для искусственного интеллекта конструкция детектора для будущего электрон-ионного коллайдера: корпус RICH с двумя излучателями 2020 JINST 15 P05009. DOI: 10.1088/1748-0221/15/05/P05009
- ^ Кент, Пол; Гайер, Адам; Муре, Жан-Батист; Бранке, Юрген (19 июля 2023 г.). «BOP-Elites, байесовский подход к оптимизации поиска качественного разнообразия с функциями дескриптора черного ящика». arXiv : 2307.09326 [ math.OC ]. Препринт: Архив.
- ^ Кент, Пол; Бранке, Юрген (12 июля 2023 г.). «Байесовский качественный поиск разнообразия с интерактивным освещением» . Материалы конференции по генетическим и эволюционным вычислениям (PDF) . ГЕККО '23. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 1019–1026. дои : 10.1145/3583131.3590486 . ISBN 979-8-4007-0119-1 . S2CID 259833672 .
- ^ Гайер, Адам; Астерот, Александр; Муре, Жан-Батист (01 сентября 2018 г.). «Исследование эффективного дизайна с помощью суррогатного освещения» . Эволюционные вычисления . 26 (3): 381–410. arXiv : 1806.05865 . дои : 10.1162/evco_a_00231 . ISSN 1063-6560 . ПМИД 29883202 . S2CID 47003986 .
- ^ Гомес-Бомбарелли и др. Автоматический химический дизайн с использованием непрерывного представления молекул на основе данных . ACS Central Science, том 4, выпуск 2, 268-276 (2018)
- ^ Гриффитс и др. Байесовская оптимизация с ограничениями для автоматического химического проектирования с использованием вариационных автоэнкодеров. Chemical Science: 11, 577-586 (2020).
- ^ Jump up to: а б с д Мохаммед Мехди Бушен: Байесовская оптимизация параметров гистограммы ориентированных градиентов (Hog) для распознавания лиц. ССРН (2023 г.)