Алгоритм ММ
Алгоритм ММ — это метод итеративной оптимизации , который использует выпуклость функции для нахождения ее максимумов или минимумов. ММ означает «Majorize-Minimization» или «Minorize-Maximization», в зависимости от того, является ли желаемая оптимизация минимизацией или максимизацией. Несмотря на название, ММ сам по себе не является алгоритмом, а описанием того, как построить алгоритм оптимизации .
Алгоритм ожидания-максимизации можно рассматривать как частный случай алгоритма ММ. [1] [2] Однако в алгоритме EM обычно используются условные ожидания , тогда как в алгоритме MM основное внимание уделяется выпуклости и неравенствам, и в большинстве случаев его легче понять и применить. [3]
История
[ редактировать ]Историческую основу алгоритма ММ можно отнести как минимум к 1970 году, когда Ортега и Рейнбольдт проводили исследования, связанные с методами поиска строк . [4] Одна и та же концепция продолжала появляться в разных областях в разных формах. В 2000 году Хантер и Ланге предложили «ММ» в качестве общей концепции. [5] Недавние исследования [ ВОЗ? ] применили этот метод в широком спектре предметных областей, таких как математика , статистика , машинное обучение и инженерия . [ нужна ссылка ]
Алгоритм
[ редактировать ]
Алгоритм ММ работает путем поиска суррогатной функции, которая миноризирует или мажорирует целевую функцию. Оптимизация суррогатной функции либо улучшит значение целевой функции, либо оставит ее неизменной.
Взяв версию миноризации-максимизации, пусть — целевая вогнутая функция, которую необходимо максимизировать. На m- шаге алгоритма , построенная функция будем называть миноризированной версией целевой функции (суррогатной функцией) при если
Затем максимизируйте вместо , и пусть
Вышеупомянутый итерационный метод гарантирует, что будет сходиться к локальному оптимуму или седловой точке при стремлении m к бесконечности. [6] По вышеуказанной конструкции
Марш а суррогатные функции относительно целевой функции показаны на рисунке.
Мажоризация-Минимизация — это та же процедура, но с выпуклой целью минимизации.
Построение суррогатной функции
[ редактировать ]Можно использовать любое неравенство для построения желаемой мажорированной/миноризированной версии целевой функции. Типичный выбор включает в себя
- Неравенство Дженсена
- Неравенство выпуклости
- Неравенство Коши – Шварца
- Неравенство средних арифметических и геометрических
- Квадратичная мажоризация/миноризация посредством разложения Тейлора второго порядка дважды дифференцируемых функций с ограниченной кривизной.
Ссылки
[ редактировать ]- ^ Ланге, Кеннет. «Алгоритм ММ» (PDF) .
- ^ Ланге, Кеннет (2016). Алгоритмы оптимизации ММ . СИАМ. дои : 10.1137/1.9781611974409 . ISBN 978-1-61197-439-3 .
- ^ Ланге, К.; Чжоу, Х. (2022). «Наследие ЭМ-алгоритмов» . Международный статистический обзор . 90 : S52–S66. дои : 10.1111/insr.12526 . ПМЦ 10191373 .
- ^ Ортега, Дж. М.; Рейнбольдт, WC (1970). Итерационные решения нелинейных уравнений со многими переменными . Нью-Йорк: Академик. стр. 253–255 . ISBN 9780898719468 .
- ^ Хантер, ДР; Ланге, К. (2000). «Квантильная регрессия с помощью алгоритма ММ». Журнал вычислительной и графической статистики . 9 (1): 60–77. CiteSeerX 10.1.1.206.1351 . дои : 10.2307/1390613 . JSTOR 1390613 .
- ^ Ву, CF Джефф (1983). «О свойствах сходимости алгоритма EM» . Анналы статистики . 11 (1): 95–103. дои : 10.1214/aos/1176346060 . JSTOR 2240463 .