Нелинейный метод сопряженных градиентов
В числовой оптимизации метод нелинейного сопряженного градиента обобщает метод сопряженного градиента на нелинейную оптимизацию . Для квадратичной функции
минимум получается, когда градиент равен 0:
- .
В то время как линейный сопряженный градиент ищет решение линейного уравнения , метод нелинейного сопряженного градиента обычно используется для поиска локального минимума нелинейной функции используя его градиент один. Это работает, когда функция приблизительно квадратична вблизи минимума, а это тот случай, когда функция дважды дифференцируема в минимуме, а вторая производная там невырождена.
Дана функция из переменные для минимизации, его градиент указывает направление максимального увеличения.Просто начинается в противоположном направлении ( наиболее крутой спуск ):
с регулируемой длиной шага и выполняет поиск строки в этом направлении, пока не достигнет минимума :
- ,
После этой первой итерации в самом крутом направлении , следующие шаги составляют одну итерацию движения по последующему сопряженному направлению , где :
- Рассчитайте самое крутое направление: ,
- Вычислить по одной из приведенных ниже формул,
- Обновите сопряженное направление:
- Выполните поиск по строке: оптимизируйте ,
- Обновите позицию: ,
При использовании чистой квадратичной функции минимум достигается за N итераций (за исключением ошибки округления), но неквадратичная функция будет работать медленнее. Последующие направления поиска теряют сопряженность, требуя, чтобы направление поиска сбрасывалось на направление наибольшего спуска по крайней мере каждые N итераций или раньше, если прогресс останавливается. Однако сброс каждой итерации превращает метод в крутой спуск . Алгоритм останавливается, когда он находит минимум, определяемый, когда после сброса направления прогресс не достигается (т. е. в направлении наибольшего спуска) или когда достигается некоторый критерий допуска.
В линейном приближении параметры и такие же, как и вметод линейного сопряженного градиента, но были получены с помощью поиска линий.Метод сопряженных градиентов может следовать по узким ( плохо обусловленным ) долинам, где метод наискорейшего спуска замедляется и следует схеме крест-накрест.
Четыре наиболее известные формулы названы в честь своих разработчиков:
- Флетчер-Ривз: [1]
- Полак-Рибьер: [2]
- Гестенес-Штифель: [3]
- Дай-Юань: [4]
- .
Эти формулы эквивалентны для квадратичной функции, но для нелинейной оптимизации предпочтительная формула зависит от эвристики или вкуса. Популярный выбор – , что обеспечивает автоматический сброс направления. [5]
Алгоритмы, основанные на методе Ньютона, потенциально сходятся гораздо быстрее. Там и направление, и длина шага вычисляются из градиента как решения линейной системы уравнений, при этом матрица коэффициентов представляет собой точную матрицу Гессе (для собственно метода Ньютона) или ее оценку (в квазиньютоновских методах , где наблюдаемое изменение градиента во время итераций используется для обновления оценки Гессиана). Для задач большой размерности точное вычисление гессиана обычно непомерно дорого, и даже его хранение может быть проблематичным, требуя с ограниченной памятью L-BFGS память (но см. квазиньютоновский метод ).
Метод сопряженных градиентов также может быть получен с использованием теории оптимального управления . [6] В этой теории ускоренной оптимизации метод сопряженных градиентов выступает в роли нелинейного оптимального контроллера с обратной связью .
для системы двойного интегратора ,
Количества и являются переменными коэффициентами усиления обратной связи. [6]
См. также [ править ]
- Градиентный спуск
- Алгоритм Бройдена–Флетчера–Гольдфарба–Шенно
- Метод сопряженных градиентов
- L-BFGS (BFGS с ограниченной памятью)
- Метод Нелдера-Мида
- Условия Вульфа
Ссылки [ править ]
- ^ Флетчер, Р.; Ривз, CM (1964). «Минимизация функции сопряженными градиентами» . Компьютерный журнал . 7 (2): 149–154. дои : 10.1093/comjnl/7.2.149 .
- ^ Полак, Э.; Рибьер, Г. (1969). «Замечание о сходимости методов сопряженных направлений». Французский журнал автоматизации, информатики, операционных исследований . 3 (1): 35–43.
- ^ Хестенес, MR; Штифель, Э. (1952). «Методы сопряженных градиентов для решения линейных систем» . Журнал исследований Национального бюро стандартов . 49 (6): 409–436. дои : 10.6028/jres.049.044 .
- ^ Дай, Ю.-Х.; Юань, Ю. (1999). «Метод нелинейных сопряженных градиентов с сильным свойством глобальной сходимости». SIAM Journal по оптимизации . 10 (1): 177–182. дои : 10.1137/S1052623497318992 .
- ^ Шевчук-младший (август 1994 г.). «Введение в метод сопряженных градиентов без мучительной боли» (PDF) .
- ^ Jump up to: а б Росс, IM (2019). «Теория оптимального управления для ускоренной оптимизации». arXiv : 1902.09004 [ math.OC ].