Геометрически квадратичную функцию можно эквивалентным образом представить, записав ее значение в каждой точке пространства. Точки равного значения составляют его контурные поверхности, представляющие собой концентрические эллипсоиды с уравнением для изменения . Как уменьшается, эллипсоиды становятся все меньше и меньше, пока при минимальном значении эллипсоид не сожмется до их общего центра.
Минимизация квадратичной функции тогда представляет собой проблему перемещения по плоскости в поисках общего центра всех этих эллипсоидов. Центр можно найти, вычислив явно, но именно этого мы и пытаемся избежать.
Самый простой метод — жадный поиск по строке , при котором мы начинаем с некоторой точки , выбери направление как-нибудь, а потом свести к минимуму . Это имеет простое решение в замкнутой форме, которое не требует обращения матрицы: Геометрически мы начинаем в какой-то момент на некотором эллипсоиде, затем выбираем направление и идем в этом направлении, пока не достигнем точки, в которой эллипсоид сворачивается в этом направлении. Это не обязательно минимум, но это прогресс к нему. Визуально он движется вдоль прямой и останавливается, как только мы достигаем точки, касательной к контуру эллипсоида.
Теперь мы можем повторить эту процедуру, начиная с новой точки. , выберите новое направление , вычислить , и т. д.
Мы можем обобщить это в виде следующего алгоритма:
Начните с выбора первоначального предположения и вычислим начальную невязку , затем повторите:
где должны быть выбраны. Обратите внимание, в частности, как остаток вычисляется итеративно, шаг за шагом, а не каждый раз заново: Возможно, это правда, что преждевременно, что приведет к численным проблемам. Однако для конкретного выбора , то до сходимости этого не произойдет, как мы докажем ниже.
Если направления выбраны неудачно, то прогресс будет медленным. В частности, метод градиентного спуска будет медленным. Это можно увидеть на диаграмме, где зеленая линия — результат выбора локального направления градиента. Он движется зигзагами к минимуму, но неоднократно превышает его. Напротив, если мы выберем направления как набор взаимно сопряженных направлений , то перерегулирования не будет, и мы получим глобальный минимум после шаги, где это количество измерений.
Понятие сопряженных направлений пришло из классической геометрии эллипса. Для эллипса центры двух полуосей взаимно сопряжены относительно эллипса тогда и только тогда, когда линии параллельны касательной, ограничивающей параллелограмм, как показано на рисунке. Концепция обобщается на n -мерные эллипсоиды, где n полуосей взаимно сопряжены относительно эллипсоида тогда и только тогда, когда каждая ось параллельна касательной, ограничивающей параллелепипед . Другими словами, для любого , касательная плоскость к эллипсоиду в точке представляет собой гиперплоскость, натянутую на векторы , где является центром эллипсоида.
Обратите внимание, что нам нужно масштабировать каждый вектор направления. по скаляру , так что падает точно на эллипсоид.
Дан эллипсоид с уравнением для некоторой константы , мы можем перевести его так, чтобы его центр находился в начале координат. Это меняет уравнение на для какой-то другой константы . Тогда условие касания: то есть, для любого .
Метод сопряженных направлений неточен в том смысле, что не приводятся формулы для выбора направлений. . Конкретный выбор приводит к использованию различных методов, включая метод сопряженных градиентов и метод исключения Гаусса .
Мы можем свести в таблицу уравнения, которые нам нужно обнулить:
0
1
2
3
0
1
2
Это напоминает проблему ортогонализации, которая требует для любого , и для любого . Таким образом, проблема поиска сопряженных осей менее ограничена, чем проблема ортогонализации, поэтому процесс Грама – Шмидта работает с дополнительными степенями свободы, которые мы позже можем использовать, чтобы выбрать те, которые упростят вычисления:
Произвольно задано .
Произвольно задано , затем измените его на .
Произвольно задано , затем измените его на .
...
Произвольно задано , затем измените его на .
Самый естественный выбор это градиент. То есть, . Поскольку сопряженные направления можно масштабировать на ненулевое значение, мы масштабируем его на для чистоты обозначений, получив Таким образом, мы имеем . Подключив его, мы имеем алгоритм сопряженного градиента: Предложение. Если в какой-то момент, , то алгоритм сошёлся, т.е. .
Доказательство. По построению это будет означать, что , то есть шаг по сопряженному градиенту возвращает нас точно туда, где мы были. Это возможно только в том случае, если локальный градиент уже равен нулю.
Этот алгоритм можно значительно упростить с помощью некоторых лемм, в результате чего получится алгоритм сопряженного градиента.
Лемма 1. и .
Доказательство. По геометрической конструкции касательная плоскость к эллипсоиду в точке содержит каждый из предыдущих сопряженных векторов направления . Дальше, перпендикулярен касательной, поэтому . Второе уравнение верно, поскольку по построению является линейным преобразованием .
Лемма 2. .
Доказательство. По конструкции, , теперь применим лемму 1.
Лемма 3. .
Доказательство. По конструкции мы имеем , таким образом Теперь применим лемму 1.
Подставив леммы 1-3, получим и , который является правильным алгоритмом сопряженного градиента.
Применяя итерацию Арнольди к решению линейных систем, мы начинаем с , остаток, соответствующий первоначальному предположению . После каждого шага итерации вычисляется и новая итерация .
В ходе дальнейшего обсуждения мы предполагаем, что является симметричным положительно определенным. С симметрией , верхняя матрица Хессенберга становится симметричным и, следовательно, трехдиагональным. Тогда это можно более четко обозначить через
Это обеспечивает короткий трехкратный рецидив для в итерации, а итерация Арнольди сводится к итерации Ланцоша.
Если мы позволим для масштабирования и компенсации масштабирования постоянного коэффициента мы потенциально можем иметь более простые повторения формы:
В качестве предпосылки для упрощения мы теперь выведем ортогональность и сопряженность , то есть для ,
Остатки взаимно ортогональны, поскольку по сути является кратным поскольку для , , для ,
Чтобы увидеть сопряженность , достаточно показать, что диагональ:
симметричен и одновременно является нижним треугольным и, следовательно, должен быть диагональным.
Теперь мы можем вывести постоянные коэффициенты и относительно масштабированного путем исключительно навязывания ортогональности и сопряженность .
Ввиду ортогональности , необходимо, чтобы . Как результат,
Аналогично, в силу сопряженности , необходимо, чтобы . Как результат,
Arc.Ask3.Ru Номер скриншота №: a82be99e5039b1ab35441492084b6d66__1722889320 URL1:https://arc.ask3.ru/arc/aa/a8/66/a82be99e5039b1ab35441492084b6d66.html Заголовок, (Title) документа по адресу, URL1: Derivation of the conjugate gradient method - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)