~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ BAD84489E033CA0D6F3580ECD575EFB8__1714777980 ✰
Заголовок документа оригинал.:
✰ Conjugate gradient method - Wikipedia ✰
Заголовок документа перевод.:
✰ Метод сопряженных градиентов — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Conjugate_gradient_method ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/ba/b8/bad84489e033ca0d6f3580ecd575efb8.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/ba/b8/bad84489e033ca0d6f3580ecd575efb8__translat.html ✰
Дата и время сохранения документа:
✰ 20.06.2024 02:01:55 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 4 May 2024, at 02:13 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Метод сопряженных градиентов — Википедия Jump to content

Метод сопряженных градиентов

Из Википедии, бесплатной энциклопедии
Сравнение сходимости градиентного спуска с оптимальным размером шага (зеленым цветом) и сопряженным вектором (красным) для минимизации квадратичной функции, связанной с данной линейной системой. Сопряженный градиент, при условии точной арифметики, сходится не более чем за n шагов, где n — размер матрицы системы (здесь n = 2).

В математике метод сопряженных градиентов — это алгоритм численного решения частных систем линейных уравнений , а именно тех, матрица которых положительно-полуопределена . Метод сопряженных градиентов часто реализуется как итерационный алгоритм , применимый к разреженным системам, которые слишком велики, чтобы их можно было обработать прямой реализацией или другими прямыми методами, такими как разложение Холецкого . Большие разреженные системы часто возникают при численном решении уравнений в частных производных или задач оптимизации.

Метод сопряженных градиентов также можно использовать для решения задач неограниченной оптимизации , таких как минимизация энергии . Его обычно приписывают Магнусу Хестенесу и Эдуарду Штифелю . [1] [2] кто программировал это на Z4 , [3] и тщательно исследовал его. [4] [5]

Метод двусопряженного градиента обеспечивает обобщение на несимметричные матрицы. Различные методы нелинейных сопряженных градиентов ищут минимумы в задачах нелинейной оптимизации.

Описание проблемы, решаемой с градиентов сопряженных помощью

Предположим, мы хотим решить систему линейных уравнений

для вектора , где известно матрица симметричен ( т.е. A Т = A ), положительно определенный (т.е. x Т Ax > 0 для всех ненулевых векторов в Р н ), и настоящий , и также известно. Обозначим единственное решение этой системы через .

Деривация как прямой метод [ править ]

Метод сопряженных градиентов можно использовать с нескольких различных точек зрения, включая специализацию метода сопряженных направлений для оптимизации и вариацию итерации Арнольди / Ланцоша для задач собственных значений . Несмотря на различия в подходах, эти выводы имеют общую тему — доказательство ортогональности остатков и сопряженности направлений поиска. Эти два свойства имеют решающее значение для разработки хорошо известной краткой формулировки метода.

Будем говорить, что два ненулевых вектора u и v сопряжены (относительно ) если

С симметричен и положительно определен, левая часть определяет скалярный продукт

Два вектора сопряжены тогда и только тогда, когда они ортогональны относительно этого скалярного произведения. Сопряженность является симметричным отношением: если сопряжено с , затем сопряжено с . Предположим, что

представляет собой набор взаимно сопряженные векторы относительно , то есть для всех . Затем составляет основу для , и мы можем выразить решение из на этом основании:

Умножение проблемы слева с вектором урожайность

и так

Это дает следующий метод [4] для решения уравнения Ax = b : найдите последовательность сопряженные направления, а затем вычислить коэффициенты .

Как итеративный метод [ править ]

Если мы выберем сопряженные векторы внимательно, то нам могут не понадобиться все они для получения хорошего приближения к решению . Итак, мы хотим рассматривать метод сопряженных градиентов как итеративный метод. Это также позволяет нам приближенно решать системы, где n настолько велико, что прямой метод занял бы слишком много времени.

Обозначим начальное предположение о x через x0 в противном случае вместо (без ограничения общности можно считать, что = x0 0 , рассмотрим систему Az = b Ax0 этого ). Начиная с x 0, мы ищем решение, и на каждой итерации нам нужна метрика, которая сообщала бы нам, приблизились ли мы к решению x (которое нам неизвестно). Эта метрика основана на том факте, что решение x также является уникальным минимизатором следующей квадратичной функции

Существование уникального минимизатора очевидно, поскольку его матрица Гессе вторых производных является симметричной положительно определенной

и что минимизатор (используйте D f ( x )=0) решает исходную задачу, следует из его первой производной

Это предполагает, что первый базисный вектор p 0 будет отрицательным градиентом f в точке x = x 0 . Градиент f равен Ax b . Это означает, что , начиная с начального предположения x 0 , мы берем p 0 = b Ax 0 . Остальные векторы в базисе будут сопряжены с градиентом, отсюда и название метода сопряженного градиента . Обратите внимание, что p 0 также является остатком , полученным на этом начальном этапе алгоритма.

Пусть r k — невязка на k - м шаге:

Как было замечено выше, это отрицательный градиент в , поэтому метод градиентного спуска потребует движения в направлении r k . Однако здесь мы настаиваем на том, что направления должны быть сопряжены друг с другом. Практический способ обеспечить это — потребовать, чтобы следующее направление поиска строилось из текущего остатка и всех предыдущих направлений поиска. Ограничение сопряжения является ограничением ортонормированного типа, поэтому алгоритм можно рассматривать как пример ортонормировки Грама-Шмидта . Это дает следующее выражение:

(см. рисунок в верхней части статьи, где показано влияние ограничения сопряженности на сходимость). Следуя этому направлению, следующее оптимальное местоположение определяется выражением

с

где последнее равенство следует из определения . Выражение для можно получить, если подставить выражение для x k +1 в f и минимизировать его по отношению к

Получившийся алгоритм [ править ]

Приведенный выше алгоритм дает наиболее простое объяснение метода сопряженных градиентов. По-видимому, заявленный алгоритм требует хранения всех предыдущих направлений поиска и векторов вычетов, а также множества операций матрично-векторного умножения и, следовательно, может быть дорогостоящим в вычислительном отношении. Однако более тщательный анализ алгоритма показывает, что ортогонален , то есть , поскольку я ≠ j. И является -ортогонален , то есть , для . Можно считать, что по мере развития алгоритма и охватывают одно и то же подпространство Крылова . Где образуют ортогональный базис относительно стандартного внутреннего продукта и образуют ортогональный базис относительно скалярного произведения, индуцированного . Поэтому, можно рассматривать как проекцию on the Krylov subspace.

То есть, если метод CG начинается с , затем [6]

Алгоритм решения подробно описан ниже. где — действительная, симметричная, положительно определенная матрица. Входной вектор может быть приближенным начальным решением или 0 . Это другая формулировка точной процедуры, описанной выше.

Это наиболее часто используемый алгоритм. Та же формула для β k также используется в нелинейном методе сопряженных градиентов Флетчера–Ривза .

Перезапуск [ править ]

Мы отмечаем, что вычисляется методом градиентного спуска , применяемым к . Параметр аналогично сделал бы вычисляется методом градиентного спуска по , т. е. может использоваться как простая реализация перезапуска итераций сопряженного градиента. [4] Перезапуски могут замедлить сходимость, но могут улучшить стабильность, если метод сопряженных градиентов работает неправильно, например, из-за ошибки округления .

Явный расчет невязки [ править ]

Формулы и , которые оба верны в точной арифметике, образуют формулы и математически эквивалентно. Первое используется в алгоритме, чтобы избежать дополнительного умножения на поскольку вектор уже рассчитан для оценки . Последнее может быть более точным, если заменить явный расчет для неявного - рекурсия, подверженная накоплению ошибок округления , поэтому рекомендуется для периодической оценки. [7]

Норма остатка обычно используется в качестве критерия остановки. Норма явной невязки обеспечивает гарантированный уровень точности как в точной арифметике, так и при наличии ошибок округления , где сходимость естественным образом застаивается. Напротив, неявный остаток известно, что амплитуда продолжает уменьшаться значительно ниже уровня ошибок округления и, следовательно, не может использоваться для определения стагнации сходимости.

Вычисление альфа и бета [ править ]

В алгоритме α k выбирается таким, что ортогонален . Знаменатель упрощен от

с . β k что выбирается таким, сопряжено с . Первоначально β k

с использованием

и эквивалентно

числитель β k перепишется как

потому что и ортогональны по конструкции. Знаменатель перепишется как

используя то, что направления поиска p k сопряжены и остатки ортогональны. Это дает β в алгоритме после αk отмены .

Пример кода на Julia (язык программирования) [ править ]

""" 
 conjugate_gradient!(A, b, x) 

 Возвращает решение `A * x = b`, используя метод сопряженного градиента. 
 """ 
 функция   conjugate_gradient!   ( 
     A  ::  AbstractMatrix  ,   b  ::  AbstractVector  ,   x  ::  AbstractVector  ;   tol  =  eps  (  eltype  (  b  )) 
 ) 
     # Инициализируем вектор остатка 
     остатка   =   b   -   A   *   x 
     # Инициализируем вектор направления поиска 
     search_direction   =   остаток 
     # Вычисляем начальный квадрат остатка норма 
	 норма  (  x  )   =   sqrt  (  сумма  (  x  .^  2  )) 
     old_resid_norm   =   норма  (  остаток  ) 

     # Итерация до сходимости 
     while   old_resid_norm   >   tol 
         A_search_direction   =   A   *   search_direction 
         Step_size   =   old_resid_norm  ^  2   /   (  search_direction  '   *   A_search_direction  ) 
         # Обновить решение 
         @.    x   =   x   +   размер_шага   *   направление_поиска 
         # Обновление остатка 
         @.    Остаток   =   остаток   -   размер_шага   *   A_search_direction 
         new_resid_norm   =   норма  (  остаток  ) 
        
         # Обновить вектор направления поиска 
         @.    search_direction   =   остаток   +  
             (  new_resid_norm   /   old_resid_norm  )  ^  2   *   search_direction 
         # Обновление квадрата нормы остатка для следующей итерации 
         old_resid_norm   =   new_resid_norm 
     end 
     return   x 
 end 

Числовой пример [ править ]

Рассмотрим линейную систему Ax = b , заданную формулой

мы выполним два шага метода сопряженных градиентов, начиная с первоначального предположения

чтобы найти приближенное решение системы.

Решение [ править ]

Для справки, точное решение:

Наш первый шаг — вычислить вектор невязки r 0 , связанный с x 0 . Эта невязка вычисляется по формуле r 0 = b - Ax 0 и в нашем случае равна

Поскольку это первая итерация, мы будем использовать вектор остатка r 0 в качестве начального направления поиска p 0 ; метод выбора p k изменится в дальнейших итерациях.

Теперь мы вычислим скаляр α 0, используя соотношение

Теперь мы можем вычислить x 1 по формуле

Этот результат завершает первую итерацию, являясь «улучшенным» приближенным решением системы x 1 . Теперь мы можем двигаться дальше и вычислить следующий вектор невязки r 1 по формуле

Наш следующий шаг в этом процессе — вычисление скаляра β 0 , который в конечном итоге будет использоваться для определения следующего направления поиска p 1 .

Теперь, используя этот скаляр β 0 , мы можем вычислить следующее направление поиска p 1, используя соотношение

Теперь мы вычислим скаляр α 1 , используя только что полученное значение p 1 , используя тот же метод, что и для α 0 .

Наконец, мы находим x 2, используя тот же метод, который использовался для поиска x 1 .

Результат x 2 является «лучшим» приближением к решению системы, чем x 1 и x 0 . Если бы в этом примере использовалась точная арифметика вместо ограниченной точности, то точное решение теоретически было бы достигнуто после n = 2 итераций ( n — порядок системы).

Свойства конвергенции [ править ]

Метод сопряженных градиентов теоретически можно рассматривать как прямой метод, так как при отсутствии ошибки округления он дает точное решение за конечное число итераций, не превышающее размер матрицы. На практике точное решение никогда не получается, поскольку метод сопряженных градиентов неустойчив по отношению даже к малым возмущениям, например, большинство направлений на практике не являются сопряженными из-за дегенеративного характера генерации подпространств Крылова.

Как итерационный метод метод сопряженных градиентов монотонно (в энергетической норме) улучшает аппроксимации к точному решению и может достичь требуемого допуска после относительно небольшого (по сравнению с размером задачи) количества итераций. Улучшение обычно линейное, и его скорость определяется числом обусловленности системной матрицы : чем больше то есть, тем медленнее улучшение. [8]

Если велика, предварительная обработка обычно используется для замены исходной системы с такой, что меньше, чем , см. ниже.

Теорема о сходимости

Определите подмножество полиномов как

где – множество полиномов максимальной степени .

Позволять — итеративные аппроксимации точного решения и определим ошибки как . Теперь скорость сходимости можно аппроксимировать как [4] [9]

где обозначает спектр , а обозначает номер состояния .

Это показывает итераций достаточно, чтобы уменьшить ошибку до для любого .

Обратите внимание: важный предел, когда как правило

Этот предел показывает более высокую скорость сходимости по сравнению с итерационными методами Якоби или Гаусса – Зейделя , которые масштабируются как .

В теореме о сходимости не предполагается ошибка округления , но граница сходимости обычно справедлива на практике, как это объяснено теоретически. [5] Энн Гринбаум .

конвергенция Практическая

При случайной инициализации первый этап итераций часто оказывается самым быстрым, поскольку ошибка устраняется в подпространстве Крылова, которое изначально отражает меньшее эффективное число обусловленности. Второй этап сходимости обычно четко определяется теоретической сходимостью, связанной с , но может быть суперлинейным, в зависимости от распределения спектра матрицы и спектральное распределение ошибки. [5] На последнем этапе достигается наименьшая достижимая точность, и сходимость останавливается или метод может даже начать расходиться. В типичных приложениях научных вычислений в формате с плавающей запятой двойной точности для матриц больших размеров метод сопряженных градиентов использует критерий остановки с допуском, который завершает итерации на первом или втором этапе.

Метод предварительно обусловленных сопряженных градиентов

В большинстве случаев предобусловливание необходимо для обеспечения быстрой сходимости метода сопряженных градиентов. Если является симметричным положительно определенным и имеет лучший номер состояния, чем , можно использовать предварительно обусловленный метод сопряженных градиентов. Он принимает следующую форму: [10]

повторить
если r k +1 достаточно мало , то выход из цикла заканчивается, если
конец повтора
Результат: x k +1

Приведенная выше формулировка эквивалентна применению метода регулярного сопряженного градиента к предварительно обусловленной системе. [11]

где

Разложение Холецкого предобуславливателя необходимо использовать для сохранения симметрии (и положительной определенности) системы. Однако это разложение не обязательно вычислять, достаточно знать . Можно показать, что имеет тот же спектр, что и .

Матрица предобуславливателя M должна быть симметричной, положительно определенной и фиксированной, т. е. не может меняться от итерации к итерации. Если какое-либо из этих предположений о предварительном обусловлителе нарушается, поведение предварительно обусловленного метода сопряженных градиентов может стать непредсказуемым.

Примером часто используемого предобуславливателя является неполная факторизация Холецкого . [12]

Использование предобуславливателя на практике [ править ]

Важно помнить, что мы не хотим инвертировать матрицу. явно для того, чтобы получить для использования его в процессе, так как инвертирование потребуется больше времени и вычислительных ресурсов, чем решение самого алгоритма сопряженного градиента. В качестве примера предположим, что мы используем предобуславливатель, полученный в результате неполной факторизации Холецкого. Полученная матрица является нижней треугольной матрицей , а матрица предобуславливателя:

Тогда нам предстоит решить:

Но:

Затем:

Возьмем промежуточный вектор :

С и и известный, и является нижним треугольником, решающим уравнение легко и вычислительно дешево с использованием прямой замены . Затем мы заменяем в исходном уравнении:

С и известны, и является верхнетреугольным, что является решением для легко и вычислительно дешево за счет использования обратной замены .

Используя этот метод, нет необходимости инвертировать или вообще явно, и мы все равно получаем .

Гибкий метод сопряженных градиентов с предварительной обработкой [ править ]

В численно сложных приложениях используются сложные предварительные условия, которые могут привести к переменному предварительному обуславливанию, меняющемуся между итерациями. Даже если предобуславливатель является симметричным положительно определенным на каждой итерации, тот факт, что он может измениться, делает приведенные выше рассуждения недействительными, а в практических тестах приводит к значительному замедлению сходимости представленного выше алгоритма. Используя Полака–Рибьера формулу

вместо Флетчера-Ривза формулы

в этом случае может существенно улучшить сходимость. [13] Эту версию метода предварительно обусловленного сопряженного градиента можно назвать [14] гибкий , поскольку он допускает переменную предварительную обработку. Гибкая версия также показана [15] быть устойчивым, даже если предобуславливатель не является симметричным положительно определенным (SPD).

Реализация гибкой версии требует хранения дополнительного вектора. Для фиксированного предобуславливателя SPD: поэтому обе формулы для β k эквивалентны в точной арифметике, т. е. без ошибки округления .

Математическое объяснение лучшей сходимости метода с формулой Полака–Рибьера состоит в том, что в этом случае метод является локально оптимальным , в частности, он не сходится медленнее, чем локально оптимальный метод наискорейшего спуска. [16]

Против. локально оптимальный метод наискорейшего спуска [ править ]

И в исходном, и в предварительно обусловленном методе сопряженных градиентов нужно только установить для того, чтобы сделать их локально оптимальными, используйте методы поиска линий и наискорейшего спуска . При этой замене векторы p всегда совпадают с векторами z , поэтому нет необходимости хранить векторы p . Таким образом, каждая итерация этих методов наискорейшего спуска немного дешевле по сравнению с итерацией методов сопряженных градиентов. Однако последние сходятся быстрее, если не (высоко) переменная и/или предобуславливатель используется без SPD, см. выше.

Метод сопряженных градиентов как оптимальный регулятор обратной связи интегратора двойного для

Метод сопряженных градиентов также может быть получен с использованием теории оптимального управления . [17] В этом подходе метод сопряженных градиентов выступает в качестве оптимального контроллера с обратной связью ,

для системы двойного интегратора ,
Количества и являются переменными коэффициентами обратной связи. [17]

нормальных уравнениях в Сопряженный градиент

Метод сопряженных градиентов можно применить к произвольной матрице размером n x m , применив его к нормальным уравнениям A Т A и правый вектор A Т б , поскольку А Т A — симметричная положительно-полуопределенная матрица для A. любого Результатом является сопряженный градиент нормальных уравнений ( CGN или CGNR ).

А Т Топор = А Т б

В качестве итерационного метода нет необходимости формировать A Т Явно в памяти, но только для выполнения умножения матрица-вектор и транспонирования матрицы-вектор. Следовательно, CGNR особенно полезен, когда A является разреженной матрицей, поскольку эти операции обычно чрезвычайно эффективны. Однако недостатком формирования нормальных уравнений является то, что число обусловленности κ( A Т A ) равен κ 2 ( A ), поэтому скорость сходимости CGNR может быть медленной, а качество приближенного решения может быть чувствительным к ошибкам округления. Поиск хорошего преобуславливателя часто является важной частью использования метода CGNR.

Было предложено несколько алгоритмов (например, CGLS, LSQR). Алгоритм LSQR якобы имеет лучшую численную стабильность, когда A плохо обусловлен, т. е. A имеет большое число обусловленности .

для сложных эрмитовых матриц Метод сопряженных градиентов

Метод сопряженных градиентов с тривиальной модификацией распространяется на решение по комплексной матрице A и вектору b системы линейных уравнений для комплекснозначного вектора x, где A является эрмитовой (т. е. A' = A) и положительно определенной матрицей , а символ ' обозначает сопряженное транспонирование . Тривиальная модификация - это просто замена везде сопряженной действительного транспонирования транспонией .

Преимущества и недостатки [ править ]

Преимущества и недостатки методов сопряженных градиентов обобщены в конспектах лекций Немировского и БенТала. [18] : Раздел 7.3

Патологический пример [ править ]

Этот пример из [19] Позволять и определить

С обратима, то существует единственное решение . Решение ее методом сопряженного градиентного спуска дает нам довольно плохую сходимость:
Другими словами, в процессе компьютерной графики ошибка растет экспоненциально, пока внезапно не станет нулевой, когда будет найдено уникальное решение.

См. также [ править ]

Ссылки [ править ]

  1. ^ Хестенес, Магнус Р .; Штифель, Эдуард (декабрь 1952 г.). «Методы сопряженных градиентов для решения линейных систем» (PDF) . Журнал исследований Национального бюро стандартов . 49 (6): 409. doi : 10.6028/jres.049.044 .
  2. ^ Стретер, Т. А. (1971). О расширении класса Дэвидона–Бройдена первого ранга квазиньютоновских методов минимизации до бесконечномерного гильбертова пространства с приложениями к задачам оптимального управления (кандидатская диссертация). Государственный университет Северной Каролины. hdl : 2060/19710026200 — через сервер технических отчетов НАСА.
  3. ^ Спайзер, Амброс (2004). «Конрад Цузе и ЭРМЕТ: Всемирное сравнение архитектур» [Конрад Цузе и ЭРМЕТ: Всемирное сравнение архитектур]. В Хеллиге, Ганс Дитер (ред.). Истории информатики. Видения, парадигмы, лейтмотивы (на немецком языке). Берлин: Шпрингер. п. 185. ИСБН  3-540-00217-0 .
  4. ^ Перейти обратно: а б с д Поляк, Борис (1987). Введение в оптимизацию .
  5. ^ Перейти обратно: а б с Гринбаум, Энн (1997). Итерационные методы решения линейных систем . дои : 10.1137/1.9781611970937 . ISBN  978-0-89871-396-1 .
  6. ^ Пакетт, Эллиот; Трогдон, Томас (март 2023 г.). «Универсальность алгоритмов сопряженного градиента и MINRES на выборочных ковариационных матрицах» . Сообщения по чистой и прикладной математике . 76 (5): 1085–1136. arXiv : 2007.00640 . дои : 10.1002/cpa.22081 . ISSN   0010-3640 .
  7. ^ Шевчук, Джонатан Р. (1994). Введение в метод сопряженных градиентов без мучительной боли (PDF) .
  8. ^ Саад, Юсеф (2003). Итерационные методы для разреженных линейных систем (2-е изд.). Филадельфия, Пенсильвания: Общество промышленной и прикладной математики. стр. 195 . ISBN  978-0-89871-534-7 .
  9. ^ Хакбуш, В. (21 июня 2016 г.). Итерационное решение больших разреженных систем уравнений (2-е изд.). Швейцария: Шпрингер. ISBN  978-3-319-28483-5 . OCLC   952572240 .
  10. ^ Барретт, Ричард; Берри, Майкл; Чан, Тони Ф.; Деммель, Джеймс; Донато, июнь; Донгарра, Джек; Эйххаут, Виктор; Посо, Ролдан; Ромин, Чарльз; Ван дер Ворст, Хенк. Шаблоны для решения линейных систем: строительные блоки для итеративных методов (PDF) (2-е изд.). Филадельфия, Пенсильвания: СИАМ. п. 13 . Проверено 31 марта 2020 г.
  11. ^ Голуб, Джин Х.; Ван Лоан, Чарльз Ф. (2013). Матричные вычисления (4-е изд.). Издательство Университета Джонса Хопкинса. сек. 11.5.2. ISBN  978-1-4214-0794-4 .
  12. ^ Конкус, П.; Голуб, Г.Х.; Меран, Г. (1985). «Блочное предварительное условие для метода сопряженных градиентов» . Журнал SIAM по научным и статистическим вычислениям . 6 (1): 220–252. дои : 10.1137/0906018 .
  13. ^ Голуб, Джин Х.; Е, Цян (1999). «Метод неточного предварительно обусловленного сопряженного градиента с внутренней и внешней итерацией». Журнал SIAM по научным вычислениям . 21 (4): 1305. CiteSeerX   10.1.1.56.1755 . дои : 10.1137/S1064827597323415 .
  14. ^ Нотай, Иван (2000). «Гибкие сопряженные градиенты». Журнал SIAM по научным вычислениям . 22 (4): 1444–1460. CiteSeerX   10.1.1.35.7473 . дои : 10.1137/S1064827599362314 .
  15. ^ Бауместер, Хенрикус; Догерти, Эндрю; Князев, Андрей В. (2015). «Несимметричное предварительное условие для методов сопряженного градиента и наискорейшего спуска 1» . Procedia Информатика . 51 : 276–285. arXiv : 1212.6680 . дои : 10.1016/j.procs.2015.05.241 . S2CID   51978658 .
  16. ^ Князев Андрей Васильевич; Лашук, Илья (2008). «Методы наискорейшего спуска и сопряженных градиентов с переменной предварительной обуславливанием». Журнал SIAM по матричному анализу и приложениям . 29 (4): 1267. arXiv : math/0605767 . дои : 10.1137/060675290 . S2CID   17614913 .
  17. ^ Перейти обратно: а б Росс, И.М. , «Теория оптимального управления для ускоренной оптимизации», arXiv : 1902.09004 , 2019.
  18. ^ Немировский и Бен-Тал (2023). «Оптимизация III: Выпуклая оптимизация» (PDF) .
  19. ^ Пеннингтон, Фабиан Педрегоса, Кортни Пакетт, Том Трогдон, Джеффри. «Учебное пособие по теории случайных матриц и машинному обучению» . случайная матрица-обучение.github.io . Проверено 5 декабря 2023 г. {{cite web}}: CS1 maint: несколько имен: список авторов ( ссылка )

Дальнейшее чтение [ править ]

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: BAD84489E033CA0D6F3580ECD575EFB8__1714777980
URL1:https://en.wikipedia.org/wiki/Conjugate_gradient_method
Заголовок, (Title) документа по адресу, URL1:
Conjugate gradient method - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)