~~~~~~~~~~~~~~~~~~~~ Arc.Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~ 
Номер скриншота №:
✰ B32AD046D4F492C1FFB53631EA6EB409__1718298120 ✰
Заголовок документа оригинал.:
✰ Eigendecomposition of a matrix - Wikipedia ✰
Заголовок документа перевод.:
✰ Собственное разложение матрицы — Википедия ✰
Снимок документа находящегося по адресу (URL):
✰ https://en.wikipedia.org/wiki/Eigendecomposition ✰
Адрес хранения снимка оригинал (URL):
✰ https://arc.ask3.ru/arc/aa/b3/09/b32ad046d4f492c1ffb53631ea6eb409.html ✰
Адрес хранения снимка перевод (URL):
✰ https://arc.ask3.ru/arc/aa/b3/09/b32ad046d4f492c1ffb53631ea6eb409__translat.html ✰
Дата и время сохранения документа:
✰ 18.06.2024 21:55:25 (GMT+3, MSK) ✰
Дата и время изменения документа (по данным источника):
✰ 13 June 2024, at 20:02 (UTC). ✰ 

~~~~~~~~~~~~~~~~~~~~~~ Ask3.Ru ~~~~~~~~~~~~~~~~~~~~~~ 
Сервисы Ask3.ru: 
 Архив документов (Снимки документов, в формате HTML, PDF, PNG - подписанные ЭЦП, доказывающие существование документа в момент подписи. Перевод сохраненных документов на русский язык.)https://arc.ask3.ruОтветы на вопросы (Сервис ответов на вопросы, в основном, научной направленности)https://ask3.ru/answer2questionТоварный сопоставитель (Сервис сравнения и выбора товаров) ✰✰
✰ https://ask3.ru/product2collationПартнерыhttps://comrades.ask3.ru


Совет. Чтобы искать на странице, нажмите Ctrl+F или ⌘-F (для MacOS) и введите запрос в поле поиска.
Arc.Ask3.ru: далее начало оригинального документа

Собственное разложение матрицы — Википедия Jump to content

Собственное разложение матрицы

Из Википедии, бесплатной энциклопедии
(Перенаправлено с Собственного разложения )

В линейной алгебре собственное разложение — это факторизация матрицы , при которой в каноническую форму матрица представляется через ее собственные значения и собственные векторы . только диагонализуемые матрицы Таким способом можно факторизовать . Когда факторизуемая матрица является нормальной или действительной симметричной матрицей , разложение называется «спектральным разложением», выведенным из спектральной теоремы .

Фундаментальная теория собственных векторов и матрицы значений собственных

(Ненулевой) вектор v размерности N является собственным вектором квадратной размера N × N матрицы A , если он удовлетворяет линейному уравнению вида

для некоторого скаляра λ . Тогда λ называется собственным значением, соответствующим v . С геометрической точки зрения, собственные векторы A — это векторы, которые A просто удлиняет или сжимает, а величина, на которую они удлиняются/сжимаются, является собственным значением. Приведенное выше уравнение называется уравнением собственных значений или проблемой собственных значений.

Это дает уравнение для собственных значений

Мы называем p ( λ ) характеристическим полиномом , а уравнение, называемое характеристическим уравнением, представляет собой полиномиальное уравнение N -го порядка относительно неизвестного λ . Это уравнение будет иметь N λ различных решений, где 1 ≤ N λ N . Множество решений, то есть собственных значений, спектром оператора A. называется [1] [2] [3]

Если поле скаляров алгебраически замкнуто , то мы можем факторизовать p как

Целое число n i называется алгебраической кратностью собственного значения λ i . Сумма алгебраических кратностей равна N :

Для каждого собственного значения λ i у нас есть конкретное уравнение собственных значений

будет 1 ≤ ​​m i n i линейно независимых У каждого уравнения на собственные значения решений. Линейные комбинации решений m i (за исключением того, которое дает нулевой вектор) являются собственными векторами, связанными с собственным значением λ i . Целое число i называется геометрической кратностью λ i . m Важно помнить, что алгебраическая кратность n i и геометрическая кратность m i могут быть равны или не равны, но мы всегда имеем m i n i . Самый простой случай, конечно, когда m i = n i = 1 . Общее количество линейно независимых собственных векторов N v можно вычислить путем суммирования геометрических кратностей

Собственные векторы могут быть проиндексированы собственными значениями с использованием двойного индекса, где является vij j - м собственным вектором для i- го собственного значения. Собственные векторы также могут быть проиндексированы с использованием более простого обозначения одного индекса v k с k = 1, 2, ..., N v .

Собственное разложение матрицы [ править ]

Пусть A — квадратная матрица размера n × n с n линейно независимыми собственными векторами q i (где i = 1, ..., n ). Тогда A можно факторизовать как

где Q — квадратная размера n × n матрица , i-й столбец которой является собственным вектором q i матрицы A , а Λ диагональная матрица , диагональные элементы которой являются соответствующими собственными значениями, Λ ii = λ i . только диагонализуемые матрицы Обратите внимание, что таким способом можно факторизовать . Например, дефектная матрица (которая является матрицей сдвига ) не может быть диагонализирована.

Собственные векторы i q обычно нормируются, но это не обязательно. Ненормализованный набор из n собственных векторов vi также может использоваться в качестве столбцов Q . Это можно понять, заметив, что величина собственных векторов в Q сокращается при разложении из-за присутствия Q −1 . Если одно из собственных значений λ i имеет несколько линейно независимых собственных векторов (т. е. геометрическая кратность λ i больше 1), то эти собственные векторы для этого собственного значения λ i можно выбрать взаимно ортогональными ; однако, если два собственных вектора принадлежат двум разным собственным значениям, они могут оказаться не ортогональными друг другу (см. пример ниже). Особый случай состоит в том, что если A — нормальная матрица, то по спектральной теореме всегда возможно диагонализировать A в ортонормированном базисе {q i } .

Разложение можно вывести из фундаментального свойства собственных векторов:

Линейно независимые собственные векторы q i с ненулевыми собственными значениями образуют базис (не обязательно ортонормированный) для всех возможных произведений A x , для x C н , что совпадает с изображением (или диапазоном ) соответствующего преобразования , а также пространством столбцов матрицы A. матричного Число линейно независимых собственных векторов q i с ненулевыми собственными значениями равно рангу матрицы A , а также размерности образа (или диапазона) соответствующего матричного преобразования, а также ее столбцовому пространству.

Линейно независимые собственные векторы q i с нулевым собственным значением образуют базис (который может быть выбран ортонормированным) для нулевого пространства (также известного как ядро) матричного преобразования A .

Пример [ править ]

Действительная матрица 2 × 2 A

может быть разложена в диагональную матрицу путем умножения неособой матрицы B

Затем

для некоторой действительной диагональной матрицы .

Умножив обе части уравнения слева на B :

Приведенное выше уравнение можно разложить на два одновременных уравнения :
Вынесение собственных значений x и y :
Сдача в аренду
это дает нам два векторных уравнения:
И может быть представлен одним векторным уравнением, включающим два решения в качестве собственных значений:
где λ представляет два собственных значения x и y , а u представляет векторы a и b .

Сдвиг λ u в левую часть и вынесение за u скобки

Поскольку B неособа, существенно, чтобы u не было равно нулю. Поэтому,
Таким образом
давая нам решения собственных значений матрицы A как λ = 1 или λ = 3 , и результирующая диагональная матрица из собственного разложения A , таким образом, равна .

Возвращая решения к приведенным выше одновременным уравнениям

Решая уравнения, имеем

Таким образом, матрица B , необходимая для собственного разложения матрицы A , равна
то есть:

Матрица, обратная посредством собственного разложения [ править ]

Если матрица A может быть разложена по собственным значениям и ни одно из ее собственных значений не равно нулю, то A обратима , а ее обратная матрица определяется формулой

Если является симметричной матрицей, поскольку формируется из собственных векторов , гарантированно будет ортогональной матрицей , поэтому . Более того, поскольку Λ диагональная матрица , ее обратную легко вычислить:

Практические последствия

Когда собственное разложение используется в матрице измеренных реальных данных , обратное может быть менее допустимым, когда все собственные значения используются без изменений в приведенной выше форме. Это связано с тем, что, поскольку собственные значения становятся относительно небольшими, их вклад в инверсию велик. Те, кто близок к нулю или находится на уровне «шума» измерительной системы, будут иметь чрезмерное влияние и могут затруднить решение (обнаружение) с использованием обратного метода. [4]

Были предложены два способа смягчения последствий: усечение малых или нулевых собственных значений и расширение наименьшего надежного собственного значения до тех, которые ниже его. См. также регуляризацию Тихонова как статистически мотивированный, но предвзятый метод скатывания собственных значений, когда в них начинает преобладать шум.

Первый метод смягчения аналогичен разреженной выборке исходной матрицы, удаляя компоненты, которые не считаются ценными. Однако если процесс решения или обнаружения близок к уровню шума, усечение может удалить компоненты, которые влияют на желаемое решение.

Второе смягчение расширяет собственное значение, так что более низкие значения оказывают гораздо меньшее влияние на инверсию, но все же вносят свой вклад, так что решения вблизи шума все равно будут найдены.

Надежное собственное значение можно найти, предположив, что очень похожие и низкие собственные значения являются хорошим представлением шума измерений (который считается низким для большинства систем).

Если собственные значения отсортированы по рангу по значению, то надежное собственное значение можно найти путем минимизации лапласиана отсортированных собственных значений: [5]

где собственные значения имеют индекс s , обозначающий сортировку. Позицией минимизации является наименьшее надежное собственное значение. В измерительных системах квадратный корень из этого надежного собственного значения представляет собой средний шум по компонентам системы.

Функциональное исчисление [ править ]

Собственное разложение позволяет значительно упростить вычисление степенных рядов матриц. Если f ( x ) определяется выражением

тогда мы это знаем
Поскольку Λ диагональная матрица , функции от Λ очень легко вычислить:

Недиагональные элементы f ( Λ ) равны нулю; то есть f ( Λ ) также является диагональной матрицей. Следовательно, вычисление f ( A ) сводится к простому вычислению функции по каждому из собственных значений.

Похожий метод работает в более общем плане с голоморфным функциональным исчислением , используя

сверху . И снова мы обнаруживаем, что

Примеры [ править ]

которые являются примерами функций . Более того, матричная экспонента .

Разложение спектральных матриц [ править ]

Спектральные матрицы — это матрицы, которые обладают различными собственными значениями и полным набором собственных векторов. Эта характеристика позволяет спектральным матрицам быть полностью диагонализуемыми, то есть их можно разложить на более простые формы с использованием собственного разложения. Этот процесс разложения раскрывает фундаментальное понимание структуры и поведения матрицы, особенно в таких областях, как квантовая механика, обработка сигналов и численный анализ. [6]

Нормальные матрицы [ править ]

Комплексная квадратная матрица это нормально (имеется в виду, , где сопряженное транспонирование ) тогда и только тогда, когда его можно разложить как , где является унитарной матрицей (т.е. ) и Диагностика( ) — диагональная матрица . [7] Столбцы из образуют ортонормированный базис и являются собственными векторами с соответствующими собственными значениями . [8]

Например, рассмотрим нормальную матрицу 2 x 2. .

Собственные значения и .

(Нормированные) собственные векторы, соответствующие этим собственным значениям: и .

Диагонализация – это , где , и .

Проверка .

Этот пример иллюстрирует процесс диагонализации нормальной матрицы. найдя его собственные значения и собственные векторы, образуя унитарную матрицу , диагональная матрица и проверяем разложение.

Подмножества важных классов матриц

Действительные симметричные матрицы [ править ]

В частном случае для каждой размера n × n вещественной симметричной матрицы собственные значения вещественны, а собственные векторы могут быть выбраны вещественными и ортонормированными . Таким образом, действительная симметричная матрица A может быть разложена как , где Q ортогональная матрица , столбцы которой — действительные ортонормированные собственные векторы A , а Λ — диагональная матрица, элементы которой являются собственными A. значениями [9]

Диагонализуемые матрицы [ править ]

Диагонализуемые матрицы можно разложить с помощью собственного разложения при условии, что они имеют полный набор линейно независимых собственных векторов. Они могут быть выражены как , где — матрица, столбцы которой являются собственными векторами и — диагональная матрица, состоящая из соответствующих собственных значений матрицы . [8]

Положительно матрицы определенные

Положительно определенные матрицы — это матрицы, у которых все собственные значения положительны. Их можно разложить как используя разложение Холецкого , где — нижняя треугольная матрица. [10]

Унитарные и эрмитовы матрицы [ править ]

Унитарные матрицы удовлетворяют (реальный случай) или (сложный случай), где обозначает сопряженное транспонирование и обозначает сопряженное транспонирование. Они диагонализуют с помощью унитарных преобразований . [8]

Эрмитова матрица удовлетворяет , где обозначает сопряженное транспонирование. Их можно диагонализовать с помощью унитарных или ортогональных матриц . [8]

Полезные факты [ править ]

Полезные факты значениях о собственных

  • равно определителю A Произведение собственных значений
    Обратите внимание, что каждое собственное значение возводится в степень n i , алгебраическую кратность .
  • равна следу A Сумма собственных значений
    Обратите внимание, что каждое собственное значение умножается на n i , алгебраическую кратность .
  • Если собственные значения A равны λ i и A обратима, то собственные значения A −1 представляют собой просто λ −1
    я
    .
  • Если собственные значения A равны λi , то собственные значения f ( A ) — это просто f ( λi голоморфной ) для любой функции f .

Полезные факты векторах о собственных

  • Если A является эрмитовым и полноранговым, то базис собственных векторов может быть выбран взаимно ортогональным . Собственные значения действительны.
  • Собственные векторы A −1 такие же, как собственные векторы A .
  • Собственные векторы определяются только с точностью до мультипликативной константы. То есть, если Av = λ v , то c v также является собственным вектором для любого скаляра c ≠ 0 . В частности, v и e я v (для любого θ ) также являются собственными векторами.
  • В случае вырожденных собственных значений (собственное значение, имеющее более одного собственного вектора) собственные векторы имеют дополнительную свободу линейного преобразования, то есть любая линейная (ортонормированная) комбинация собственных векторов, имеющих общее собственное значение (в вырожденном подпространстве), сама по себе является собственный вектор (в подпространстве).

Полезные факты разложении о собственном

  • A может быть разложена по собственному тогда и только тогда, когда количество линейно независимых собственных векторов N v равняется размерности собственного вектора: N v = N
  • Если поле скаляров алгебраически замкнуто и если p ( λ ) не имеет повторяющихся корней, т. е. если тогда A можно разложить по собственному усмотрению.
  • Утверждение « A может быть разложено по собственным значениям» не означает, что A имеет обратное значение, поскольку некоторые собственные значения могут быть равны нулю, что не является обратимым.
  • Утверждение « А имеет обратное» не означает, что А можно разложить по собственному усмотрению. Контрпример , которая является обратимой дефектной матрицей .

Полезные факты об обратной матрице [ править ]

  • A можно инвертировать тогда и только тогда, когда все собственные значения отличны от нуля:
  • Если λ i ≠ 0 и N v = N , обратное выражение определяется выражением

Численные вычисления [ править ]

Численное вычисление собственных значений [ править ]

Предположим, мы хотим вычислить собственные значения данной матрицы. Если матрица маленькая, мы можем вычислить их символически, используя характеристический полином . Однако для матриц большего размера это часто невозможно, и в этом случае приходится использовать численный метод .

На практике собственные значения больших матриц не вычисляются с использованием характеристического полинома. Вычисление многочлена само по себе становится дорогостоящим, а точные (символические) корни многочлена высокой степени может быть трудно вычислить и выразить: теорема Абеля-Руффини подразумевает, что корни многочленов высокой степени (5 или выше) вообще не могут выражаться просто с помощью корней n -й степени. Следовательно, общие алгоритмы поиска собственных векторов и собственных значений являются итеративными .

Существуют итерационные численные алгоритмы аппроксимации корней многочленов, такие как метод Ньютона , но в целом нецелесообразно вычислять характеристический многочлен и затем применять эти методы. Одна из причин заключается в том, что небольшие ошибки округления коэффициентов характеристического многочлена могут привести к большим ошибкам в собственных значениях и собственных векторах: корни представляют собой крайне плохо обусловленную функцию коэффициентов. [11]

Простой и точный итерационный метод — это степенной метод : выбирается случайный вектор v последовательность единичных векторов и вычисляется как

Эта последовательность будет почти всегда сходиться к собственному вектору, соответствующему собственному значению наибольшей величины, при условии, что v имеет ненулевой компонент этого собственного вектора в базисе собственных векторов (а также при условии, что существует только одно собственное значение наибольшей величины). Этот простой алгоритм полезен в некоторых практических приложениях; например, Google использует его для расчета рейтинга страниц документов в своей поисковой системе. [12] Кроме того, степенной метод является отправной точкой для многих более сложных алгоритмов. Например, сохраняя не только последний вектор в последовательности, но и рассматривая диапазон всех Арнольди векторов в последовательности, можно получить лучшее (быстрее сходящееся) приближение для собственного вектора, и эта идея лежит в основе теории . итерация . [11] Альтернативно, важный алгоритм QR также основан на тонком преобразовании степенного метода. [11]

Численное вычисление собственных векторов [ править ]

После того как собственные значения вычислены, собственные векторы можно вычислить, решив уравнение

методом исключения Гаусса или любым другим методом решения матричных уравнений .

Однако в практических крупномасштабных методах собственных значений собственные векторы обычно вычисляются другими способами, как побочный продукт вычисления собственных значений. при степенной итерации Например, собственный вектор фактически вычисляется перед собственным значением (которое обычно вычисляется по коэффициенту Рэлея собственного вектора). [11] В алгоритме QR для эрмитовой матрицы (или любой нормальной матрицы) ортонормированные собственные векторы получаются как произведение Q -матриц на этапах алгоритма. [11] (Для более общих матриц алгоритм QR сначала дает разложение Шура , из которого собственные векторы могут быть получены с помощью процедуры обратной подстановки . [13] ) Для эрмитовых матриц алгоритм собственных значений «разделяй и властвуй» более эффективен, чем алгоритм QR, если желательны как собственные векторы, так и собственные значения. [11]

Дополнительные темы [ править ]

Обобщенные собственные пространства [ править ]

Напомним, что кратность собственного значения может быть описана как размерность соответствующего собственного пространства, нулевого пространства λ I геометрическая A . Алгебраическую кратность также можно рассматривать как размерность: это размерность соответствующего обобщенного собственного пространства (1-й смысл), которое является нулевым пространством матрицы ( λ I A ). к для любого достаточно большого k . То есть это пространство обобщенных собственных векторов (первый смысл), где обобщенным собственным вектором является любой вектор, который в конечном итоге становится равным 0, если λ I A применяется к нему достаточное количество раз подряд. Любой собственный вектор является обобщенным собственным вектором, поэтому каждое собственное пространство содержится в соответствующем обобщенном собственном пространстве. Это обеспечивает простое доказательство того, что геометрическая кратность всегда меньше или равна алгебраической кратности.

Это использование не следует путать с обобщенной проблемой собственных значений , описанной ниже.

Сопряженный собственный вектор [ править ]

или Сопряженный собственный вектор консобственный вектор — это вектор, передаваемый после преобразования в скаляр, кратный его сопряженному, где скаляр называется сопряженным собственным значением или собственным значением линейного преобразования. Собственные векторы и собственные значения представляют по существу ту же информацию и значение, что и обычные собственные векторы и собственные значения, но возникают, когда используется альтернативная система координат. Соответствующее уравнение

Например, в теории когерентного электромагнитного рассеяния линейное преобразование A представляет действие, выполняемое рассеивающим объектом, а собственные векторы представляют состояния поляризации электромагнитной волны. В оптике система координат определяется с точки зрения волны, известная как выравнивание прямого рассеяния (FSA), и приводит к регулярному уравнению собственных значений, тогда как в радаре система координат определяется с точки зрения радара, известная как задняя Выравнивание рассеяния (BSA) и приводит к уравнению собственных значений.

проблема значений Обобщенная собственных

Обобщенная проблема собственных значений (второй смысл) - это проблема поиска (ненулевого) вектора v , который подчиняется

где A и B — матрицы. Если v подчиняется этому уравнению с некоторым λ , то мы называем v обобщенным собственным вектором A и во втором смысле), которое соответствует обобщенному собственному значению A и B ( B (во втором смысле), а λ называется обобщенным собственным значением A и B ( во втором смысле). собственный вектор v . Возможные значения λ должны подчиняться следующему уравнению

Если n линейно независимых векторов { v 1 , …, v n } можно найти что для каждого i ∈ {1, …, n } таких , Av i = λ i Bv i , то мы определяем матрицы P и D такие, что

Тогда имеет место равенство
И доказательство

А поскольку P обратимо, мы умножаем уравнение справа на обратное, завершая доказательство.

Множество матриц вида A λ B , где λ — комплексное число, называется карандашом ; термин « матричный карандаш» также может относиться к паре ( A , B ) матриц. [14]

Если B обратима, то исходную задачу можно записать в виде

что является стандартной проблемой собственных значений. Однако в большинстве ситуаций предпочтительнее не выполнять инверсию, а решать обобщенную проблему собственных значений, как указано изначально. Это особенно важно, если A и B являются эрмитовыми матрицами , так как в этом случае B −1 A, как правило, не является эрмитовым, и важные свойства решения больше не очевидны.

Если A и B оба являются симметричными или эрмитовыми, а B также является положительно определенной матрицей , собственные значения λ i действительны, а собственные векторы v 1 и v 2 с различными собственными значениями являются B -ортогональными ( v 1 * Бв 2 = 0 ). [15] матрица P В этом случае собственные векторы можно выбрать так, чтобы определенная выше удовлетворяла условию

или
и существует базис обобщенных собственных векторов (это не дефектная задача). [14] Этот случай иногда называют эрмитовым определенным пучком или определенным пучком . [14]

См. также [ править ]

Примечания [ править ]

  1. ^ Голуб, Джин Х.; Ван Лоан, Чарльз Ф. (1996), Матричные вычисления (3-е изд.), Балтимор: Издательство Университета Джонса Хопкинса , стр. 310, ISBN  978-0-8018-5414-9
  2. ^ Крейциг, Эрвин (1972), Высшая инженерная математика (3-е изд.), Нью-Йорк: Wiley , стр. 273, ISBN  978-0-471-50728-4
  3. ^ Неринг, Эвар Д. (1970). Линейная алгебра и теория матриц (2-е изд.). Нью-Йорк: Уайли . п. 270. LCCN   76091646 .
  4. ^ Хейд, AF; Твид, Д.Р. (2002). Шен, Сильвия С. (ред.). «Наблюдения за взаимосвязью между собственными значениями, шумом прибора и характеристиками обнаружения». Визуализирующая спектрометрия VIII . Труды SPIE. 4816 : 355. Бибкод : 2002SPIE.4816..355H . дои : 10.1117/12.453777 . S2CID   120953647 .
  5. ^ Твид, ДР; Хайден, А.Ф. (2004). Шен, Сильвия С; Льюис, Пол Э. (ред.). «Уточнение и обобщение расширенного метода обращения ковариационной матрицы путем регуляризации». Визуальная спектрометрия IX . Труды SPIE. 5159 : 299. Бибкод : 2004SPIE.5159..299T . дои : 10.1117/12.506993 . S2CID   123123072 .
  6. ^ Алер, Грегуар. «Численная линейная алгебра» .
  7. ^ Хорн и Джонсон 1985 , с. 133, Теорема 2.5.3.
  8. ^ Перейти обратно: а б с д Шорс, Томас С. «Прикладная линейная алгебра и матричный анализ» .
  9. ^ Хорн и Джонсон 1985 , с. 136, следствие 2.5.11.
  10. ^ Карл Д. Мейер (2023). Матричный анализ и прикладная линейная алгебра (2-е изд.). Общество промышленной и прикладной математики. ISBN  9781611977431 .
  11. ^ Перейти обратно: а б с д Это ж Трефетен, Ллойд Н .; Бау, Дэвид (1997). Численная линейная алгебра . СИАМ. ISBN  978-0-89871-361-9 .
  12. ^ Ипсен, Ильзе и Ребекка М. Уиллс, Анализ и вычисление PageRank Google, заархивировано 21 сентября 2018 г. в Wayback Machine , 7-й Международный симпозиум IMACS по итеративным методам в научных вычислениях, Институт Филдса, Торонто, Канада, 5–8 мая 2005.
  13. ^ Квартерони, Альфио ; Сакко, Риккардо; Салери, Фаусто (2000). «раздел 5.8.2». Численная математика . Спрингер. п. 15. ISBN  978-0-387-98959-4 .
  14. ^ Перейти обратно: а б с Бай, З.; Деммель, Дж. ; Донгарра, Дж.; Руэ, А.; Ван дер Ворст, Х., ред. (2000). «Обобщенные эрмитовы проблемы собственных значений». Шаблоны для решения алгебраических задач на собственные значения: Практическое руководство . Филадельфия: СИАМ. ISBN  978-0-89871-471-5 . Архивировано из оригинала 21 августа 2010 г. Проверено 9 сентября 2022 г.
  15. ^ Парлетт, Бересфорд Н. (1998). Симметричная проблема собственных значений (Переиздание. Под ред.). Филадельфия: Общество промышленной и прикладной математики. п. 345. дои : 10.1137/1.9781611971163 . ISBN  978-0-89871-402-9 .

Ссылки [ править ]

Внешние ссылки [ править ]

Arc.Ask3.Ru: конец оригинального документа.
Arc.Ask3.Ru
Номер скриншота №: B32AD046D4F492C1FFB53631EA6EB409__1718298120
URL1:https://en.wikipedia.org/wiki/Eigendecomposition
Заголовок, (Title) документа по адресу, URL1:
Eigendecomposition of a matrix - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть, любые претензии не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, денежную единицу можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)