Собственное разложение матрицы
В линейной алгебре собственное разложение это факторизация матрицы — в каноническую форму , при которой матрица представляется в терминах ее собственных значений и собственных векторов . только диагонализуемые матрицы Таким способом можно факторизовать . Когда факторизуемая матрица является нормальной или вещественной симметричной матрицей , разложение называется «спектральным разложением», выведенным из спектральной теоремы .
Фундаментальная теория собственных векторов и значений собственных матрицы
(Ненулевой) вектор v размерности N является собственным вектором квадратной размера N × N матрицы A , если он удовлетворяет линейному уравнению вида
Это дает уравнение для собственных значений
Если поле скаляров алгебраически замкнуто , то мы можем факторизовать p как
Для каждого собственного значения λ i у нас есть конкретное уравнение собственных значений
Собственные векторы могут быть проиндексированы собственными значениями с использованием двойного индекса, где является vij j - м собственным вектором для i -го собственного значения. Собственные векторы также могут быть проиндексированы с использованием более простого обозначения одного индекса v k с k = 1, 2, ..., N v .
Собственное разложение матрицы [ править ]
Пусть A — квадратная матрица размера n × n с n линейно независимыми собственными векторами q i (где i = 1, ..., n ). Тогда A можно факторизовать как
Собственные n векторы q i обычно нормируются, но это не обязательно. Ненормализованный набор из n собственных векторов vi также может использоваться в качестве столбцов Q . Это можно понять, заметив, что величина собственных векторов в Q сокращается при разложении из-за присутствия Q −1 . Если одно из собственных значений λ i имеет несколько линейно независимых собственных векторов (т. е. геометрическая кратность λ i больше 1), то эти собственные векторы для этого собственного значения λ i можно выбрать взаимно ортогональными ; однако, если два собственных вектора принадлежат двум разным собственным значениям, они могут оказаться не ортогональными друг другу (см. пример ниже). Особый случай заключается в том, что если A — нормальная матрица, то по спектральной теореме всегда возможно диагонализировать A в ортонормированном базисе {q i } .
Разложение можно вывести из фундаментального свойства собственных векторов:
Линейно независимые собственные векторы q i с собственным значением, равным нулю, образуют базис (который может быть выбран ортонормированным) для нулевого пространства (также известного как ядро) матричного преобразования A .
Пример [ править ]
Действительная матрица 2 × 2 A
Затем
Умножив обе части уравнения слева на B :
Сдвиг λ u в левую часть и вынесение u за скобки
Возвращая решения к приведенным выше одновременным уравнениям
Решая уравнения, имеем
Матрица, обратная посредством собственного разложения [ править ]
Если матрица A может быть разложена по собственным значениям и ни одно из ее собственных значений не равно нулю, то A обратима , а ее обратная матрица определяется формулой
последствия Практические
Когда собственное разложение используется в матрице измеренных реальных данных , обратное может быть менее допустимым, когда все собственные значения используются без изменений в приведенной выше форме. Это связано с тем, что, поскольку собственные значения становятся относительно небольшими, их вклад в инверсию велик. Те, кто близок к нулю или находится на уровне «шума» измерительной системы, будут иметь чрезмерное влияние и могут затруднить решение (обнаружение) с использованием обратного метода. [4]
Были предложены два способа смягчения последствий: усечение малых или нулевых собственных значений и расширение наименьшего надежного собственного значения до тех, которые ниже его. См. также регуляризацию Тихонова как статистически мотивированный, но предвзятый метод скатывания собственных значений, когда в них начинает преобладать шум.
Первый метод смягчения аналогичен разреженной выборке исходной матрицы, удаляя компоненты, которые не считаются ценными. Однако если процесс решения или обнаружения близок к уровню шума, усечение может удалить компоненты, которые влияют на желаемое решение.
Второе смягчение расширяет собственное значение, так что более низкие значения оказывают гораздо меньшее влияние на инверсию, но все равно вносят свой вклад, так что решения вблизи шума все равно будут найдены.
Надежное собственное значение можно найти, предположив, что очень похожие и низкие собственные значения являются хорошим представлением шума измерения (который считается низким для большинства систем).
Если собственные значения отсортированы по рангу по значению, то надежное собственное значение можно найти путем минимизации лапласиана отсортированных собственных значений: [5]
Функциональное исчисление [ править ]
Собственное разложение позволяет значительно упростить вычисление степенных рядов матриц. Если f ( x ) определяется выражением
Недиагональные элементы f ( Λ ) равны нулю; то есть f ( Λ ) также является диагональной матрицей. Следовательно, вычисление f ( A ) сводится к простому вычислению функции по каждому из собственных значений.
Похожий метод работает в более общем плане с голоморфным функциональным исчислением , используя
Примеры [ править ]
Разложение спектральных матриц [ править ]
![]() | Этот раздел нуждается в расширении . Вы можете помочь, добавив к нему . ( июнь 2008 г. ) |
Спектральные матрицы — это матрицы, которые обладают различными собственными значениями и полным набором собственных векторов. Эта характеристика позволяет спектральным матрицам быть полностью диагонализуемыми, то есть их можно разложить на более простые формы с использованием собственного разложения. Этот процесс разложения раскрывает фундаментальное понимание структуры и поведения матрицы, особенно в таких областях, как квантовая механика, обработка сигналов и численный анализ. [6]
Нормальные матрицы [ править ]
Комплексная квадратная матрица это нормально (имеется в виду, , где — сопряженное транспонирование ) тогда и только тогда, когда его можно разложить как , где является унитарной матрицей (т.е. ) и Диагностика( ) — диагональная матрица . [7] Столбцы из образуют ортонормированный базис и являются собственными векторами с соответствующими собственными значениями . [8]
Например, рассмотрим нормальную матрицу 2 x 2. .
Собственные значения и .
(Нормированные) собственные векторы, соответствующие этим собственным значениям: и .
Диагонализация – это , где , и .
Проверка .
Этот пример иллюстрирует процесс диагонализации нормальной матрицы. найдя его собственные значения и собственные векторы, образуя унитарную матрицу , диагональная матрица и проверяем разложение.

Действительные симметричные матрицы [ править ]
В частном случае для каждой размера n × n вещественной симметричной матрицы собственные значения вещественны, а собственные векторы могут быть выбраны вещественными и ортонормированными . Таким образом, действительную симметричную матрицу A можно разложить как , где Q — ортогональная матрица действительные ортонормированные собственные векторы A , а Λ — диагональная матрица, элементы которой являются собственными значениями A. , столбцы которой — [9]
Диагонализуемые матрицы [ править ]
Диагонализуемые матрицы можно разложить с помощью собственного разложения при условии, что они имеют полный набор линейно независимых собственных векторов. Они могут быть выражены как , где — матрица, столбцы которой являются собственными векторами и — диагональная матрица, состоящая из соответствующих собственных значений матрицы . [8]
матрицы Положительно определенные
Положительно определенные матрицы — это матрицы, у которых все собственные значения положительны. Их можно разложить как используя разложение Холецкого , где — нижняя треугольная матрица. [10]
Унитарные и эрмитовы матрицы [ править ]
Унитарные матрицы удовлетворяют (реальный случай) или (сложный случай), где обозначает сопряженное транспонирование и обозначает сопряженное транспонирование. Они диагонализуют с помощью унитарных преобразований . [8]
Эрмитова матрица удовлетворяет , где обозначает сопряженное транспонирование. Их можно диагонализовать с помощью унитарных или ортогональных матриц . [8]
Полезные факты [ править ]
факты о значениях Полезные собственных
- собственных значений равно определителю A Произведение Обратите внимание, что каждое собственное значение возводится в степень n i , алгебраическую кратность .
- значений равна следу A Сумма собственных Обратите внимание, что каждое собственное значение умножается на n i , алгебраическую кратность .
- Если собственные значения A равны λ i и A обратима, то собственные значения A −1 представляют собой просто λ −1
я . - собственные значения A равны λi , то собственные значения f ( A ) — это просто f ( λi Если ) для любой голоморфной функции f .
о векторах Полезные факты собственных
- Если A является эрмитовым и полноранговым, то базис собственных векторов может быть выбран взаимно ортогональным . Собственные значения действительны.
- Собственные векторы A −1 такие же, как собственные векторы A .
- Собственные векторы определяются только с точностью до мультипликативной константы. То есть, если Av = λ v , то c v также является собственным вектором для любого скаляра c ≠ 0 . В частности, − v и e я v (для любого θ ) также являются собственными векторами.
- В случае вырожденных собственных значений (собственное значение, имеющее более одного собственного вектора) собственные векторы имеют дополнительную свободу линейного преобразования, то есть любая линейная (ортонормальная) комбинация собственных векторов, имеющих общее собственное значение (в вырожденном подпространстве), сама по себе является собственный вектор (в подпространстве).
о разложении собственном Полезные факты
- A можно разложить по собственному тогда и только тогда, когда количество линейно независимых собственных векторов N v равняется размерности собственного вектора: N v = N
- Если поле скаляров алгебраически замкнуто и если p ( λ ) не имеет повторяющихся корней, т. е. если тогда A можно разложить по собственному усмотрению.
- Утверждение « A может быть разложено по собственным значениям» не означает, что A имеет обратное значение, поскольку некоторые собственные значения могут быть равны нулю, что не является обратимым.
- Утверждение « А имеет обратное» не означает, что А можно разложить по собственному усмотрению. Контрпример , которая является обратимой дефектной матрицей .
Полезные факты об обратной матрице [ править ]
- A можно инвертировать тогда и только тогда, когда все собственные значения отличны от нуля:
- Если λ i ≠ 0 и N v = N , обратное имеет вид
Численные вычисления [ править ]
Численное вычисление собственных значений [ править ]
Предположим, что мы хотим вычислить собственные значения данной матрицы. Если матрица маленькая, мы можем вычислить их символически, используя характеристический полином . Однако для матриц большего размера это часто невозможно, и в этом случае приходится использовать численный метод .
На практике собственные значения больших матриц не вычисляются с использованием характеристического полинома. Вычисление многочлена само по себе становится дорогостоящим, а точные (символические) корни многочлена высокой степени может быть трудно вычислить и выразить: теорема Абеля – Руффини подразумевает, что корни многочленов высокой степени (5 или выше) вообще не могут выражаться просто с помощью корней n-й степени. Следовательно, общие алгоритмы поиска собственных векторов и собственных значений являются итеративными .
Существуют итерационные численные алгоритмы аппроксимации корней многочленов, такие как метод Ньютона , но в целом нецелесообразно вычислять характеристический многочлен и затем применять эти методы. Одна из причин заключается в том, что небольшие ошибки округления коэффициентов характеристического многочлена могут привести к большим ошибкам в собственных значениях и собственных векторах: корни представляют собой крайне плохо обусловленную функцию коэффициентов. [11]
Простой и точный итерационный метод — это степенной метод : выбирается случайный вектор v последовательность единичных векторов и вычисляется как
Эта последовательность будет почти всегда сходиться к собственному вектору, соответствующему собственному значению наибольшей величины, при условии, что v имеет ненулевой компонент этого собственного вектора в базисе собственных векторов (а также при условии, что существует только одно собственное значение наибольшей величины). Этот простой алгоритм полезен в некоторых практических приложениях; например, Google использует его для расчета рейтинга страниц документов в своей поисковой системе. [12] Кроме того, степенной метод является отправной точкой для многих более сложных алгоритмов. Например, сохраняя не только последний вектор в последовательности, но и рассматривая диапазон всех векторов . в последовательности, можно получить лучшее (быстрее сходящееся) приближение для собственного вектора, и эта идея лежит в основе теории Арнольди итерация . [11] Альтернативно, важный алгоритм QR также основан на тонком преобразовании степенного метода. [11]
Численное вычисление собственных векторов [ править ]
После того как собственные значения вычислены, собственные векторы можно вычислить, решив уравнение
Однако в практических крупномасштабных методах собственных значений собственные векторы обычно вычисляются другими способами, как побочный продукт вычисления собственных значений. при степенной итерации Например, собственный вектор фактически вычисляется перед собственным значением (которое обычно вычисляется по коэффициенту Рэлея собственного вектора). [11] В алгоритме QR для эрмитовой матрицы (или любой нормальной матрицы) ортонормированные собственные векторы получаются как произведение Q- матриц на этапах алгоритма. [11] (Для более общих матриц алгоритм QR сначала дает разложение Шура , из которого собственные векторы могут быть получены с помощью процедуры обратной замены . [13] ) Для эрмитовых матриц алгоритм собственных значений «разделяй и властвуй» более эффективен, чем алгоритм QR, если желательны как собственные векторы, так и собственные значения. [11]
Дополнительные темы [ править ]
Обобщенные собственные пространства [ править ]
Напомним, что геометрическая кратность собственного значения может быть описана как размерность соответствующего собственного пространства, нулевого пространства λ I − A . Алгебраическую кратность также можно рассматривать как размерность: это размерность соответствующего обобщенного собственного пространства (1-й смысл), которое является нулевым пространством матрицы ( λ I − A ). к для любого достаточно большого k . То есть это пространство обобщенных собственных векторов (первый смысл), где обобщенным собственным вектором является любой вектор, который в конечном итоге становится равным 0, если λ I − A применяется к нему достаточное количество раз подряд. Любой собственный вектор является обобщенным собственным вектором, поэтому каждое собственное пространство содержится в соответствующем обобщенном собственном пространстве. Это обеспечивает простое доказательство того, что геометрическая кратность всегда меньше или равна алгебраической кратности.
Это использование не следует путать с обобщенной проблемой собственных значений, описанной ниже.
Сопряженный собственный вектор [ править ]
Сопряженный собственный вектор или консобственный вектор — это вектор, передаваемый после преобразования в скаляр, кратный его сопряженному, где скаляр называется сопряженным собственным значением или собственным значением линейного преобразования. Собственные векторы и собственные значения представляют по существу ту же информацию и значение, что и обычные собственные векторы и собственные значения, но возникают, когда используется альтернативная система координат. Соответствующее уравнение
проблема собственных Обобщенная значений
Обобщенная проблема собственных значений (второй смысл) - это проблема поиска (ненулевого) вектора v , который подчиняется
Если n линейно независимых векторов { v 1 , …, v n } можно найти таких, что для каждого i ∈ {1, …, n } , Av i = λ i Bv i то мы определяем матрицы P и D такие, что
А поскольку P обратимо, мы умножаем уравнение справа на обратное, завершая доказательство.
Множество матриц вида A − λ B , где λ — комплексное число, называется карандашом ; термин «матричный карандаш» также может относиться к паре ( A , B ) матриц. [14]
Если B обратима, то исходную задачу можно записать в виде
Если A и B оба являются симметричными или эрмитовыми, а B также является положительно определенной матрицей , собственные значения λ i действительны, а собственные векторы v 1 и v 2 с различными собственными значениями являются B -ортогональными ( v 1 * Бв 2 = 0 ). [15] матрица P В этом случае собственные векторы можно выбрать так, чтобы определенная выше удовлетворяла условию
См. также [ править ]
- Возмущение собственных значений
- Ковариант Фробениуса
- Преобразование домохозяина
- Джордан в нормальной форме
- Список матриц
- Разложение матрицы
- Разложение по сингулярным значениям
- Формула Сильвестра
Примечания [ править ]
- ^ Голуб, Джин Х.; Ван Лоан, Чарльз Ф. (1996), Матричные вычисления (3-е изд.), Балтимор: Издательство Университета Джонса Хопкинса , стр. 310, ISBN 978-0-8018-5414-9
- ^ Крейциг, Эрвин (1972), Высшая инженерная математика (3-е изд.), Нью-Йорк: Wiley , стр. 273, ISBN 978-0-471-50728-4
- ^ Неринг, Эвар Д. (1970). Линейная алгебра и теория матриц (2-е изд.). Нью-Йорк: Уайли . п. 270. LCCN 76091646 .
- ^ Хейд, AF; Твид, Д.Р. (2002). Шен, Сильвия С. (ред.). «Наблюдения за взаимосвязью между собственными значениями, шумом прибора и характеристиками обнаружения». Визуализирующая спектрометрия VIII . Труды SPIE. 4816 : 355. Бибкод : 2002SPIE.4816..355H . дои : 10.1117/12.453777 . S2CID 120953647 .
- ^ Твид, ДР; Хайден, А.Ф. (2004). Шен, Сильвия С; Льюис, Пол Э. (ред.). «Уточнение и обобщение расширенного метода обращения ковариационной матрицы путем регуляризации». Визуализирующая спектрометрия IX . Труды SPIE. 5159 : 299. Бибкод : 2004SPIE.5159..299T . дои : 10.1117/12.506993 . S2CID 123123072 .
- ^ Алер, Грегуар. «Численная линейная алгебра» .
- ^ Хорн и Джонсон 1985 , с. 133, Теорема 2.5.3.
- ^ Jump up to: Перейти обратно: а б с д Шорс, Томас С. «Прикладная линейная алгебра и матричный анализ» .
- ^ Хорн и Джонсон 1985 , с. 136, следствие 2.5.11.
- ^ Карл Д. Мейер (2023). Матричный анализ и прикладная линейная алгебра (2-е изд.). Общество промышленной и прикладной математики. ISBN 9781611977431 .
- ^ Jump up to: Перейти обратно: а б с д и ж Трефетен, Ллойд Н .; Строительство, Дэвид (1997). Численная линейная алгебра . СИАМ. ISBN 978-0-89871-361-9 .
- ^ Ипсен, Илзе и Ребекка М. Уиллс, Анализ и расчет PageRank Google , архивировано 21 сентября 2018 г. в Wayback Machine , 7-й Международный симпозиум IMACS по итеративным методам научных вычислений, Институт Филдса, Торонто, Канада, 5–8 мая 2005.
- ^ Квартерони, Альфио ; Сакко, Риккардо; Салери, Фаусто (2000). «раздел 5.8.2». Численная математика . Спрингер. п. 15. ISBN 978-0-387-98959-4 .
- ^ Jump up to: Перейти обратно: а б с Бай, З.; Деммель, Дж. ; Донгарра, Дж.; Руэ, А.; Ван дер Ворст, Х., ред. (2000). «Обобщенные эрмитовы проблемы собственных значений». Шаблоны для решения алгебраических задач на собственные значения: Практическое руководство . Филадельфия: СИАМ. ISBN 978-0-89871-471-5 . Архивировано из оригинала 21 августа 2010 г. Проверено 9 сентября 2022 г.
- ^ Парлетт, Бересфорд Н. (1998). Симметричная проблема собственных значений (Переиздание. Под ред.). Филадельфия: Общество промышленной и прикладной математики. п. 345. дои : 10.1137/1.9781611971163 . ISBN 978-0-89871-402-9 .
Ссылки [ править ]
- Франклин, Джоэл Н. (1968). Матричная теория . Дуврские публикации. ISBN 978-0-486-41179-8 .
- Хорн, Роджер А.; Джонсон, Чарльз Р. (1985). Матричный анализ . Издательство Кембриджского университета. ISBN 978-0-521-38632-6 .
- Хорн, Роджер А.; Джонсон, Чарльз Р. (1991). Темы матричного анализа . Издательство Кембриджского университета. ISBN 978-0-521-46713-1 .
- Стрэнг, Г. (1998). Введение в линейную алгебру (3-е изд.). Уэлсли-Кембридж Пресс. ISBN 978-0-9614088-5-5 .