Собственное разложение матрицы
В линейной алгебре собственное разложение это факторизация матрицы — в каноническую форму , при которой матрица представляется в терминах ее собственных значений и собственных векторов . только диагонализуемые матрицы Таким способом можно факторизовать . Когда факторизуемая матрица является нормальной или вещественной симметричной матрицей , разложение называется «спектральным разложением», выведенным из спектральной теоремы .
Фундаментальная теория собственных векторов и собственных значений матрицы
[ редактировать ](Ненулевой) вектор v размерности N является собственным вектором квадратной размера N × N матрицы A , если он удовлетворяет линейному уравнению вида для некоторого скаляра λ . Тогда λ называется собственным значением, соответствующим v . С геометрической точки зрения, собственные векторы A — это векторы, которые A просто удлиняет или сжимает, а величина, на которую они удлиняются/сжимаются, является собственным значением. Приведенное выше уравнение называется уравнением собственных значений или проблемой собственных значений.
Это дает уравнение для собственных значений Мы называем p ( λ ) характеристическим полиномом , а уравнение, называемое характеристическим уравнением, представляет собой полиномиальное уравнение N- го порядка относительно неизвестного λ . Это уравнение будет иметь N λ различных решений, где 1 ≤ N λ ≤ N . Множество решений, то есть собственных значений, спектром оператора A. называется [1] [2] [3]
Если поле скаляров алгебраически замкнуто , то мы можем факторизовать p как Целое число n i называется алгебраической кратностью собственного значения λ i . Сумма алгебраических кратностей равна N :
Для каждого собственного значения λ i у нас есть конкретное уравнение собственных значений У каждого уравнения на собственные значения будет 1 ≤ m i ≤ n i линейно независимых решений. Линейные комбинации решений ( mi за исключением того, которое дает нулевой вектор) являются собственными векторами, связанными с собственным значением λ i . число m i называется геометрической кратностью λ i . Целое Важно помнить, что алгебраическая кратность n i и геометрическая кратность m i могут быть равны, а могут и не быть равными, но мы всегда имеем m i ≤ n i . Самый простой случай, конечно, когда m i = n i = 1 . Общее количество линейно независимых собственных векторов N v можно вычислить путем суммирования геометрических кратностей
Собственные векторы могут быть проиндексированы собственными значениями с использованием двойного индекса, где является vij j - м собственным вектором для i -го собственного значения. Собственные векторы также могут быть проиндексированы с использованием более простого обозначения одного индекса v k с k = 1, 2, ..., N v .
Собственное разложение матрицы
[ редактировать ]Пусть A — квадратная матрица размера n × n с n линейно независимыми собственными векторами q i (где i = 1, ..., n ). Тогда A можно факторизовать как где Q — квадратная размера n × n, матрица i- й столбец которой является собственным вектором q i матрицы A , а Λ — диагональная матрица , диагональные элементы которой являются соответствующими собственными значениями, Λ ii = λ i . только диагонализуемые матрицы Обратите внимание, что таким способом можно факторизовать . Например, дефектная матрица (которая является матрицей сдвига ) не может быть диагонализирована.
Собственные векторы обычно нормируются, но это q i не обязательно. Ненормализованный набор из n собственных векторов vi также может использоваться в качестве столбцов Q . Это можно понять, заметив, что величина собственных векторов в Q сокращается при разложении из-за присутствия Q −1 . Если одно из собственных значений λ i имеет несколько линейно независимых собственных векторов (т. е. геометрическая кратность λ i больше 1), то эти собственные векторы для этого собственного значения λ i можно выбрать взаимно ортогональными ; однако, если два собственных вектора принадлежат двум разным собственным значениям, они могут оказаться не ортогональными друг другу (см. пример ниже). Особый случай заключается в том, что если A — нормальная матрица, то по спектральной теореме всегда возможно диагонализировать A в ортонормированном базисе {q i } .
Разложение можно вывести из фундаментального свойства собственных векторов: Линейно независимые собственные векторы q i с ненулевыми собственными значениями образуют базис (не обязательно ортонормированный) для всех возможных произведений A x , для x ∈ C н совпадает с изображением (или диапазоном ) соответствующего матричного преобразования , а также пространством столбцов матрицы A. , что Число линейно независимых собственных векторов q i с ненулевыми собственными значениями равно рангу матрицы A , а также размерности образа (или диапазона) соответствующего матричного преобразования, а также ее столбцовому пространству.
Линейно независимые собственные векторы q i с собственным значением, равным нулю, образуют базис (который может быть выбран ортонормированным) для нулевого пространства (также известного как ядро) матричного преобразования A .
Пример
[ редактировать ]Действительная матрица 2 × 2 A может быть разложена в диагональную матрицу путем умножения неособой матрицы Q
Затем для некоторой действительной диагональной матрицы .
Умножив обе части уравнения слева на Q : Приведенное выше уравнение можно разложить на два одновременных уравнения : Вынесение собственных значений x и y : Сдача в аренду это дает нам два векторных уравнения: И может быть представлен одним векторным уравнением, включающим два решения в качестве собственных значений: где λ представляет два собственных значения x и y , а u представляет векторы a и b .
Сдвиг λ u в левую часть и вынесение u за скобки Поскольку Q неособа, существенно, чтобы u не было равно нулю. Поэтому, Таким образом давая нам решения собственных значений матрицы A как λ = 1 или λ = 3 , и результирующая диагональная матрица из собственного разложения A , таким образом, равна .
Возвращая решения к приведенным выше одновременным уравнениям
Решая уравнения, имеем Таким образом, матрица Q, необходимая для собственного разложения A, равна то есть:
Матрица, обратная через собственное разложение
[ редактировать ]Если матрица A может быть разложена по собственным значениям и ни одно из ее собственных значений не равно нулю, то A обратима , а ее обратная матрица определяется формулой Если является симметричной матрицей, поскольку формируется из собственных векторов , гарантированно будет ортогональной матрицей , поэтому . Более того, поскольку Λ — диагональная матрица , ее обратную легко вычислить:
Практические последствия
[ редактировать ]Когда собственное разложение используется в матрице измеренных реальных данных , обратное может быть менее допустимым, когда все собственные значения используются без изменений в приведенной выше форме. Это связано с тем, что, поскольку собственные значения становятся относительно небольшими, их вклад в инверсию велик. Те, кто близок к нулю или находится на уровне «шума» измерительной системы, будут иметь чрезмерное влияние и могут затруднить решение (обнаружение) с использованием обратного метода. [4]
Были предложены два способа смягчения последствий: усечение малых или нулевых собственных значений и расширение наименьшего надежного собственного значения до тех, которые ниже его. См. также регуляризацию Тихонова как статистически мотивированный, но предвзятый метод скатывания собственных значений, когда в них начинает преобладать шум.
Первый метод смягчения аналогичен разреженной выборке исходной матрицы, удаляя компоненты, которые не считаются ценными. Однако если процесс решения или обнаружения близок к уровню шума, усечение может удалить компоненты, которые влияют на желаемое решение.
Второе смягчение расширяет собственное значение, так что более низкие значения оказывают гораздо меньшее влияние на инверсию, но все равно вносят свой вклад, так что решения вблизи шума все равно будут найдены.
Надежное собственное значение можно найти, предположив, что очень похожие и низкие собственные значения являются хорошим представлением шума измерения (который считается низким для большинства систем).
Если собственные значения отсортированы по рангу по значению, то надежное собственное значение можно найти путем минимизации лапласиана отсортированных собственных значений: [5] где собственные значения имеют индекс s , обозначающий сортировку. Позицией минимизации является наименьшее надежное собственное значение. В измерительных системах квадратный корень из этого надежного собственного значения представляет собой средний шум по компонентам системы.
Функциональное исчисление
[ редактировать ]Собственное разложение позволяет значительно упростить вычисление степенных рядов матриц. Если f ( x ) определяется выражением тогда мы это знаем Поскольку Λ — диагональная матрица , функции от Λ очень легко вычислить:
Недиагональные элементы f ( Λ ) равны нулю; то есть f ( Λ ) также является диагональной матрицей. Следовательно, вычисление f ( A ) сводится к простому вычислению функции по каждому из собственных значений.
Похожий метод работает в более общем плане с голоморфным функциональным исчислением , используя сверху . И снова мы обнаруживаем, что
Примеры
[ редактировать ]которые являются примерами функций . Более того, – матричная экспонента .
Разложение спектральных матриц
[ редактировать ]Этот раздел нуждается в расширении . Вы можете помочь, добавив к нему . ( июнь 2008 г. ) |
Спектральные матрицы — это матрицы, которые обладают различными собственными значениями и полным набором собственных векторов. Эта характеристика позволяет спектральным матрицам быть полностью диагонализуемыми, то есть их можно разложить на более простые формы с использованием собственного разложения. Этот процесс разложения раскрывает фундаментальное понимание структуры и поведения матрицы, особенно в таких областях, как квантовая механика, обработка сигналов и численный анализ. [6]
Нормальные матрицы
[ редактировать ]Комплексная квадратная матрица это нормально (имеется в виду, , где — сопряженное транспонирование ) тогда и только тогда, когда его можно разложить как , где является унитарной матрицей (т.е. ) и Диагностика( ) — диагональная матрица . [7] Столбцы из образуют ортонормированный базис и являются собственными векторами с соответствующими собственными значениями . [8]
Например, рассмотрим нормальную матрицу 2 x 2. .
Собственные значения и .
(Нормированные) собственные векторы, соответствующие этим собственным значениям: и .
Диагонализация – это , где , и .
Проверка .
Этот пример иллюстрирует процесс диагонализации нормальной матрицы. найдя его собственные значения и собственные векторы, образуя унитарную матрицу , диагональная матрица и проверяем разложение.
Действительные симметричные матрицы
[ редактировать ]В частном случае для каждой размера n × n вещественной симметричной матрицы собственные значения вещественны, а собственные векторы могут быть выбраны вещественными и ортонормированными . Таким образом, действительную симметричную матрицу A можно разложить как , где Q — ортогональная матрица действительные ортонормированные собственные векторы A , а Λ — диагональная матрица, элементы которой являются собственными значениями A. , столбцы которой — [9]
Диагонализуемые матрицы
[ редактировать ]Диагонализуемые матрицы можно разложить с помощью собственного разложения при условии, что они имеют полный набор линейно независимых собственных векторов. Они могут быть выражены как , где — матрица, столбцы которой являются собственными векторами и — диагональная матрица, состоящая из соответствующих собственных значений матрицы . [8]
Положительно определенные матрицы
[ редактировать ]Положительно определенные матрицы — это матрицы, у которых все собственные значения положительны. Их можно разложить как используя разложение Холецкого , где — нижняя треугольная матрица. [10]
Унитарные и эрмитовые матрицы
[ редактировать ]Унитарные матрицы удовлетворяют (реальный случай) или (сложный случай), где обозначает сопряженное транспонирование и обозначает сопряженное транспонирование. Они диагонализуют с помощью унитарных преобразований . [8]
Эрмитова матрица удовлетворяет , где обозначает сопряженное транспонирование. Их можно диагонализовать с помощью унитарных или ортогональных матриц . [8]
Полезные факты
[ редактировать ]Полезные факты о собственных значениях
[ редактировать ]- собственных значений равно определителю A Произведение Обратите внимание, что каждое собственное значение возводится в степень n i , алгебраическую кратность .
- значений равна следу A Сумма собственных Обратите внимание, что каждое собственное значение умножается на n i , алгебраическую кратность .
- Если собственные значения A равны λ i и A обратима, то собственные значения A −1 представляют собой просто λ −1
я . - собственные значения A равны λi , то собственные значения f ( A ) — это просто f ( λi Если ) для любой голоморфной функции f .
Полезные факты о собственных векторах
[ редактировать ]- Если A является эрмитовым и полноранговым, то базис собственных векторов может быть выбран взаимно ортогональным . Собственные значения действительны.
- Собственные векторы A −1 такие же, как собственные векторы A .
- Собственные векторы определяются только с точностью до мультипликативной константы. То есть, если Av = λ v , то c v также является собственным вектором для любого скаляра c ≠ 0 . В частности, − v и e я v (для любого θ ) также являются собственными векторами.
- В случае вырожденных собственных значений (собственное значение, имеющее более одного собственного вектора) собственные векторы имеют дополнительную свободу линейного преобразования, то есть любая линейная (ортонормальная) комбинация собственных векторов, имеющих общее собственное значение (в вырожденном подпространстве), сама по себе является собственный вектор (в подпространстве).
Полезные факты о собственном разложении
[ редактировать ]- A может быть разложена по собственному тогда и только тогда, когда количество линейно независимых собственных векторов N v равняется размерности собственного вектора: N v = N
- Если поле скаляров алгебраически замкнуто и если p ( λ ) не имеет повторяющихся корней, т. е. если тогда A можно разложить по собственному усмотрению.
- Утверждение « A может быть разложено по собственным значениям» не означает, что A имеет обратное значение, поскольку некоторые собственные значения могут быть равны нулю, что не является обратимым.
- Утверждение « А имеет обратное» не означает, что А можно разложить по собственному усмотрению. Контрпример , которая является обратимой дефектной матрицей .
Полезные факты об обратной матрице
[ редактировать ]- A можно инвертировать тогда и только тогда, когда все собственные значения отличны от нуля:
- Если λ i ≠ 0 и N v = N , обратное выражение определяется выражением
Численные расчеты
[ редактировать ]Численное вычисление собственных значений
[ редактировать ]Предположим, что мы хотим вычислить собственные значения данной матрицы. Если матрица маленькая, мы можем вычислить их символически, используя характеристический полином . Однако для матриц большего размера это часто невозможно, и в этом случае приходится использовать численный метод .
На практике собственные значения больших матриц не вычисляются с использованием характеристического полинома. Вычисление многочлена само по себе становится дорогостоящим, а точные (символические) корни многочлена высокой степени может быть трудно вычислить и выразить: теорема Абеля – Руффини подразумевает, что корни многочленов высокой степени (5 или выше) вообще не могут выражаться просто с помощью корней n-й степени. Следовательно, общие алгоритмы поиска собственных векторов и собственных значений являются итеративными .
Существуют итерационные численные алгоритмы аппроксимации корней многочленов, такие как метод Ньютона , но в целом нецелесообразно вычислять характеристический многочлен и затем применять эти методы. Одна из причин заключается в том, что небольшие ошибки округления коэффициентов характеристического многочлена могут привести к большим ошибкам в собственных значениях и собственных векторах: корни представляют собой крайне плохо обусловленную функцию коэффициентов. [11]
Простой и точный итерационный метод — это степенной метод : выбирается случайный вектор v последовательность единичных векторов и вычисляется как
Эта последовательность будет почти всегда сходиться к собственному вектору, соответствующему собственному значению наибольшей величины, при условии, что v имеет ненулевой компонент этого собственного вектора в базисе собственных векторов (а также при условии, что существует только одно собственное значение наибольшей величины). Этот простой алгоритм полезен в некоторых практических приложениях; например, Google использует его для расчета рейтинга страниц документов в своей поисковой системе. [12] Кроме того, степенной метод является отправной точкой для многих более сложных алгоритмов. Например, сохраняя не только последний вектор в последовательности, но и рассматривая диапазон всех векторов . в последовательности, можно получить лучшее (быстрее сходящееся) приближение для собственного вектора, и эта идея лежит в основе теории Арнольди итерация . [11] Альтернативно, важный алгоритм QR также основан на тонком преобразовании степенного метода. [11]
Численное вычисление собственных векторов
[ редактировать ]После того как собственные значения вычислены, собственные векторы можно вычислить, решив уравнение методом исключения Гаусса или любым другим методом решения матричных уравнений .
Однако в практических крупномасштабных методах собственных значений собственные векторы обычно вычисляются другими способами, как побочный продукт вычисления собственных значений. при степенной итерации Например, собственный вектор фактически вычисляется перед собственным значением (которое обычно вычисляется по коэффициенту Рэлея собственного вектора). [11] В алгоритме QR для эрмитовой матрицы (или любой нормальной матрицы) ортонормированные собственные векторы получаются как произведение Q- матриц на этапах алгоритма. [11] (Для более общих матриц алгоритм QR сначала дает разложение Шура , из которого собственные векторы могут быть получены с помощью процедуры обратной замены . [13] ) Для эрмитовых матриц алгоритм собственных значений «разделяй и властвуй» более эффективен, чем алгоритм QR, если желательны как собственные векторы, так и собственные значения. [11]
Дополнительные темы
[ редактировать ]Обобщенные собственные пространства
[ редактировать ]Напомним, что геометрическая кратность собственного значения может быть описана как размерность соответствующего собственного пространства, нулевого пространства λ I − A . Алгебраическую кратность также можно рассматривать как размерность: это размерность соответствующего обобщенного собственного пространства (1-й смысл), которое является нулевым пространством матрицы ( λ I − A ). к для любого достаточно большого k . То есть это пространство обобщенных собственных векторов (первый смысл), где обобщенным собственным вектором является любой вектор, который в конечном итоге становится равным 0, если λ I − A применяется к нему достаточное количество раз подряд. Любой собственный вектор является обобщенным собственным вектором, поэтому каждое собственное пространство содержится в соответствующем обобщенном собственном пространстве. Это обеспечивает простое доказательство того, что геометрическая кратность всегда меньше или равна алгебраической кратности.
Это использование не следует путать с обобщенной проблемой собственных значений, описанной ниже.
Сопряженный собственный вектор
[ редактировать ]Сопряженный собственный вектор или консобственный вектор — это вектор, передаваемый после преобразования в скаляр, кратный его сопряженному, где скаляр называется сопряженным собственным значением или собственным значением линейного преобразования. Собственные векторы и собственные значения представляют по существу ту же информацию и значение, что и обычные собственные векторы и собственные значения, но возникают, когда используется альтернативная система координат. Соответствующее уравнение Например, в теории когерентного электромагнитного рассеяния линейное преобразование A представляет действие, выполняемое рассеивающим объектом, а собственные векторы представляют состояния поляризации электромагнитной волны. В оптике система координат определяется с точки зрения волны, известная как выравнивание прямого рассеяния (FSA), и приводит к регулярному уравнению собственных значений, тогда как в радаре система координат определяется с точки зрения радара, известная как задняя Выравнивание рассеяния (BSA) и приводит к уравнению собственных значений.
Обобщенная проблема собственных значений
[ редактировать ]Обобщенная проблема собственных значений (второй смысл) - это проблема поиска (ненулевого) вектора v , который подчиняется где A и B — матрицы. Если v подчиняется этому уравнению с некоторым λ , то мы называем v A обобщенным собственным вектором B и . ( во втором смысле), а λ называется обобщенным собственным значением A ) и B (во втором смысле), которое соответствует обобщенному собственному значению A и B (во втором смысле собственный вектор v . Возможные значения λ должны подчиняться следующему уравнению
Если n линейно независимых векторов { v 1 , …, v n } можно найти таких, что для каждого i ∈ {1, …, n } , Av i = λ i Bv i то мы определяем матрицы P и D такие, что Тогда имеет место равенство И доказательство
А поскольку P обратимо, мы умножаем уравнение справа на обратное, завершая доказательство.
Множество матриц вида A − λ B , где λ — комплексное число, называется карандашом ; термин «матричный карандаш» также может относиться к паре ( A , B ) матриц. [14]
Если B обратима, то исходную задачу можно записать в виде что является стандартной проблемой собственных значений. Однако в большинстве ситуаций предпочтительнее не выполнять инверсию, а решать обобщенную проблему собственных значений, как указано изначально. Это особенно важно, если A и B являются эрмитовыми матрицами , так как в этом случае B −1 A, как правило, не является эрмитовым, и важные свойства решения больше не очевидны.
Если A и B оба являются симметричными или эрмитовыми, а B также является положительно определенной матрицей , собственные значения λ i действительны, а собственные векторы v 1 и v 2 с различными собственными значениями являются B -ортогональными ( v 1 * Бв 2 = 0 ). [15] матрица P В этом случае собственные векторы можно выбрать так, чтобы определенная выше удовлетворяла условию или и существует базис обобщенных собственных векторов (это не дефектная задача). [14] Этот случай иногда называют эрмитовым определенным пучком или определенным пучком . [14]
См. также
[ редактировать ]- Возмущение собственных значений
- Ковариант Фробениуса
- Преобразование домохозяина
- Джордан в нормальной форме
- Список матриц
- Разложение матрицы
- Разложение по сингулярным значениям
- Формула Сильвестра
Примечания
[ редактировать ]- ^ Голуб, Джин Х.; Ван Лоан, Чарльз Ф. (1996), Матричные вычисления (3-е изд.), Балтимор: Издательство Университета Джонса Хопкинса , стр. 310, ISBN 978-0-8018-5414-9
- ^ Крейциг, Эрвин (1972), Высшая инженерная математика (3-е изд.), Нью-Йорк: Wiley , стр. 273, ISBN 978-0-471-50728-4
- ^ Неринг, Эвар Д. (1970). Линейная алгебра и теория матриц (2-е изд.). Нью-Йорк: Уайли . п. 270. LCCN 76091646 .
- ^ Хейд, AF; Твид, Д.Р. (2002). Шен, Сильвия С. (ред.). «Наблюдения за взаимосвязью между собственными значениями, шумом прибора и характеристиками обнаружения». Визуализирующая спектрометрия VIII . Труды SPIE. 4816 : 355. Бибкод : 2002SPIE.4816..355H . дои : 10.1117/12.453777 . S2CID 120953647 .
- ^ Твид, ДР; Хайден, А.Ф. (2004). Шен, Сильвия С; Льюис, Пол Э. (ред.). «Уточнение и обобщение расширенного метода обращения ковариационной матрицы путем регуляризации». Визуальная спектрометрия IX . Труды SPIE. 5159 : 299. Бибкод : 2004SPIE.5159..299T . дои : 10.1117/12.506993 . S2CID 123123072 .
- ^ Алер, Грегуар. «Численная линейная алгебра» .
- ^ Хорн и Джонсон 1985 , с. 133, Теорема 2.5.3.
- ^ Jump up to: а б с д Шорс, Томас С. «Прикладная линейная алгебра и матричный анализ» .
- ^ Хорн и Джонсон 1985 , с. 136, следствие 2.5.11.
- ^ Карл Д. Мейер (2023). Матричный анализ и прикладная линейная алгебра (2-е изд.). Общество промышленной и прикладной математики. ISBN 9781611977431 .
- ^ Jump up to: а б с д и ж Трефетен, Ллойд Н .; Строительство, Дэвид (1997). Численная линейная алгебра . СИАМ. ISBN 978-0-89871-361-9 .
- ^ Ипсен, Илзе и Ребекка М. Уиллс, Анализ и расчет PageRank Google , архивировано 21 сентября 2018 г. в Wayback Machine , 7-й Международный симпозиум IMACS по итеративным методам научных вычислений, Институт Филдса, Торонто, Канада, 5–8 мая 2005.
- ^ Квартерони, Альфио ; Сакко, Риккардо; Салери, Фаусто (2000). «раздел 5.8.2». Численная математика . Спрингер. п. 15. ISBN 978-0-387-98959-4 .
- ^ Jump up to: а б с Бай, З.; Деммель, Дж. ; Донгарра, Дж.; Руэ, А.; Ван дер Ворст, Х., ред. (2000). «Обобщенные эрмитовы проблемы собственных значений». Шаблоны для решения алгебраических задач на собственные значения: Практическое руководство . Филадельфия: СИАМ. ISBN 978-0-89871-471-5 . Архивировано из оригинала 21 августа 2010 г. Проверено 9 сентября 2022 г.
- ^ Парлетт, Бересфорд Н. (1998). Симметричная проблема собственных значений (Переиздание. Под ред.). Филадельфия: Общество промышленной и прикладной математики. п. 345. дои : 10.1137/1.9781611971163 . ISBN 978-0-89871-402-9 .
Ссылки
[ редактировать ]- Франклин, Джоэл Н. (1968). Матричная теория . Дуврские публикации. ISBN 978-0-486-41179-8 .
- Хорн, Роджер А.; Джонсон, Чарльз Р. (1985). Матричный анализ . Издательство Кембриджского университета. ISBN 978-0-521-38632-6 .
- Хорн, Роджер А.; Джонсон, Чарльз Р. (1991). Темы матричного анализа . Издательство Кембриджского университета. ISBN 978-0-521-46713-1 .
- Стрэнг, Г. (1998). Введение в линейную алгебру (3-е изд.). Уэлсли-Кембридж Пресс. ISBN 978-0-9614088-5-5 .