собственный момент
![]() | Эта статья предоставляет недостаточный контекст для тех, кто не знаком с предметом . ( июнь 2022 г. ) |

Собственные моменты [1] представляет собой набор ортогональных , устойчивых к шуму, инвариантных к вращению, масштабированию, перемещению и чувствительным к распределению моментов . Их применение можно найти в обработке сигналов и компьютерном зрении в качестве дескрипторов сигнала или изображения. Дескрипторы позже можно использовать для целей классификации .
Оно получается путем ортогонализации посредством анализа собственных геометрических моментов . [2]
Краткое изложение структуры
[ редактировать ]Собственные моменты вычисляются путем выполнения собственного анализа в пространстве моментов изображения путем максимизации отношения сигнал/шум в пространстве признаков в форме коэффициента Рэлея .
Этот подход имеет несколько преимуществ в приложениях обработки изображений:
- Зависимость моментов в моментном пространстве от распределения преобразуемых изображений обеспечивает декорреляцию конечного пространства признаков после анализа собственных значений на моментном пространстве.
- Способность EigenMoments учитывать распространение изображения делает его более универсальным и адаптируемым под разные жанры.
- Сгенерированные ядра моментов ортогональны, и поэтому анализ моментного пространства становится проще. Преобразование с ортогональными моментными ядрами в моментное пространство аналогично проецированию изображения на несколько ортогональных осей.
- Нусий компоненты можно удалить. Это делает EigenMoments надежным для приложений классификации.
- Можно получить оптимальное уплотнение информации, и поэтому для характеристики изображений требуется несколько моментов.
Формулировка задачи
[ редактировать ]Предположим, что вектор сигнала берется из определенного распределения, имеющего корреляцию , то есть где E[.] обозначает ожидаемое значение.
Размерность пространства сигналов n часто слишком велика, чтобы быть полезной для практического применения, такого как классификация шаблонов. Нам необходимо преобразовать пространство сигналов в пространство с меньшей размерностью.
Это осуществляется двухэтапным линейным преобразованием:
где преобразованный сигнал, фиксированная матрица преобразования, которая преобразует сигнал в пространство моментов, и матрица преобразования, которую мы собираемся определить путем максимизации SNR пространства признаков, находящегося в . В случае геометрических моментов X будет мономом. Если , результатом будет преобразование полного ранга, однако обычно мы имеем и . Это особенно актуально, когда имеет большие размеры.
Нахождение это максимизирует SNR пространства признаков:
где N – корреляционная матрица шумового сигнала. Таким образом, проблему можно сформулировать как
с учетом ограничений:
где это дельта Кронекера .
Можно заметить, что эта максимизация представляет собой фактор Рэлея, если позволить и и поэтому может быть записано как:
,
коэффициент Рэлея
[ редактировать ]Оптимизация коэффициента Рэлея [3] [4] имеет форму:
и и , оба симметричны и положительно определена и, следовательно, обратима .Масштабирование не меняет значение объектной функции и, следовательно, дополнительного скалярного ограничения может быть наложен на и ни одно решение не будет потеряно при оптимизации целевой функции.
Эту проблему оптимизации ограничений можно решить с помощью множителя Лагранжа :
при условии
приравнивая первую производную нулю, мы будем иметь:
что является примером обобщенной проблемы собственных значений (GEP).ГЭП имеет вид:
для любой пары это решение приведенного выше уравнения, называется обобщенным собственным вектором и называется обобщенным собственным значением .
Нахождение и то, что удовлетворяет этим уравнениям, даст результат, который оптимизирует коэффициент Рэлея .
Одним из способов максимизации коэффициента Рэлея является решение обобщенной проблемы собственных чисел . Уменьшение размеров можно выполнить, просто выбрав первые компоненты. , , с самыми высокими значениями для из компоненты, а остальные выбросьте. Интерпретация этого преобразования заключается в повороте и масштабировании моментного пространства, преобразовании его в пространство признаков с максимальным ОСШ и, следовательно, первым компоненты — это компоненты с самым высоким Значения ОСШ .
Другой способ взглянуть на это решение — использовать концепцию одновременной диагонализации вместо обобщенной проблемы собственных чисел .
Одновременная диагонализация
[ редактировать ]- Позволять и как упоминалось ранее. Мы можем написать как две отдельные матрицы преобразования:
- можно найти, сначала диагонализовав B:
.
Где — диагональная матрица, отсортированная в порядке возрастания. С положительно определен, поэтому . Мы можем отбросить те собственные значения , которые большие, и сохранить те, которые близки к 0, поскольку это означает, что энергия шума в этом пространстве близка к 0. На этом этапе также можно отбросить те собственные векторы , которые имеют большие собственные значения .
Позволять будь первым столбцы , сейчас где это главная подматрица .
- Позволять
и следовательно:
.
отбеливать и уменьшает размерность с к . Преобразованное пространство занимало называется шумовым пространством.
- Затем диагонализуем :
,
где . – матрица с собственными значениями на его диагонали. Мы можем сохранить все собственные значения и соответствующие им собственные векторы, поскольку большая часть шума уже отброшена на предыдущем шаге.
- Наконец, преобразование определяется следующим образом:
где диагонализует как числитель, так и знаменатель SNR ,
, и преобразование сигнала определяется как .
Потеря информации
[ редактировать ]Чтобы найти потерю информации, когда мы отбрасываем некоторые собственные значения и собственные векторы, мы можем выполнить следующий анализ:
собственный момент
[ редактировать ]Собственные моменты получаются путем применения описанной выше схемы к геометрическим моментам. Их можно получить как для 1D, так и для 2D сигналов.
1D-сигнал
[ редактировать ]Если мы позволим , т.е. мономы , после преобразования получаем геометрические моменты, обозначаемые вектором , сигнала , то есть .
На практике оценить корреляционный сигнал сложно из-за недостаточного количества выборок, поэтому используются параметрические подходы.
Одну такую модель можно определить как:
,

где . Эту модель корреляции можно заменить другими моделями, однако эта модель охватывает общие природные изображения.
С не влияет на максимизацию, его можно удалить.
Корреляцию шума можно смоделировать как , где – энергия шума. Снова можно отбросить, поскольку константа не оказывает никакого влияния на задачу максимизации.
Используя вычисленные значения A и B и применяя алгоритм, обсуждавшийся в предыдущем разделе, мы находим и множество преобразованных мономов который производит моментные ядра EM. Моментные ядра ЭМ декоррелируют корреляцию на изображении.
,
и ортогональны:
Пример расчета
[ редактировать ]принимая , размерность моментного пространства как и размерность пространства признаков как , у нас будет:
и
2D-сигнал
[ редактировать ]Вывод для 2D-сигнала такой же, как и для 1D-сигнала, за исключением того, что обычные геометрические моменты напрямую используются для получения набора 2D-собственных моментов.
Определение геометрических моментов порядка для сигнала 2D-изображения:
.
который можно обозначить как . Тогда набор 2D EigenMoments:
,
где — это матрица, содержащая набор EigenMoments.
.
Инварианты собственного момента (EMI)
[ редактировать ]Чтобы получить набор моментных инвариантов, мы можем использовать нормированные геометрические моменты. вместо .
Нормализованные геометрические моменты инвариантны к вращению, масштабированию и преобразованию и определяются следующим образом:
где: это центр тяжести изображения и
.
в этом уравнении является коэффициентом масштабирования, зависящим от изображения. обычно устанавливается равным 1 для двоичных изображений.
См. также
[ редактировать ]Ссылки
[ редактировать ]- ^ Пью-Тиан Яп, Равендран Парамесран, Собственные моменты, Распознавание образов, Том 40, Выпуск 4, апрель 2007 г., страницы 1234-1244, ISSN 0031-3203, 10.1016/j.patcog.2006.07.003.
- ^ МК Ху, «Визуальное распознавание образов по моментным инвариантам», IRE Trans. Информация. Теория, том. ИТ-8, стр. 179–187, 1962 г.
- ^ Т. Де Би, Н. Кристианини, Р. Розипал, Собственные проблемы вРаспознавание образов, в: Э. Байро-Коррочано (ред.), Справочник поВычислительная геометрия для распознавания образов, компьютерного зрения,Нейрокомпьютеры и робототехника, Springer, Гейдельберг, 2004G.
- ^ Стрэнг, Линейная алгебра и ее приложения, второе изд., АкадемическийПресс, Нью-Йорк, 1980.