Jump to content

Независимый анализ компонентов

В сигналов обработке анализ независимых компонентов ( ICA ) — это вычислительный метод разделения многомерного сигнала на аддитивные подкомпоненты. Это делается путем предположения, что не более одного подкомпонента является гауссовым и что подкомпоненты статистически независимы друг от друга. [1] ICA был изобретен Жанни Эро и Кристианом Юттеном в 1985 году. [2] ICA представляет собой особый случай слепого разделения источников . Типичным примером применения ICA является « проблема коктейльной вечеринки », когда подслушивают речь одного человека в шумной комнате. [3]

Введение

[ редактировать ]
Продолжительность: 21 секунда.
ICA на четырех случайно смешанных видео. [4] Верхний ряд: оригинальные исходные видео. Средний ряд: четыре случайные смеси, используемые в качестве входных данных для алгоритма. Нижний ряд: восстановленные видео.

Анализ независимых компонентов пытается разложить многомерный сигнал на независимые негауссовы сигналы. Например, звук обычно представляет собой сигнал, который состоит из числового сложения в каждый момент времени t сигналов от нескольких источников. Тогда возникает вопрос, можно ли отделить эти способствующие источники от наблюдаемого общего сигнала. Когда предположение о статистической независимости верно, слепое ICA-разделение смешанного сигнала дает очень хорошие результаты. [5] Он также используется для сигналов, которые не должны генерироваться путем смешивания в целях анализа.

Простым применением ICA является « задача коктейльной вечеринки », где основные речевые сигналы отделяются от выборочных данных, состоящих из людей, говорящих одновременно в комнате. Обычно проблему упрощают, предполагая отсутствие временных задержек или эхо. Обратите внимание, что отфильтрованный и задержанный сигнал является копией зависимого компонента, и, таким образом, предположение статистической независимости не нарушается.

Смешивание гирь для построения наблюдаемые сигналы от компоненты могут быть размещены в матрица. Важно учитывать, что если источники присутствуют, по крайней мере наблюдения (например, микрофоны, если наблюдаемый сигнал является аудио) необходимы для восстановления исходных сигналов. При равном количестве наблюдений и сигналов источников матрица смешивания имеет квадратную форму ( ). Другие случаи недоопределения ( ) и переопределенные ( ) были расследованы.

Успех разделения смешанных сигналов ICA зависит от двух предположений и трех эффектов смешивания исходных сигналов. Два предположения:

  1. Исходные сигналы независимы друг от друга.
  2. Значения в каждом исходном сигнале имеют негауссово распределение.

Три эффекта микширования исходных сигналов:

  1. Независимость: Согласно предположению 1, исходные сигналы независимы; однако их смеси сигналов таковыми не являются. Это связано с тем, что смеси сигналов имеют одни и те же исходные сигналы.
  2. Нормальность: Согласно центральной предельной теореме , распределение суммы независимых случайных величин с конечной дисперсией стремится к распределению Гаусса.
    Грубо говоря, сумма двух независимых случайных величин обычно имеет распределение, более близкое к гауссовскому, чем распределение любой из двух исходных переменных. Здесь мы рассматриваем значение каждого сигнала как случайную величину.
  3. Сложность: временная сложность любой смеси сигналов больше, чем у ее простейшего составного исходного сигнала.

Эти принципы способствуют созданию ICA. Если сигналы, извлеченные из набора смесей, независимы и имеют негауссово распределение или имеют низкую сложность, то они должны быть исходными сигналами. [6] [7]

Определение независимости компонентов

[ редактировать ]

ICA находит независимые компоненты (также называемые факторами, скрытыми переменными или источниками) путем максимизации статистической независимости оцениваемых компонентов. Мы можем выбрать один из многих способов определения прокси-сервера независимости, и этот выбор определяет форму алгоритма ICA. Два самых широких определения независимости ICA:

  1. Минимизация взаимной информации
  2. Максимизация негауссовости

минимизации взаимной информации Семейство алгоритмов ICA (MMI) использует такие меры, как дивергенция Кульбака-Лейблера и максимальная энтропия . Семейство негауссовости алгоритмов ICA, основанное на центральной предельной теореме , использует эксцесс и негэнтропию . [8]

Типичные алгоритмы ICA используют центрирование (вычитание среднего значения для создания сигнала с нулевым средним значением), отбеливание (обычно с разложением по собственным значениям ) и уменьшение размерности в качестве этапов предварительной обработки, чтобы упростить и уменьшить сложность проблемы для реального итерационного алгоритма. Отбеливания и уменьшения размеров можно добиться с помощью анализа главных компонентов или разложения по сингулярным значениям . обрабатываются одинаково Отбеливание гарантирует, что все измерения априори перед запуском алгоритма. К хорошо известным алгоритмам ICA относятся, среди прочего, infomax , FastICA , JADE и независимый от ядра анализ компонентов . В общем, ICA не может определить фактическое количество исходных сигналов, однозначно правильный порядок исходных сигналов или правильное масштабирование (включая знак) исходных сигналов.

ICA важен для слепого разделения сигналов и имеет множество практических применений. Это тесно связано (или даже является частным случаем) с поиском факториального кода данных, т. е. нового векторного представления каждого вектора данных, которое однозначно кодируется результирующим кодовым вектором (без потерь). кодирование), но компоненты кода статистически независимы.

Математические определения

[ редактировать ]

Линейный анализ независимых компонентов можно разделить на бесшумный и шумный случаи, где бесшумный ICA является частным случаем шумного ICA. Нелинейный ICA следует рассматривать как отдельный случай.

Общее определение

[ редактировать ]

Данные представлены наблюдаемым случайным вектором и скрытые компоненты как случайный вектор Задача — преобразовать наблюдаемые данные используя линейное статическое преобразование как в вектор максимально независимых компонент измеряется некоторой функцией независимости.

Генеративная модель

[ редактировать ]

Линейный бесшумный ICA

[ редактировать ]

Компоненты наблюдаемого случайного вектора генерируются как сумма независимых компонентов , :

взвешивается по весу смешивания .

Ту же генеративную модель можно записать в векторной форме как , где наблюдаемый случайный вектор представлена ​​базисными векторами . Базисные векторы сформировать столбцы матрицы смешивания и порождающую формулу можно записать как , где .

Учитывая модель и реализации (образцы) случайного вектора , задача состоит в том, чтобы оценить как матрицу смешивания и источники . Это достигается путем адаптивного расчета векторов и настройку функции стоимости, которая либо максимизирует негауссовость рассчитанных или минимизирует взаимную информацию. В некоторых случаях в функции стоимости можно использовать априорные знания о распределениях вероятностей источников.

Первоначальные источники можно восстановить путем умножения наблюдаемых сигналов с обратной матрицей смешивания , также известная как матрица несмешивания. Здесь предполагается, что матрица смешивания квадратная ( ). Если количество базисных векторов больше размерности наблюдаемых векторов, , задача является сверхполной, но все еще разрешима псевдообратной .

Линейный шумный ICA

[ редактировать ]

С добавленным предположением о нулевом среднем и некоррелированном гауссовском шуме , модель ICA принимает вид .

Нелинейный ICA

[ редактировать ]

Смешение источников не обязательно должно быть линейным. Использование функции нелинейного смешивания с параметрами модель ICA нелинейная .

Идентифицируемость

[ редактировать ]

Независимые компоненты идентифицируются с точностью до перестановки и масштабирования источников. [9] Эта идентифицируемость требует, чтобы:

  • Максимум один из источников является гауссовским,
  • Количество наблюдаемых смесей, , должно быть не меньше количества оцениваемых компонентов : . Это эквивалентно тому, что матрица смешивания должен иметь полный ранг , чтобы существовало обратное.

Бинарный ICA

[ редактировать ]

Особым вариантом ICA является бинарный ICA, в котором как источники сигналов, так и мониторы имеют двоичную форму, а наблюдения с мониторов представляют собой дизъюнктивную смесь бинарных независимых источников. Было показано, что проблема находит применение во многих областях, включая медицинскую диагностику , многокластерное задание , сетевую томографию и управление интернет-ресурсами .

Позволять быть набором двоичных переменных из мониторы и быть набором двоичных переменных из источники. Соединения источник-монитор представлены (неизвестной) матрицей микширования. , где указывает, что сигнал от i -го источника может наблюдаться j -м монитором. Система работает следующим образом: в любой момент, если источник активен ( ) и он подключен к монитору ( ) затем монитор будет наблюдать некоторую активность( ). Формально имеем:

где является логическим И и является логическим ИЛИ. Шум не моделируется явно, а скорее может рассматриваться как независимый источник.

Вышеуказанную задачу можно решить эвристически. [10] предполагая, что переменные непрерывны, и запуская FastICA на двоичных данных наблюдений, чтобы получить матрицу смешивания (реальные значения), затем примените округления чисел к методы для получения двоичных значений. Было показано, что этот подход дает весьма неточный результат. [ нужна ссылка ]

Другой метод — использовать динамическое программирование : рекурсивное разбиение матрицы наблюдения. в свои подматрицы и запустите алгоритм вывода на этих подматрицах. Ключевым наблюдением, которое приводит к этому алгоритму, является подматрица из где соответствует несмещенной матрице наблюдения скрытых компонентов, не имеющих связи с -й монитор. Экспериментальные результаты [11] показывают, что этот подход точен при умеренных уровнях шума.

Структура обобщенного двоичного ICA [12] представляет более широкую формулировку проблемы, которая не требует каких-либо знаний о генеративной модели. Другими словами, этот метод пытается разложить источник на его независимые компоненты (насколько это возможно и без потери какой-либо информации) без предварительного предположения о том, как он был сгенерирован. Хотя эта проблема кажется довольно сложной, ее можно точно решить с помощью алгоритма дерева поиска ветвей и границ или с жесткой верхней границей с помощью однократного умножения матрицы на вектор.

Методы слепого разделения источников

[ редактировать ]

Погоня за проекцией

[ редактировать ]

Смеси сигналов имеют тенденцию иметь гауссовские функции плотности вероятности, а сигналы источника имеют тенденцию иметь негауссовы функции плотности вероятности. Каждый исходный сигнал можно извлечь из набора смесей сигналов, взяв внутренний продукт весового вектора и тех смесей сигналов, где этот внутренний продукт обеспечивает ортогональную проекцию смесей сигналов. Оставшаяся задача — найти такой весовой вектор. Одним из методов достижения этой цели является преследование проекций . [13] [14]

Поиск проекций ищет одну проекцию за раз, чтобы извлеченный сигнал был как можно более негауссовым. Это контрастирует с ICA, который обычно извлекает M сигналов одновременно из M смесей сигналов, что требует оценки M × M. матрицы несмешивания Одним из практических преимуществ поиска проекций по сравнению с ICA является то, что при необходимости можно извлечь меньше, чем M сигналов, при этом каждый исходный сигнал извлекается из M смесей сигналов с использованием M -элементного весового вектора.

Мы можем использовать эксцесс для восстановления сигнала от нескольких источников, находя правильные весовые векторы с использованием поиска проекций.

Эксцесс функции плотности вероятности сигнала для конечной выборки вычисляется как

где является выборочным средним значением , извлеченные сигналы. Константа 3 гарантирует, что гауссовские сигналы имеют нулевой эксцесс, супергауссовские сигналы имеют положительный эксцесс, а субгауссовские сигналы имеют отрицательный эксцесс. Знаменатель – дисперсия это и гарантирует, что измеренный эксцесс учитывает дисперсию сигнала. Цель преследования проекции — максимизировать эксцесс и сделать извлеченный сигнал как можно более ненормальным.

Используя эксцесс как меру ненормальности, мы теперь можем изучить, как эксцесс сигнала извлечено из набора M смесей меняется как весовой вектор вращается вокруг начала координат. Учитывая наше предположение, что каждый исходный сигнал является супергауссовым, мы ожидаем:

  1. эксцесс извлеченного сигнала быть максимальным именно тогда, когда .
  2. эксцесс извлеченного сигнала быть максимальным, когда ортогонален проецируемым осям или , поскольку мы знаем, что оптимальный весовой вектор должен быть ортогональным преобразованной оси или .

Для сигналов смеси из нескольких источников мы можем использовать эксцесс и ортогонализацию Грама-Шмидта (GSO) для восстановления сигналов. Учитывая M смеси сигналов в M -мерном пространстве, GSO проецирует эти точки данных на ( M-1 )-мерное пространство, используя весовой вектор. Мы можем гарантировать независимость извлеченных сигналов с использованием ГСО.

Чтобы найти правильное значение , мы можем использовать метод градиентного спуска . Мы в первую очередь отбеливаем данные и преобразуем в новую смесь , который имеет единичную дисперсию, и . Этого процесса можно достичь, применив разложение по сингулярным значениям к ,

Изменение масштаба каждого вектора , и пусть . Сигнал, извлеченный взвешенным вектором является . Если весовой вектор w имеет единичную длину, то дисперсия y также равна 1, то есть . Таким образом, эксцесс можно записать как:

Процесс обновления для является:

где небольшая константа, гарантирующая, что сходится к оптимальному решению. После каждого обновления нормализуем , и установите и повторяйте процесс обновления до достижения сходимости. Мы также можем использовать другой алгоритм для обновления вектора весов. .

Другой подход – использование негэнтропии. [8] [15] вместо эксцесса. Использование негэнтропии является более надежным методом, чем эксцесс, поскольку эксцесс очень чувствителен к выбросам. Методы негэнтропии основаны на важном свойстве распределения Гаусса: гауссова переменная имеет наибольшую энтропию среди всех непрерывных случайных величин с равной дисперсией. Это также причина, по которой мы хотим найти наиболее негауссовы переменные. Простое доказательство можно найти в Дифференциальной энтропии .

y — гауссова случайная величина той же ковариационной матрицы, что и x.

Приближение негэнтропии:

Доказательство можно найти в оригинальных статьях Комона; [16] [8] он был воспроизведен в книге « Независимый анализ компонентов» Аапо Хиваринена, Юхи Кархунен и Эркки Оя. [17] Это приближение также страдает той же проблемой, что и эксцесс (чувствительность к выбросам). Были разработаны и другие подходы. [18]

Выбор и являются

и

По материалам Инфомакса

[ редактировать ]

Инфомакс ИЦА [19] по сути, это многомерная параллельная версия проекционного преследования. В то время как поиск проекций извлекает по одному ряду сигналов из набора M смесей сигналов, ICA извлекает M сигналов параллельно. Это делает ICA более надежным, чем поиск прогнозов. [20]

Метод преследования проекции использует ортогонализацию Грама-Шмидта для обеспечения независимости извлеченного сигнала, в то время как ICA использует информациюмакс и оценку максимального правдоподобия для обеспечения независимости извлеченного сигнала. Ненормальность извлеченного сигнала достигается путем назначения соответствующей модели или предшествующей модели для сигнала.

процесс ICA на основе infomax : задан набор смесей сигналов. Вкратце и набор идентичных независимых моделей кумулятивных функций распределения (cdfs) , ищем матрицу расмешивания который максимизирует совместную энтропию сигналов , где сигналы, извлекаемые . Учитывая оптимальную , сигналы имеют максимальную энтропию и, следовательно, независимы, что гарантирует, что извлеченные сигналы также независимы. — обратимая функция и модель сигнала. модели исходного сигнала Обратите внимание, что если функция плотности вероятности соответствует функции плотности вероятности извлеченного сигнала , затем максимизируя совместную энтропию также максимизирует объем взаимной информации между и . По этой причине использование энтропии для извлечения независимых сигналов известно как инфомакс .

Рассмотрим энтропию векторной переменной , где - это набор сигналов, извлеченных матрицей несмешивания . Для конечного набора значений, выбранных из распределения с помощью pdf , энтропия можно оценить как:

Совместный PDF-файл можно показать, что это связано с совместным PDF-файлом выделенных сигналов в многомерной форме:

где матрица Якобиана . У нас есть , и предполагается ли PDF-файл для исходных сигналов , поэтому,

поэтому,

Мы знаем, что когда , имеет равномерное распределение и максимизируется. С

где - абсолютное значение определителя матрицы несмешивания . Поэтому,

так,

с и максимизация не влияет , поэтому мы можем максимизировать функцию

для достижения независимости извлекаемого сигнала.

Если есть M маргинальных PDF-файлов модели совместного PDF-файла независимы и используют обычно супергауссову модель pdf для исходных сигналов. , тогда мы имеем

В сумме, учитывая наблюдаемую смесь сигналов , соответствующий набор извлеченных сигналов и модель исходного сигнала , мы можем найти оптимальную матрицу несмешивания и сделать извлеченные сигналы независимыми и негауссовыми. Как и в случае с преследованием проекции, мы можем использовать метод градиентного спуска, чтобы найти оптимальное решение матрицы несмешивания.

На основе оценки максимального правдоподобия

[ редактировать ]

максимального правдоподобия Оценка (MLE) — это стандартный статистический инструмент для поиска значений параметров (например, матрица несмешивания ), которые обеспечивают наилучшее соответствие некоторых данных (например, извлеченных сигналов ) к данной модели (например, предполагаемой совместной функции плотности вероятности (pdf) исходных сигналов). [20]

«Модель» ML . включает спецификацию PDF-файла, который в данном случае является PDF-файлом сигналов неизвестного источника . использования ML ICA — найти матрицу несмешивания, которая дает извлеченные сигналы. Цель с совместным pdf, максимально похожим на совместный pdf сигналов неизвестного источника .

Таким образом, MLE основан на предположении, что если модель pdf и параметры модели верны, то для данных должна быть получена высокая вероятность которые действительно наблюдались. И наоборот, если далека от правильных значений параметров, то можно ожидать низкую вероятность наблюдаемых данных.

Используя MLE , мы называем вероятность наблюдаемых данных для заданного набора значений параметров модели (например, PDF-файла) и матрица ) вероятность значений параметров модели с учетом наблюдаемых данных.

Определим правдоподобия функцию из :

Это равно плотности вероятности при , с .

Таким образом, если мы хотим найти это, скорее всего, привело к образованию наблюдаемых смесей из сигналов неизвестного источника с PDF тогда нам нужно только найти это что максимизирует вероятность . Матрица несмешивания, которая максимизирует уравнение, известна как MLE оптимальной матрицы несмешивания.

Обычной практикой является использование логарифма правдоподобия , потому что его легче оценить. Поскольку логарифм является монотонной функцией, которая максимизирует функцию также максимизирует свой логарифм . Это позволяет нам логарифмировать приведенное выше уравнение, что дает логарифмическую правдоподобия функцию .

широко используемой моделью pdf с высоким эксцессом Если мы заменим исходные сигналы тогда у нас есть

Эта матрица которая максимизирует эту функцию, является максимального правдоподобия оценкой .

История и предыстория

[ редактировать ]

Ранняя общая основа анализа независимых компонентов была представлена ​​Жанни Эро и Бернаром Ансом в 1984 году. [21] дальнейшее развитие Кристиана Юттена в 1985 и 1986 годах, [2] [22] [23] и усовершенствован Пьером Комоном в 1991 году. [16] и популяризирован в его статье 1994 года. [8] В 1995 году Тони Белл и Терри Сейновски представили быстрый и эффективный алгоритм ICA, основанный на infomax — принципе, представленном Ральфом Линскером в 1987 году. Интересную связь между подходами ML и Infomax можно найти в . [24] Достаточно подробное руководство по подходу ML было опубликовано JF.Cardoso в 1998 году. [25]

В литературе доступно множество алгоритмов, реализующих ICA. Широко используемым, в том числе в промышленных приложениях, является алгоритм FastICA, разработанный Хивариненом и Оя. [26] который использует негэнтропию в качестве функции стоимости, уже предложенную 7 лет назад Пьером Комоном в этом контексте. [8] Другие примеры скорее связаны со слепым разделением источников , где используется более общий подход. Например, можно отказаться от предположения о независимости и разделить взаимно коррелированные сигналы, то есть статистически «зависимые» сигналы. Зепп Хохрайтер и Юрген Шмидхубер показали, как получить нелинейный ICA или разделение источников как побочный продукт регуляризации (1999). [27] Их метод не требует априорных знаний о количестве независимых источников.

Приложения

[ редактировать ]

ICA можно расширить для анализа нефизических сигналов. Например, ICA применялся для обнаружения тем обсуждения в пакете архивов списков новостей.

Некоторые приложения ICA перечислены ниже: [6]

Независимый анализ компонентов в EEGLAB
  • оптическая визуализация нейронов [28]
  • сортировка нейронных спайков [29]
  • распознавание лиц [30]
  • моделирование рецептивных полей первичных зрительных нейронов [31]
  • прогнозирование цен на фондовом рынке [32]
  • мобильная телефонная связь [33]
  • определение спелости томатов по цвету [34]
  • удаление артефактов, таких как моргание глаз, из ЭЭГ . данных [35]
  • прогнозирование принятия решений с помощью ЭЭГ [36]
  • анализ изменений экспрессии генов с течением времени в одноклеточной экспериментах по секвенированию РНК . [37]
  • исследования сети состояния покоя мозга. [38]
  • астрономия и космология [39]
  • финансы [40]

Доступность

[ редактировать ]

ICA можно применять с помощью следующего программного обеспечения:

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ «Независимый анализ компонентов: демонстрация» .
  2. ^ Перейти обратно: а б Анс Б., Эро Ж. и Юттен К. (1985). Адаптивные нейромиметические архитектуры: обнаружение примитивов. Когнитива 85 (Том 2, стр. 593-597). Париж: СЕСТА.
  3. ^ Хюваринен, Аапо (2013). «Независимый компонентный анализ: последние достижения» . Философские труды: математические, физические и технические науки . 371 (1984): 20110534. Бибкод : 2012RSPTA.37110534H . дои : 10.1098/rsta.2011.0534 . ISSN   1364-503X . JSTOR   41739975 . ПМЦ   3538438 . ПМИД   23277597 .
  4. ^ Исомура, Такуя; Тойоидзуми, Таро (2016). «Правило локального обучения для независимого анализа компонентов» . Научные отчеты . 6 : 28073. Бибкод : 2016NatSR...628073I . дои : 10.1038/srep28073 . ПМЦ   4914970 . ПМИД   27323661 .
  5. ^ Комон, П.; Юттен К. (2010): Справочник по слепому разделению источников, независимому анализу компонентов и приложениям. Академическое издательство, Оксфорд, Великобритания. ISBN   978-0-12-374726-6
  6. ^ Перейти обратно: а б Стоун, Джеймс В. (2004). Анализ независимых компонентов: введение в учебное пособие . Кембридж, Массачусетс: MIT Press. ISBN  978-0-262-69315-8 .
  7. ^ Хюваринен, Аапо; Кархунен, Юха; Оя, Эркки (2001). Независимый компонентный анализ (1-е изд.). Нью-Йорк: Джон Уайли и сыновья. ISBN  978-0-471-22131-9 .
  8. ^ Перейти обратно: а б с д и Пьер Комон (1994) Независимый анализ компонентов – новая концепция? http://www.ece.ucsb.edu/wcsl/courses/ECE594/594C_F10Madhow/comon94.pdf
  9. ^ Теорема 11, Комон, Пьер. «Независимый анализ компонентов, новая концепция?» Обработка сигналов 36.3 (1994): 287-314.
  10. ^ Йохан Химберганд Аапо Хиваринен, Анализ независимых компонентов двоичных данных: экспериментальное исследование , Proc. Межд. Семинар по независимому анализу компонентов и слепому разделению сигналов (ICA2001), Сан-Диего, Калифорния, 2001 г.
  11. ^ Хуй Нгуен и Ронг Чжэн, Анализ двоичных независимых компонентов с использованием или смесями , Транзакции IEEE по обработке сигналов, Vol. 59, выпуск 7. (июль 2011 г.), стр. 3168–3181.
  12. ^ Паинский, Амихай; Россе, Сахарон; Федер, Меир (2014). «Обобщенный бинарный анализ независимых компонентов». Международный симпозиум IEEE по теории информации , 2014 г. стр. 1326–1330. дои : 10.1109/ISIT.2014.6875048 . ISBN  978-1-4799-5186-4 . S2CID   18579555 .
  13. ^ Джеймс В. Стоун (2004); «Независимый анализ компонентов: введение в учебное пособие», MIT Press Cambridge, Массачусетс, Лондон, Англия; ISBN   0-262-69315-1
  14. ^ Краскал, Дж.Б. 1969 год; «На пути к практическому методу, который помогает раскрыть структуру набора наблюдений путем нахождения преобразования линии, которое оптимизирует новый «индекс конденсации», страницы 427–440 из: Милтон, Р.К., и Нелдер, Дж.А. (ред.), Статистические вычисления. Нью-Йорк, Академик Пресс;
  15. ^ Хюваринен, Аапо; Эркки Оя (2000). «Независимый анализ компонентов: алгоритмы и приложения». Нейронные сети . 4-5. 13 (4–5): 411–430. CiteSeerX   10.1.1.79.7003 . дои : 10.1016/s0893-6080(00)00026-5 . ПМИД   10946390 . S2CID   11959218 .
  16. ^ Перейти обратно: а б П.Комон, Независимый анализ компонентов, Семинар по статистике высшего порядка, июль 1991 г., переиздано в JL. Лакум, редактор журнала «Статистика высшего порядка», стр. 29–38. Elsevier, Амстердам, Лондон, 1992. Ссылка HAL .
  17. ^ Хюваринен, Аапо; Кархунен, Юха; Оя, Эркки (2001). Независимый анализ компонентов (переиздание). Нью-Йорк, штат Нью-Йорк: Уайли. ISBN  978-0-471-40540-5 .
  18. ^ Хиваринен, Аапо (1998). «Новые приближения дифференциальной энтропии для независимого анализа компонентов и поиска прогнозов». Достижения в области нейронных систем обработки информации . 10 : 273–279.
  19. ^ Белл, AJ; Сейновский, Т.Дж. (1995). «Подход к слепому разделению и слепой деконволюции, основанный на максимизации информации», Neural Computation, 7, 1129–1159.
  20. ^ Перейти обратно: а б Джеймс В. Стоун (2004). «Независимый анализ компонентов: введение в учебное пособие», MIT PressКембридж, Массачусетс, Лондон, Англия; ISBN   0-262-69315-1
  21. ^ Эро, Ж.; Анс, Б. (1984). «Нейронная сеть с модифицируемыми синапсами: декодирование сложных сенсорных сообщений путем постоянного обучения без присмотра». Доклады Академии наук, серия III . 299 : 525–528.
  22. ^ Эро, Дж., Юттен, К., и Анс, Б. (1985). Обнаружение примитивных величин в составном сообщении с помощью нейромиметической вычислительной архитектуры при обучении без учителя. Материалы 10-го семинара «Обработка сигналов и ее приложения» (т. 2, стр. 1017-1022). Ницца (Франция): ГРЕТСИ.
  23. ^ Эро, Дж., и Юттен, К. (1986). Адаптивная к пространству или времени обработка сигналов с помощью моделей нейронных сетей. Стажер. Конф. о нейронных сетях для вычислений (стр. 206–211). Снежная птица (Юта, США).
  24. ^ JF.Cardoso, «Infomax и максимальная вероятность разделения источников», IEEE Sig. Учеб. Письма, 1997, 4(4):112-114.
  25. ^ Дж. Ф. Кардозо, «Слепое разделение сигналов: статистические принципы», Proc. IEEE, 1998, 90(8):2009-2025.
  26. ^ Хюваринен, А.; Оджа, Э. (1 июня 2000 г.). «Независимый компонентный анализ: алгоритмы и приложения» (PDF) . Нейронные сети . 13 (4): 411–430. дои : 10.1016/S0893-6080(00)00026-5 . ISSN   0893-6080 . ПМИД   10946390 . S2CID   11959218 .
  27. ^ Хохрейтер, Зепп; Шмидхубер, Юрген (1999). «Извлечение функций с помощью LOCOCODE» (PDF) . Нейронные вычисления . 11 (3): 679–714. дои : 10.1162/089976699300016629 . ISSN   0899-7667 . ПМИД   10085426 . S2CID   1642107 . Проверено 24 февраля 2018 г.
  28. ^ Браун, Джорджия; Ямада, С; Сейновский, Т.Дж. (2001). «Анализ независимых компонентов на нейрококтейле». Тенденции в нейронауках . 24 (1): 54–63. дои : 10.1016/s0166-2236(00)01683-0 . ПМИД   11163888 . S2CID   511254 .
  29. ^ Левицкий, М.С. (1998). «Обзор методов сортировки спайков: обнаружение и классификация нейронных потенциалов действия». Сеть: Вычисления в нейронных системах . 9 (4): 53–78. дои : 10.1088/0954-898X_9_4_001 . S2CID   10290908 .
  30. ^ Барлетт, М.С. (2001). Анализ изображения лица методом обучения без учителя . Бостон: Международная серия Kluwer по инженерии и информатике.
  31. ^ Белл, Эй Джей; Сейновский, Т.Дж. (1997). «Независимыми компонентами природных сцен являются краевые фильтры» . Исследование зрения . 37 (23): 3327–3338. дои : 10.1016/s0042-6989(97)00121-1 . ПМЦ   2882863 . ПМИД   9425547 .
  32. ^ Назад, А.Д.; Вейгенд, А.С. (1997). «Первое применение независимого анализа компонентов для определения структуры доходности акций» . Международный журнал нейронных систем . 8 (4): 473–484. дои : 10.1142/s0129065797000458 . ПМИД   9730022 . S2CID   872703 .
  33. ^ Хиваринен А., Кархунен Дж. и Оя Э. (2001a). Независимый компонентный анализ . Нью-Йорк: Джон Уайли и сыновья. {{cite book}}: CS1 maint: несколько имен: список авторов ( ссылка )
  34. ^ Польдер, Г; ван дер Хейен, FWAM (2003). «Оценка распределения соединений на спектральных изображениях томатов с использованием независимого компонентного анализа». Австрийское компьютерное общество : 57–64.
  35. ^ Делорм, А; Сейновский, Т; Макейг, С. (2007). «Усовершенствованное обнаружение артефактов в данных ЭЭГ с использованием статистики высшего порядка и анализа независимых компонентов» . НейроИмидж . 34 (4): 1443–1449. doi : 10.1016/j.neuroimage.2006.11.004 . ПМЦ   2895624 . ПМИД   17188898 .
  36. ^ Дуглас, П. (2013). «Однократное пробное декодирование принятия решений по убеждению на основе данных ЭЭГ и фМРТ с использованием функций независимых компонентов» . Границы человеческой неврологии . 7 : 392. дои : 10.3389/fnhum.2013.00392 . ПМЦ   3728485 . ПМИД   23914164 .
  37. ^ Трапнелл, К; Качкьярелли, Д; Гримсби, Дж (2014). «Динамика и регуляторы решений клеточной судьбы раскрываются посредством псевдовременного упорядочения отдельных клеток» . Природная биотехнология . 32 (4): 381–386. дои : 10.1038/nbt.2859 . ПМЦ   4122333 . ПМИД   24658644 .
  38. ^ Кивиниеми, Веса Дж.; Кантола, Юха-Хейкки; Яухиайнен, Юкка; Хюваринен, Аапо; Тервонен, Осмо (2003). «Независимый компонентный анализ недетерминированных источников сигналов фМРТ». НейроИмидж . 19 (2): 253–260. дои : 10.1016/S1053-8119(03)00097-1 . ПМИД   12814576 . S2CID   17110486 .
  39. ^ Ван, Цзинъин; Гу, Цзюньхуа; Ли, Цзяньсюнь; Чжэн, Цян-Пин (01.11.2010 г.) . Отдельные яркие скопления галактик из низкочастотного радионеба?" . The Astrophysical Journal . 723 (1): 620–633. arXiv : 1008.3391 . Bibcode : 2010ApJ...723..620W . doi : 10.1088/0004-637X/ 723/1/620 . ISSN   0004-637X
  40. ^ Моро, Франк; Вилла, Кристоф (2003). «Динамика временной структуры процентных ставок: независимый компонентный анализ». Коннекционистские подходы в экономике и управленческих науках . Достижения в области вычислительного управления. Том. 6. С. 215–232. дои : 10.1007/978-1-4757-3722-6_11 . ISBN  978-1-4757-3722-6 .
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 4b0fbef82c676af1e449c1c44abcd27f__1722387360
URL1:https://arc.ask3.ru/arc/aa/4b/7f/4b0fbef82c676af1e449c1c44abcd27f.html
Заголовок, (Title) документа по адресу, URL1:
Independent component analysis - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)