Независимый анализ компонентов
Эта статья нуждается в дополнительных цитатах для проверки . ( октябрь 2011 г. ) |
Часть серии о |
Машинное обучение и интеллектуальный анализ данных |
---|
В сигналов обработке анализ независимых компонентов ( ICA ) — это вычислительный метод разделения многомерного сигнала на аддитивные подкомпоненты. Это делается путем предположения, что не более одного подкомпонента является гауссовым и что подкомпоненты статистически независимы друг от друга. [1] ICA был изобретен Жанни Эро и Кристианом Юттеном в 1985 году. [2] ICA представляет собой особый случай слепого разделения источников . Типичным примером применения ICA является « проблема коктейльной вечеринки », когда подслушивают речь одного человека в шумной комнате. [3]
Введение
[ редактировать ]Анализ независимых компонентов пытается разложить многомерный сигнал на независимые негауссовы сигналы. Например, звук обычно представляет собой сигнал, который состоит из числового сложения в каждый момент времени t сигналов от нескольких источников. Тогда возникает вопрос, можно ли отделить эти способствующие источники от наблюдаемого общего сигнала. Когда предположение о статистической независимости верно, слепое ICA-разделение смешанного сигнала дает очень хорошие результаты. [5] Он также используется для сигналов, которые не должны генерироваться путем смешивания в целях анализа.
Простым применением ICA является « задача коктейльной вечеринки », где основные речевые сигналы отделяются от выборочных данных, состоящих из людей, говорящих одновременно в комнате. Обычно проблему упрощают, предполагая отсутствие временных задержек или эхо. Обратите внимание, что отфильтрованный и задержанный сигнал является копией зависимого компонента, и, таким образом, предположение статистической независимости не нарушается.
Смешивание гирь для построения наблюдаемые сигналы от компоненты могут быть размещены в матрица. Важно учитывать, что если источники присутствуют, по крайней мере наблюдения (например, микрофоны, если наблюдаемый сигнал является аудио) необходимы для восстановления исходных сигналов. При равном количестве наблюдений и сигналов источников матрица смешивания имеет квадратную форму ( ). Другие случаи недоопределения ( ) и переопределенные ( ) были расследованы.
Успех разделения смешанных сигналов ICA зависит от двух предположений и трех эффектов смешивания исходных сигналов. Два предположения:
- Исходные сигналы независимы друг от друга.
- Значения в каждом исходном сигнале имеют негауссово распределение.
Три эффекта микширования исходных сигналов:
- Независимость: Согласно предположению 1, исходные сигналы независимы; однако их смеси сигналов таковыми не являются. Это связано с тем, что смеси сигналов имеют одни и те же исходные сигналы.
- Нормальность: Согласно центральной предельной теореме , распределение суммы независимых случайных величин с конечной дисперсией стремится к распределению Гаусса.
Грубо говоря, сумма двух независимых случайных величин обычно имеет распределение, более близкое к гауссовскому, чем распределение любой из двух исходных переменных. Здесь мы рассматриваем значение каждого сигнала как случайную величину. - Сложность: временная сложность любой смеси сигналов больше, чем у ее простейшего составного исходного сигнала.
Эти принципы способствуют созданию ICA. Если сигналы, извлеченные из набора смесей, независимы и имеют негауссово распределение или имеют низкую сложность, то они должны быть исходными сигналами. [6] [7]
Определение независимости компонентов
[ редактировать ]ICA находит независимые компоненты (также называемые факторами, скрытыми переменными или источниками) путем максимизации статистической независимости оцениваемых компонентов. Мы можем выбрать один из многих способов определения прокси-сервера независимости, и этот выбор определяет форму алгоритма ICA. Два самых широких определения независимости ICA:
- Минимизация взаимной информации
- Максимизация негауссовости
минимизации взаимной информации Семейство алгоритмов ICA (MMI) использует такие меры, как дивергенция Кульбака-Лейблера и максимальная энтропия . Семейство негауссовости алгоритмов ICA, основанное на центральной предельной теореме , использует эксцесс и негэнтропию . [8]
Типичные алгоритмы ICA используют центрирование (вычитание среднего значения для создания сигнала с нулевым средним значением), отбеливание (обычно с разложением по собственным значениям ) и уменьшение размерности в качестве этапов предварительной обработки, чтобы упростить и уменьшить сложность проблемы для реального итерационного алгоритма. Отбеливания и уменьшения размеров можно добиться с помощью анализа главных компонентов или разложения по сингулярным значениям . обрабатываются одинаково Отбеливание гарантирует, что все измерения априори перед запуском алгоритма. К хорошо известным алгоритмам ICA относятся, среди прочего, infomax , FastICA , JADE и независимый от ядра анализ компонентов . В общем, ICA не может определить фактическое количество исходных сигналов, однозначно правильный порядок исходных сигналов или правильное масштабирование (включая знак) исходных сигналов.
ICA важен для слепого разделения сигналов и имеет множество практических применений. Это тесно связано (или даже является частным случаем) с поиском факториального кода данных, т. е. нового векторного представления каждого вектора данных, которое однозначно кодируется результирующим кодовым вектором (без потерь). кодирование), но компоненты кода статистически независимы.
Математические определения
[ редактировать ]Линейный анализ независимых компонентов можно разделить на бесшумный и шумный случаи, где бесшумный ICA является частным случаем шумного ICA. Нелинейный ICA следует рассматривать как отдельный случай.
Общее определение
[ редактировать ]Данные представлены наблюдаемым случайным вектором и скрытые компоненты как случайный вектор Задача — преобразовать наблюдаемые данные используя линейное статическое преобразование как в вектор максимально независимых компонент измеряется некоторой функцией независимости.
Генеративная модель
[ редактировать ]Линейный бесшумный ICA
[ редактировать ]Компоненты наблюдаемого случайного вектора генерируются как сумма независимых компонентов , :
взвешивается по весу смешивания .
Ту же генеративную модель можно записать в векторной форме как , где наблюдаемый случайный вектор представлена базисными векторами . Базисные векторы сформировать столбцы матрицы смешивания и порождающую формулу можно записать как , где .
Учитывая модель и реализации (образцы) случайного вектора , задача состоит в том, чтобы оценить как матрицу смешивания и источники . Это достигается путем адаптивного расчета векторов и настройку функции стоимости, которая либо максимизирует негауссовость рассчитанных или минимизирует взаимную информацию. В некоторых случаях в функции стоимости можно использовать априорные знания о распределениях вероятностей источников.
Первоначальные источники можно восстановить путем умножения наблюдаемых сигналов с обратной матрицей смешивания , также известная как матрица несмешивания. Здесь предполагается, что матрица смешивания квадратная ( ). Если количество базисных векторов больше размерности наблюдаемых векторов, , задача является сверхполной, но все еще разрешима псевдообратной .
Линейный шумный ICA
[ редактировать ]С добавленным предположением о нулевом среднем и некоррелированном гауссовском шуме , модель ICA принимает вид .
Нелинейный ICA
[ редактировать ]Смешение источников не обязательно должно быть линейным. Использование функции нелинейного смешивания с параметрами модель ICA нелинейная .
Идентифицируемость
[ редактировать ]Независимые компоненты идентифицируются с точностью до перестановки и масштабирования источников. [9] Эта идентифицируемость требует, чтобы:
- Максимум один из источников является гауссовским,
- Количество наблюдаемых смесей, , должно быть не меньше количества оцениваемых компонентов : . Это эквивалентно тому, что матрица смешивания должен иметь полный ранг , чтобы существовало обратное.
Бинарный ICA
[ редактировать ]Особым вариантом ICA является бинарный ICA, в котором как источники сигналов, так и мониторы имеют двоичную форму, а наблюдения с мониторов представляют собой дизъюнктивную смесь бинарных независимых источников. Было показано, что проблема находит применение во многих областях, включая медицинскую диагностику , многокластерное задание , сетевую томографию и управление интернет-ресурсами .
Позволять быть набором двоичных переменных из мониторы и быть набором двоичных переменных из источники. Соединения источник-монитор представлены (неизвестной) матрицей микширования. , где указывает, что сигнал от i -го источника может наблюдаться j -м монитором. Система работает следующим образом: в любой момент, если источник активен ( ) и он подключен к монитору ( ) затем монитор будет наблюдать некоторую активность( ). Формально имеем:
где является логическим И и является логическим ИЛИ. Шум не моделируется явно, а скорее может рассматриваться как независимый источник.
Вышеуказанную задачу можно решить эвристически. [10] предполагая, что переменные непрерывны, и запуская FastICA на двоичных данных наблюдений, чтобы получить матрицу смешивания (реальные значения), затем примените округления чисел к методы для получения двоичных значений. Было показано, что этот подход дает весьма неточный результат. [ нужна ссылка ]
Другой метод — использовать динамическое программирование : рекурсивное разбиение матрицы наблюдения. в свои подматрицы и запустите алгоритм вывода на этих подматрицах. Ключевым наблюдением, которое приводит к этому алгоритму, является подматрица из где соответствует несмещенной матрице наблюдения скрытых компонентов, не имеющих связи с -й монитор. Экспериментальные результаты [11] показывают, что этот подход точен при умеренных уровнях шума.
Структура обобщенного двоичного ICA [12] представляет более широкую формулировку проблемы, которая не требует каких-либо знаний о генеративной модели. Другими словами, этот метод пытается разложить источник на его независимые компоненты (насколько это возможно и без потери какой-либо информации) без предварительного предположения о том, как он был сгенерирован. Хотя эта проблема кажется довольно сложной, ее можно точно решить с помощью алгоритма дерева поиска ветвей и границ или с жесткой верхней границей с помощью однократного умножения матрицы на вектор.
Методы слепого разделения источников
[ редактировать ]Погоня за проекцией
[ редактировать ]Смеси сигналов имеют тенденцию иметь гауссовские функции плотности вероятности, а сигналы источника имеют тенденцию иметь негауссовы функции плотности вероятности. Каждый исходный сигнал можно извлечь из набора смесей сигналов, взяв внутренний продукт весового вектора и тех смесей сигналов, где этот внутренний продукт обеспечивает ортогональную проекцию смесей сигналов. Оставшаяся задача — найти такой весовой вектор. Одним из методов достижения этой цели является преследование проекций . [13] [14]
Поиск проекций ищет одну проекцию за раз, чтобы извлеченный сигнал был как можно более негауссовым. Это контрастирует с ICA, который обычно извлекает M сигналов одновременно из M смесей сигналов, что требует оценки M × M. матрицы несмешивания Одним из практических преимуществ поиска проекций по сравнению с ICA является то, что при необходимости можно извлечь меньше, чем M сигналов, при этом каждый исходный сигнал извлекается из M смесей сигналов с использованием M -элементного весового вектора.
Мы можем использовать эксцесс для восстановления сигнала от нескольких источников, находя правильные весовые векторы с использованием поиска проекций.
Эксцесс функции плотности вероятности сигнала для конечной выборки вычисляется как
где является выборочным средним значением , извлеченные сигналы. Константа 3 гарантирует, что гауссовские сигналы имеют нулевой эксцесс, супергауссовские сигналы имеют положительный эксцесс, а субгауссовские сигналы имеют отрицательный эксцесс. Знаменатель – дисперсия это и гарантирует, что измеренный эксцесс учитывает дисперсию сигнала. Цель преследования проекции — максимизировать эксцесс и сделать извлеченный сигнал как можно более ненормальным.
Используя эксцесс как меру ненормальности, мы теперь можем изучить, как эксцесс сигнала извлечено из набора M смесей меняется как весовой вектор вращается вокруг начала координат. Учитывая наше предположение, что каждый исходный сигнал является супергауссовым, мы ожидаем:
- эксцесс извлеченного сигнала быть максимальным именно тогда, когда .
- эксцесс извлеченного сигнала быть максимальным, когда ортогонален проецируемым осям или , поскольку мы знаем, что оптимальный весовой вектор должен быть ортогональным преобразованной оси или .
Для сигналов смеси из нескольких источников мы можем использовать эксцесс и ортогонализацию Грама-Шмидта (GSO) для восстановления сигналов. Учитывая M смеси сигналов в M -мерном пространстве, GSO проецирует эти точки данных на ( M-1 )-мерное пространство, используя весовой вектор. Мы можем гарантировать независимость извлеченных сигналов с использованием ГСО.
Чтобы найти правильное значение , мы можем использовать метод градиентного спуска . Мы в первую очередь отбеливаем данные и преобразуем в новую смесь , который имеет единичную дисперсию, и . Этого процесса можно достичь, применив разложение по сингулярным значениям к ,
Изменение масштаба каждого вектора , и пусть . Сигнал, извлеченный взвешенным вектором является . Если весовой вектор w имеет единичную длину, то дисперсия y также равна 1, то есть . Таким образом, эксцесс можно записать как:
Процесс обновления для является:
где небольшая константа, гарантирующая, что сходится к оптимальному решению. После каждого обновления нормализуем , и установите и повторяйте процесс обновления до достижения сходимости. Мы также можем использовать другой алгоритм для обновления вектора весов. .
Другой подход – использование негэнтропии. [8] [15] вместо эксцесса. Использование негэнтропии является более надежным методом, чем эксцесс, поскольку эксцесс очень чувствителен к выбросам. Методы негэнтропии основаны на важном свойстве распределения Гаусса: гауссова переменная имеет наибольшую энтропию среди всех непрерывных случайных величин с равной дисперсией. Это также причина, по которой мы хотим найти наиболее негауссовы переменные. Простое доказательство можно найти в Дифференциальной энтропии .
y — гауссова случайная величина той же ковариационной матрицы, что и x.
Приближение негэнтропии:
Доказательство можно найти в оригинальных статьях Комона; [16] [8] он был воспроизведен в книге « Независимый анализ компонентов» Аапо Хиваринена, Юхи Кархунен и Эркки Оя. [17] Это приближение также страдает той же проблемой, что и эксцесс (чувствительность к выбросам). Были разработаны и другие подходы. [18]
Выбор и являются
- и
По материалам Инфомакса
[ редактировать ]Инфомакс ИЦА [19] по сути, это многомерная параллельная версия проекционного преследования. В то время как поиск проекций извлекает по одному ряду сигналов из набора M смесей сигналов, ICA извлекает M сигналов параллельно. Это делает ICA более надежным, чем поиск прогнозов. [20]
Метод преследования проекции использует ортогонализацию Грама-Шмидта для обеспечения независимости извлеченного сигнала, в то время как ICA использует информациюмакс и оценку максимального правдоподобия для обеспечения независимости извлеченного сигнала. Ненормальность извлеченного сигнала достигается путем назначения соответствующей модели или предшествующей модели для сигнала.
процесс ICA на основе infomax : задан набор смесей сигналов. Вкратце и набор идентичных независимых моделей кумулятивных функций распределения (cdfs) , ищем матрицу расмешивания который максимизирует совместную энтропию сигналов , где сигналы, извлекаемые . Учитывая оптимальную , сигналы имеют максимальную энтропию и, следовательно, независимы, что гарантирует, что извлеченные сигналы также независимы. — обратимая функция и модель сигнала. модели исходного сигнала Обратите внимание, что если функция плотности вероятности соответствует функции плотности вероятности извлеченного сигнала , затем максимизируя совместную энтропию также максимизирует объем взаимной информации между и . По этой причине использование энтропии для извлечения независимых сигналов известно как инфомакс .
Рассмотрим энтропию векторной переменной , где - это набор сигналов, извлеченных матрицей несмешивания . Для конечного набора значений, выбранных из распределения с помощью pdf , энтропия можно оценить как:
Совместный PDF-файл можно показать, что это связано с совместным PDF-файлом выделенных сигналов в многомерной форме:
где – матрица Якобиана . У нас есть , и предполагается ли PDF-файл для исходных сигналов , поэтому,
поэтому,
Мы знаем, что когда , имеет равномерное распределение и максимизируется. С
где - абсолютное значение определителя матрицы несмешивания . Поэтому,
так,
с и максимизация не влияет , поэтому мы можем максимизировать функцию
для достижения независимости извлекаемого сигнала.
Если есть M маргинальных PDF-файлов модели совместного PDF-файла независимы и используют обычно супергауссову модель pdf для исходных сигналов. , тогда мы имеем
В сумме, учитывая наблюдаемую смесь сигналов , соответствующий набор извлеченных сигналов и модель исходного сигнала , мы можем найти оптимальную матрицу несмешивания и сделать извлеченные сигналы независимыми и негауссовыми. Как и в случае с преследованием проекции, мы можем использовать метод градиентного спуска, чтобы найти оптимальное решение матрицы несмешивания.
На основе оценки максимального правдоподобия
[ редактировать ]максимального правдоподобия Оценка (MLE) — это стандартный статистический инструмент для поиска значений параметров (например, матрица несмешивания ), которые обеспечивают наилучшее соответствие некоторых данных (например, извлеченных сигналов ) к данной модели (например, предполагаемой совместной функции плотности вероятности (pdf) исходных сигналов). [20]
«Модель» ML . включает спецификацию PDF-файла, который в данном случае является PDF-файлом сигналов неизвестного источника . использования ML ICA — найти матрицу несмешивания, которая дает извлеченные сигналы. Цель с совместным pdf, максимально похожим на совместный pdf сигналов неизвестного источника .
Таким образом, MLE основан на предположении, что если модель pdf и параметры модели верны, то для данных должна быть получена высокая вероятность которые действительно наблюдались. И наоборот, если далека от правильных значений параметров, то можно ожидать низкую вероятность наблюдаемых данных.
Используя MLE , мы называем вероятность наблюдаемых данных для заданного набора значений параметров модели (например, PDF-файла) и матрица ) вероятность значений параметров модели с учетом наблюдаемых данных.
Определим правдоподобия функцию из :
Это равно плотности вероятности при , с .
Таким образом, если мы хотим найти это, скорее всего, привело к образованию наблюдаемых смесей из сигналов неизвестного источника с PDF тогда нам нужно только найти это что максимизирует вероятность . Матрица несмешивания, которая максимизирует уравнение, известна как MLE оптимальной матрицы несмешивания.
Обычной практикой является использование логарифма правдоподобия , потому что его легче оценить. Поскольку логарифм является монотонной функцией, которая максимизирует функцию также максимизирует свой логарифм . Это позволяет нам логарифмировать приведенное выше уравнение, что дает логарифмическую правдоподобия функцию .
широко используемой моделью pdf с высоким эксцессом Если мы заменим исходные сигналы тогда у нас есть
Эта матрица которая максимизирует эту функцию, является максимального правдоподобия оценкой .
История и предыстория
[ редактировать ]Ранняя общая основа анализа независимых компонентов была представлена Жанни Эро и Бернаром Ансом в 1984 году. [21] дальнейшее развитие Кристиана Юттена в 1985 и 1986 годах, [2] [22] [23] и усовершенствован Пьером Комоном в 1991 году. [16] и популяризирован в его статье 1994 года. [8] В 1995 году Тони Белл и Терри Сейновски представили быстрый и эффективный алгоритм ICA, основанный на infomax — принципе, представленном Ральфом Линскером в 1987 году. Интересную связь между подходами ML и Infomax можно найти в . [24] Достаточно подробное руководство по подходу ML было опубликовано JF.Cardoso в 1998 году. [25]
В литературе доступно множество алгоритмов, реализующих ICA. Широко используемым, в том числе в промышленных приложениях, является алгоритм FastICA, разработанный Хивариненом и Оя. [26] который использует негэнтропию в качестве функции стоимости, уже предложенную 7 лет назад Пьером Комоном в этом контексте. [8] Другие примеры скорее связаны со слепым разделением источников , где используется более общий подход. Например, можно отказаться от предположения о независимости и разделить взаимно коррелированные сигналы, то есть статистически «зависимые» сигналы. Зепп Хохрайтер и Юрген Шмидхубер показали, как получить нелинейный ICA или разделение источников как побочный продукт регуляризации (1999). [27] Их метод не требует априорных знаний о количестве независимых источников.
Приложения
[ редактировать ]ICA можно расширить для анализа нефизических сигналов. Например, ICA применялся для обнаружения тем обсуждения в пакете архивов списков новостей.
Некоторые приложения ICA перечислены ниже: [6]
- оптическая визуализация нейронов [28]
- сортировка нейронных спайков [29]
- распознавание лиц [30]
- моделирование рецептивных полей первичных зрительных нейронов [31]
- прогнозирование цен на фондовом рынке [32]
- мобильная телефонная связь [33]
- определение спелости томатов по цвету [34]
- удаление артефактов, таких как моргание глаз, из ЭЭГ . данных [35]
- прогнозирование принятия решений с помощью ЭЭГ [36]
- анализ изменений экспрессии генов с течением времени в одноклеточной экспериментах по секвенированию РНК . [37]
- исследования сети состояния покоя мозга. [38]
- астрономия и космология [39]
- финансы [40]
Доступность
[ редактировать ]ICA можно применять с помощью следующего программного обеспечения:
- САС ПРОЦ ИКА
- R пакет ICA
- scikit-learn Реализация Python sklearn.decomposition.FastICA
См. также
[ редактировать ]Примечания
[ редактировать ]- ^ «Независимый анализ компонентов: демонстрация» .
- ^ Перейти обратно: а б Анс Б., Эро Ж. и Юттен К. (1985). Адаптивные нейромиметические архитектуры: обнаружение примитивов. Когнитива 85 (Том 2, стр. 593-597). Париж: СЕСТА.
- ^ Хюваринен, Аапо (2013). «Независимый компонентный анализ: последние достижения» . Философские труды: математические, физические и технические науки . 371 (1984): 20110534. Бибкод : 2012RSPTA.37110534H . дои : 10.1098/rsta.2011.0534 . ISSN 1364-503X . JSTOR 41739975 . ПМЦ 3538438 . ПМИД 23277597 .
- ^ Исомура, Такуя; Тойоидзуми, Таро (2016). «Правило локального обучения для независимого анализа компонентов» . Научные отчеты . 6 : 28073. Бибкод : 2016NatSR...628073I . дои : 10.1038/srep28073 . ПМЦ 4914970 . ПМИД 27323661 .
- ^ Комон, П.; Юттен К. (2010): Справочник по слепому разделению источников, независимому анализу компонентов и приложениям. Академическое издательство, Оксфорд, Великобритания. ISBN 978-0-12-374726-6
- ^ Перейти обратно: а б Стоун, Джеймс В. (2004). Анализ независимых компонентов: введение в учебное пособие . Кембридж, Массачусетс: MIT Press. ISBN 978-0-262-69315-8 .
- ^ Хюваринен, Аапо; Кархунен, Юха; Оя, Эркки (2001). Независимый компонентный анализ (1-е изд.). Нью-Йорк: Джон Уайли и сыновья. ISBN 978-0-471-22131-9 .
- ^ Перейти обратно: а б с д и Пьер Комон (1994) Независимый анализ компонентов – новая концепция? http://www.ece.ucsb.edu/wcsl/courses/ECE594/594C_F10Madhow/comon94.pdf
- ^ Теорема 11, Комон, Пьер. «Независимый анализ компонентов, новая концепция?» Обработка сигналов 36.3 (1994): 287-314.
- ^ Йохан Химберганд Аапо Хиваринен, Анализ независимых компонентов двоичных данных: экспериментальное исследование , Proc. Межд. Семинар по независимому анализу компонентов и слепому разделению сигналов (ICA2001), Сан-Диего, Калифорния, 2001 г.
- ^ Хуй Нгуен и Ронг Чжэн, Анализ двоичных независимых компонентов с использованием или смесями , Транзакции IEEE по обработке сигналов, Vol. 59, выпуск 7. (июль 2011 г.), стр. 3168–3181.
- ^ Паинский, Амихай; Россе, Сахарон; Федер, Меир (2014). «Обобщенный бинарный анализ независимых компонентов». Международный симпозиум IEEE по теории информации , 2014 г. стр. 1326–1330. дои : 10.1109/ISIT.2014.6875048 . ISBN 978-1-4799-5186-4 . S2CID 18579555 .
- ^ Джеймс В. Стоун (2004); «Независимый анализ компонентов: введение в учебное пособие», MIT Press Cambridge, Массачусетс, Лондон, Англия; ISBN 0-262-69315-1
- ^ Краскал, Дж.Б. 1969 год; «На пути к практическому методу, который помогает раскрыть структуру набора наблюдений путем нахождения преобразования линии, которое оптимизирует новый «индекс конденсации», страницы 427–440 из: Милтон, Р.К., и Нелдер, Дж.А. (ред.), Статистические вычисления. Нью-Йорк, Академик Пресс;
- ^ Хюваринен, Аапо; Эркки Оя (2000). «Независимый анализ компонентов: алгоритмы и приложения». Нейронные сети . 4-5. 13 (4–5): 411–430. CiteSeerX 10.1.1.79.7003 . дои : 10.1016/s0893-6080(00)00026-5 . ПМИД 10946390 . S2CID 11959218 .
- ^ Перейти обратно: а б П.Комон, Независимый анализ компонентов, Семинар по статистике высшего порядка, июль 1991 г., переиздано в JL. Лакум, редактор журнала «Статистика высшего порядка», стр. 29–38. Elsevier, Амстердам, Лондон, 1992. Ссылка HAL .
- ^ Хюваринен, Аапо; Кархунен, Юха; Оя, Эркки (2001). Независимый анализ компонентов (переиздание). Нью-Йорк, штат Нью-Йорк: Уайли. ISBN 978-0-471-40540-5 .
- ^ Хиваринен, Аапо (1998). «Новые приближения дифференциальной энтропии для независимого анализа компонентов и поиска прогнозов». Достижения в области нейронных систем обработки информации . 10 : 273–279.
- ^ Белл, AJ; Сейновский, Т.Дж. (1995). «Подход к слепому разделению и слепой деконволюции, основанный на максимизации информации», Neural Computation, 7, 1129–1159.
- ^ Перейти обратно: а б Джеймс В. Стоун (2004). «Независимый анализ компонентов: введение в учебное пособие», MIT PressКембридж, Массачусетс, Лондон, Англия; ISBN 0-262-69315-1
- ^ Эро, Ж.; Анс, Б. (1984). «Нейронная сеть с модифицируемыми синапсами: декодирование сложных сенсорных сообщений путем постоянного обучения без присмотра». Доклады Академии наук, серия III . 299 : 525–528.
- ^ Эро, Дж., Юттен, К., и Анс, Б. (1985). Обнаружение примитивных величин в составном сообщении с помощью нейромиметической вычислительной архитектуры при обучении без учителя. Материалы 10-го семинара «Обработка сигналов и ее приложения» (т. 2, стр. 1017-1022). Ницца (Франция): ГРЕТСИ.
- ^ Эро, Дж., и Юттен, К. (1986). Адаптивная к пространству или времени обработка сигналов с помощью моделей нейронных сетей. Стажер. Конф. о нейронных сетях для вычислений (стр. 206–211). Снежная птица (Юта, США).
- ^ JF.Cardoso, «Infomax и максимальная вероятность разделения источников», IEEE Sig. Учеб. Письма, 1997, 4(4):112-114.
- ^ Дж. Ф. Кардозо, «Слепое разделение сигналов: статистические принципы», Proc. IEEE, 1998, 90(8):2009-2025.
- ^ Хюваринен, А.; Оджа, Э. (1 июня 2000 г.). «Независимый компонентный анализ: алгоритмы и приложения» (PDF) . Нейронные сети . 13 (4): 411–430. дои : 10.1016/S0893-6080(00)00026-5 . ISSN 0893-6080 . ПМИД 10946390 . S2CID 11959218 .
- ^ Хохрейтер, Зепп; Шмидхубер, Юрген (1999). «Извлечение функций с помощью LOCOCODE» (PDF) . Нейронные вычисления . 11 (3): 679–714. дои : 10.1162/089976699300016629 . ISSN 0899-7667 . ПМИД 10085426 . S2CID 1642107 . Проверено 24 февраля 2018 г.
- ^ Браун, Джорджия; Ямада, С; Сейновский, Т.Дж. (2001). «Анализ независимых компонентов на нейрококтейле». Тенденции в нейронауках . 24 (1): 54–63. дои : 10.1016/s0166-2236(00)01683-0 . ПМИД 11163888 . S2CID 511254 .
- ^ Левицкий, М.С. (1998). «Обзор методов сортировки спайков: обнаружение и классификация нейронных потенциалов действия». Сеть: Вычисления в нейронных системах . 9 (4): 53–78. дои : 10.1088/0954-898X_9_4_001 . S2CID 10290908 .
- ^ Барлетт, М.С. (2001). Анализ изображения лица методом обучения без учителя . Бостон: Международная серия Kluwer по инженерии и информатике.
- ^ Белл, Эй Джей; Сейновский, Т.Дж. (1997). «Независимыми компонентами природных сцен являются краевые фильтры» . Исследование зрения . 37 (23): 3327–3338. дои : 10.1016/s0042-6989(97)00121-1 . ПМЦ 2882863 . ПМИД 9425547 .
- ^ Назад, А.Д.; Вейгенд, А.С. (1997). «Первое применение независимого анализа компонентов для определения структуры доходности акций» . Международный журнал нейронных систем . 8 (4): 473–484. дои : 10.1142/s0129065797000458 . ПМИД 9730022 . S2CID 872703 .
- ^ Хиваринен А., Кархунен Дж. и Оя Э. (2001a). Независимый компонентный анализ . Нью-Йорк: Джон Уайли и сыновья.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - ^ Польдер, Г; ван дер Хейен, FWAM (2003). «Оценка распределения соединений на спектральных изображениях томатов с использованием независимого компонентного анализа». Австрийское компьютерное общество : 57–64.
- ^ Делорм, А; Сейновский, Т; Макейг, С. (2007). «Усовершенствованное обнаружение артефактов в данных ЭЭГ с использованием статистики высшего порядка и анализа независимых компонентов» . НейроИмидж . 34 (4): 1443–1449. doi : 10.1016/j.neuroimage.2006.11.004 . ПМЦ 2895624 . ПМИД 17188898 .
- ^ Дуглас, П. (2013). «Однократное пробное декодирование принятия решений по убеждению на основе данных ЭЭГ и фМРТ с использованием функций независимых компонентов» . Границы человеческой неврологии . 7 : 392. дои : 10.3389/fnhum.2013.00392 . ПМЦ 3728485 . ПМИД 23914164 .
- ^ Трапнелл, К; Качкьярелли, Д; Гримсби, Дж (2014). «Динамика и регуляторы решений клеточной судьбы раскрываются посредством псевдовременного упорядочения отдельных клеток» . Природная биотехнология . 32 (4): 381–386. дои : 10.1038/nbt.2859 . ПМЦ 4122333 . ПМИД 24658644 .
- ^ Кивиниеми, Веса Дж.; Кантола, Юха-Хейкки; Яухиайнен, Юкка; Хюваринен, Аапо; Тервонен, Осмо (2003). «Независимый компонентный анализ недетерминированных источников сигналов фМРТ». НейроИмидж . 19 (2): 253–260. дои : 10.1016/S1053-8119(03)00097-1 . ПМИД 12814576 . S2CID 17110486 .
- ^ Ван, Цзинъин; Гу, Цзюньхуа; Ли, Цзяньсюнь; Чжэн, Цян-Пин (01.11.2010 г.) . Отдельные яркие скопления галактик из низкочастотного радионеба?" . The Astrophysical Journal . 723 (1): 620–633. arXiv : 1008.3391 . Bibcode : 2010ApJ...723..620W . doi : 10.1088/0004-637X/ 723/1/620 . ISSN 0004-637X
- ^ Моро, Франк; Вилла, Кристоф (2003). «Динамика временной структуры процентных ставок: независимый компонентный анализ». Коннекционистские подходы в экономике и управленческих науках . Достижения в области вычислительного управления. Том. 6. С. 215–232. дои : 10.1007/978-1-4757-3722-6_11 . ISBN 978-1-4757-3722-6 .
Ссылки
[ редактировать ]- Комон, Пьер (1994): «Независимый анализ компонентов: новая концепция?» , Signal Processing , 36(3):287–314 (Оригинальная статья, описывающая концепцию ICA)
- Хюваринен, А.; Кархунен Дж.; Оджа, Э. (2001): Независимый анализ компонентов , Нью-Йорк: Wiley, ISBN 978-0-471-40540-5 ( Вводная глава )
- Хюваринен, А.; Оджа, Э. (2000): «Независимый анализ компонентов: алгоритмы и применение» , Нейронные сети , 13 (4-5): 411-430. (Техническое, но педагогическое введение).
- Комон, П.; Юттен К. (2010): Справочник по слепому разделению источников, независимому анализу компонентов и приложениям. Академическое издательство, Оксфорд, Великобритания. ISBN 978-0-12-374726-6
- Ли, Т.-В. (1998): Независимый анализ компонентов: теория и приложения , Бостон, Массачусетс: Kluwer Academic Publishers, ISBN 0-7923-8261-7
- Ачарья, Ранджан (2008): Новый подход к слепому разделению сверточных источников - разделение на основе вейвлетов с использованием функции сжатия ISBN 3-639-07797-0 ISBN 978-3639077971 (эта книга посвящена обучению без учителя со слепым разделением источников)
Внешние ссылки
[ редактировать ]- Что такое анализ независимых компонентов? автор: Аапо Хиваринен
- Независимый анализ компонентов: руководство Аапо Хиваринен
- Учебное пособие по независимому анализу компонентов
- FastICA как пакет для Matlab, на языке R, C++.
- Наборы инструментов ICALAB для Matlab, разработанные в RIKEN
- Набор инструментов для высокопроизводительного анализа сигналов предоставляет реализации FastICA и Infomax на языке C++.
- Набор инструментов ICA Инструменты Matlab для ICA с Беллом-Сейновским, Молгедеем-Шустером и ICA среднего поля. Разработан в ДТУ.
- Демонстрация задачи о коктейльной вечеринке
- EEGLAB Toolbox ICA ЭЭГ для Matlab, разработанный в UCSD.
- FMRLAB Toolbox ICA фМРТ для Matlab, разработанный в UCSD
- MELODIC , часть библиотеки программного обеспечения FMRIB .
- Обсуждение использования ICA в биомедицинском контексте представления формы
- Алгоритм FastICA, CuBICA, JADE и TDSEP для Python и многое другое...
- Group ICA Toolbox и Fusion ICA Toolbox
- Учебное пособие: Использование ICA для очистки сигналов ЭЭГ