Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В обработке сигналов , анализ независимого компонентов ( ICA ) является вычислительным методом для разделения многомерного сигнала в аддитивные подкомпонент. Это делается путем предположения, что подкомпоненты являются негауссовыми сигналами и что они статистически независимы друг от друга. ICA - это частный случай слепого разделения источников . Типичным примером приложения является " проблема коктейльной вечеринки ", когда речь идет о прослушивании речи одного человека в шумной комнате. [1]

Введение [ править ]

Воспроизвести медиа
ICA на четырех случайно смешанных видео. [2] Вверху: исходные видео. В центре: четыре случайные смеси, используемые в качестве входных данных для алгоритма. Внизу: восстановленные видео.

Независимый компонентный анализ пытается разложить многомерный сигнал на независимые негауссовские сигналы. Например, звук обычно представляет собой сигнал, который состоит из числового сложения в каждый момент времени t сигналов от нескольких источников. Тогда возникает вопрос, можно ли отделить эти источники от наблюдаемого полного сигнала. Когда допущение о статистической независимости верно, слепое ICA-разделение смешанного сигнала дает очень хорошие результаты. [ необходима цитата ] Он также используется для сигналов, которые не должны генерироваться путем микширования в целях анализа.

Простым применением ICA является « проблема коктейльной вечеринки », когда основные речевые сигналы отделяются от выборки данных, состоящей из людей, одновременно говорящих в комнате. Обычно проблема упрощается, если не допускать задержек по времени или эхо. Обратите внимание, что отфильтрованный и задержанный сигнал является копией зависимого компонента, и, таким образом, предположение о статистической независимости не нарушается.

Веса смешивания для построения наблюдаемых сигналов от компонентов могут быть помещены в матрицу. Важно учитывать, что при наличии источников необходимы как минимум наблюдения (например, микрофоны, если наблюдаемый сигнал является звуковым) для восстановления исходных сигналов. Когда имеется равное количество наблюдений и сигналов источников, матрица микширования имеет квадратную форму ( ). Другие случаи недоопределения ( ) и переопределения ( ) были исследованы.

То, что ICA-разделение смешанных сигналов дает очень хорошие результаты, основано на двух предположениях и трех эффектах смешивания сигналов источников. Два предположения:

  1. Исходные сигналы независимы друг от друга.
  2. Значения в каждом исходном сигнале имеют негауссовское распределение.

Три эффекта микширования сигналов источников:

  1. Независимость: Согласно предположению 1, исходные сигналы независимы; однако их смеси сигналов - нет. Это связано с тем, что смеси сигналов используют одни и те же исходные сигналы.
  2. Нормальность: согласно Центральной предельной теореме распределение суммы независимых случайных величин с конечной дисперсией стремится к гауссовскому распределению.
    Грубо говоря, сумма двух независимых случайных величин обычно имеет распределение, которое ближе к гауссову, чем любая из двух исходных переменных. Здесь мы рассматриваем значение каждого сигнала как случайную величину.
  3. Сложность: временная сложность любой смеси сигналов больше, чем сложность ее простейшего составляющего сигнала источника.

Эти принципы способствуют основному становлению МКА. Если сигналы, извлеченные из набора смесей, независимы, имеют негауссовские гистограммы или имеют низкую сложность, то они должны быть сигналами источника. [3] [4]

Определение независимости компонентов [ править ]

ICA находит независимые компоненты (также называемые факторами, скрытыми переменными или источниками), максимизируя статистическую независимость оцениваемых компонентов. Мы можем выбрать один из многих способов определения прокси для независимости, и этот выбор определяет форму алгоритма ICA. Два самых широких определения независимости для ICA:

  1. Минимизация взаимной информации
  2. Максимизация негауссовости

Семейство алгоритмов минимизации взаимной информации (MMI) алгоритмов ICA использует такие меры, как дивергенция Кульбака-Лейблера и максимальная энтропия . Семейство алгоритмов негауссовости ICA, мотивированных центральной предельной теоремой , использует эксцесс и негэнтропию .

Типичные алгоритмы для ICA используют центрирование (вычесть среднее для создания сигнала с нулевым средним), отбеливание (обычно с разложением по собственным значениям ) и уменьшение размерности в качестве шагов предварительной обработки, чтобы упростить и уменьшить сложность проблемы для фактического итерационного алгоритма. Отбеливание и уменьшение размеров может быть достигнуто с помощью анализа главных компонентов или разложения по сингулярным значениям . Отбеливание гарантирует, что все измерения априори обрабатываются одинаково перед запуском алгоритма. Хорошо известные алгоритмы для ICA включают infomax , FastICA , JADE ипомимо прочего, независимый от ядра анализ компонентов . В общем, ICA не может идентифицировать фактическое количество исходных сигналов, однозначно правильный порядок исходных сигналов или надлежащее масштабирование (включая знак) исходных сигналов.

ICA важен для слепого разделения сигналов и имеет множество практических приложений. Это тесно связано с (или даже с особым случаем) поиском факториального кода данных, т. Е. Нового векторно-значного представления каждого вектора данных, так что он однозначно кодируется результирующим вектором кода (без потерь кодирование), но компоненты кода статистически независимы.

Математические определения [ править ]

Линейный независимый компонентный анализ можно разделить на бесшумный и зашумленный случаи, где бесшумный ICA является частным случаем зашумленного ICA. Отдельно стоит рассмотреть нелинейный ICA.

Общее определение [ править ]

Данные представлены наблюдаемым случайным вектором, а скрытые компоненты - случайным вектором . Задача состоит в том, чтобы преобразовать наблюдаемые данные, используя линейное статическое преобразование, как в вектор максимально независимых компонентов, измеренных некоторой функцией независимости.

Генеративная модель [ править ]

Линейный бесшумный ICA [ править ]

Компоненты наблюдаемого случайного вектора генерируются в виде суммы независимых компонентов , :

взвешенные по весам смешивания .

Та же самая генеративная модель может быть записана в векторной форме как , где наблюдаемый случайный вектор представлен базисными векторами . Базисные векторы образуют столбцы матрицы смешения, а порождающая формула может быть записана как , где .

Учитывая модель и реализации (выборки) случайного вектора , задача состоит в том, чтобы оценить как матрицу смешения, так и источники . Это делается путем адаптивного вычисления векторов и настройки функции стоимости, которая либо максимизирует негауссовость вычисленных, либо минимизирует взаимную информацию. В некоторых случаях в функции стоимости можно использовать априорное знание распределений вероятностей источников.

Исходные источники могут быть восстановлены путем умножения наблюдаемых сигналов на обратную матрицу смешивания , также известную как матрица несмешивания. Здесь предполагается, что матрица смешения является квадратной ( ). Если количество базисных векторов больше, чем размерность наблюдаемых векторов, задача перевыполнена, но все еще может быть решена с помощью псевдообратного метода .

Линейный шумный ICA [ править ]

С добавленным предположением о нулевом среднем и некоррелированном гауссовом шуме модель ICA принимает форму .

Нелинейный ICA [ править ]

Смешивание источников не обязательно должно быть линейным. Используя нелинейную функцию смешивания с параметрами нелинейной МКИ моделью является .

Идентифицируемость [ править ]

Независимые компоненты идентифицируются до перестановки и масштабирования источников. Эта возможность идентификации требует, чтобы:

  • Максимум один из источников - гауссовский,
  • Число наблюдаемых смесей, должно быть по крайней мере таким же размером , как число оцениваемых компонентов : . Это эквивалентно утверждению, что матрица смешивания должна иметь полный ранг, чтобы существовала обратная ей.

Двоичный ICA [ править ]

Особым вариантом ICA является двоичный ICA, в котором как источники сигналов, так и мониторы находятся в двоичной форме, а наблюдения с мониторов представляют собой дизъюнктивные смеси двоичных независимых источников. Было показано, что проблема имеет приложения во многих областях, включая медицинскую диагностику , назначение нескольких кластеров , сетевую томографию и управление интернет-ресурсами .

Позвольте быть набором двоичных переменных от мониторов и быть набором двоичных переменных от источников. Соединения источник-монитор представлены (неизвестной) матрицей микширования , где указывает, что сигнал от i-го источника может наблюдаться j-м монитором. Система работает следующим образом: в любое время, если источник активен ( ) и он подключен к монитору ( ), монитор будет наблюдать некоторую активность ( ). Формально имеем:

где логическое И и логическое ИЛИ. Обратите внимание, что шум явно не моделируется, скорее, его можно рассматривать как независимый источник.

Вышеупомянутая проблема может быть решена эвристически [5] , если предположить, что переменные являются непрерывными, и запустить FastICA для двоичных данных наблюдения, чтобы получить матрицу смешивания (действительные значения), а затем применить методы округления для получения двоичных значений. Было показано, что такой подход дает очень неточный результат. [ необходима цитата ]

Другой метод - использовать динамическое программирование : рекурсивно разбить матрицу наблюдения на ее подматрицы и запустить алгоритм вывода на этих подматрицах. Наблюдение ключа , который ведет к этому алгоритму является суб-матрицей из которых соответствует объективной матрице наблюдений скрытых компонентов , которые не имеют подключение к -му монитору. Экспериментальные результаты из [6] показывают, что этот подход точен при умеренных уровнях шума.

Структура Generalized Binary ICA [7] вводит более широкую формулировку проблемы, которая не требует каких-либо знаний о генеративной модели. Другими словами, этот метод пытается разложить источник на его независимые компоненты (насколько это возможно и без потери информации) без предварительного предположения о том, как он был создан. Хотя эта проблема представляется весьма сложной, она может быть точно решена с ветвей и границ алгоритма поиска дерева или плотно ограничена сверху с одного умножения матрицы с вектором.

Методы слепого разделения источников [ править ]

Преследование проекции [ править ]

Смеси сигналов обычно имеют гауссовы функции плотности вероятности, а сигналы источников имеют негауссовские функции плотности вероятности. Каждый исходный сигнал может быть извлечен из набора смесей сигналов, взяв внутреннее произведение весового вектора и тех смесей сигналов, где это внутреннее произведение обеспечивает ортогональную проекцию смесей сигналов. Остается задача найти такой весовой вектор. Один из способов сделать это - проекционное преследование . [8] [9]

Слежение за проекцией ищет одну проекцию за раз, так что извлеченный сигнал является как можно более негауссовым. Это контрастирует с ВСА, который обычно извлекает M сигналов одновременно от M смесей сигнала, который требует оценивающих М × М расслоения матрицы. Одно из практических преимуществ преследования проецирования по сравнению с ICA состоит в том, что при необходимости может быть извлечено меньше M сигналов, при этом каждый сигнал источника извлекается из M смесей сигналов с использованием весового вектора M -элементов.

Мы можем использовать эксцесс, чтобы восстановить сигнал от нескольких источников, найдя правильные весовые векторы с использованием проекционного преследования.

Эксцесс функции плотности вероятности сигнала для конечной выборки вычисляется как

где это выборочное среднее из , извлеченных сигналов. Константа 3 гарантирует, что гауссовы сигналы имеют нулевой эксцесс, супергауссовские сигналы имеют положительный эксцесс, а субгауссовы сигналы имеют отрицательный эксцесс. Знаменатель является дисперсией из , и гарантирует , что измеренное эксцесса учитывает дисперсию сигнала. Цель проекционного поиска - максимизировать эксцесс и сделать извлеченный сигнал настолько ненормальным, насколько это возможно.

Используя эксцесс как меру ненормальности, мы теперь можем исследовать, как эксцесс сигнала, извлеченного из набора M смесей, изменяется при вращении вектора весов вокруг начала координат. Учитывая наше предположение, что каждый исходный сигнал является супергауссовым, мы ожидаем:

  1. эксцесс извлеченного сигнала должен быть максимальным именно тогда, когда .
  2. эксцесс извлеченного сигнала должен быть максимальным, когда он ортогонален проецируемым осям или , поскольку мы знаем, что оптимальный вектор веса должен быть ортогонален преобразованной оси или .

Для смешанных сигналов из нескольких источников мы можем использовать эксцесс и ортогонализацию Грама-Шмидта (GSO) для восстановления сигналов. Учитывая M смесей сигналов в M -мерном пространстве, ГСО проецирует эти точки данных в ( M-1 ) -мерное пространство с помощью весового вектора. Мы можем гарантировать независимость извлеченных сигналов с использованием ГСО.

Чтобы найти правильное значение , мы можем использовать метод градиентного спуска . Мы в первую очередь отбеливаем данные и преобразуем их в новую смесь , имеющую единичную дисперсию, и . Этот процесс может быть достигнут путем применения разложения по сингулярным значениям к ,

Масштабируем каждый вектор , и пусть . Сигнал, извлеченный взвешенным вектором, равен . Если весовой вектор w имеет единичную длину, то есть эксцесс можно записать как:

Процесс обновления :

где - малая константа, гарантирующая, что она сходится к оптимальному решению. После каждого обновления мы нормализуем , устанавливаем и повторяем процесс обновления до схождения. Мы также можем использовать другой алгоритм для обновления вектора веса .

Другой подход заключается в использовании негэнтропии [10] [11] вместо эксцесса. Использование негэнтропии - более надежный метод, чем эксцесс, поскольку эксцесс очень чувствителен к выбросам. Методы негэнтропии основаны на важном свойстве гауссовского распределения: гауссовская переменная имеет наибольшую энтропию среди всех непрерывных случайных величин с равной дисперсией. Это также причина, по которой мы хотим найти наиболее негауссовские переменные. Простое доказательство можно найти в Дифференциальной энтропии .

y - гауссовская случайная величина с той же ковариационной матрицей, что и x

Приближение негэнтропии

Доказательство можно найти в оригинальных статьях Комона; [12] [10] оно было воспроизведено в книге « Независимый компонентный анализ » Аапо Хювяринена, Юхи Кархунена и Эркки Оя [13]. Это приближение также страдает той же проблемой, что и эксцесс (чувствительность к выбросам). Были разработаны другие подходы. [14]

Выбор и есть

и

Основано на инфомаксе [ править ]

Infomax ICA [15], по сути, является многомерной параллельной версией проекционного преследования. В то время как проекционное преследование извлекает серию сигналов по одному из набора M смесей сигналов, ICA извлекает M сигналов параллельно. Это делает ICA более надежным, чем прогнозирование. [16]

Метод слежения за проекцией использует ортогонализацию Грама-Шмидта, чтобы гарантировать независимость извлеченного сигнала, в то время как ICA использует инфомакс и оценку максимального правдоподобия, чтобы гарантировать независимость извлеченного сигнала. Ненормальность извлеченного сигнала достигается назначением соответствующей модели или предшествующей модели для сигнала.

Вкратце процесс ICA, основанный на infomax, таков : при наличии набора смесей сигналов и набора идентичных независимых функций кумулятивного распределения модели (cdfs) мы ищем матрицу несмешивания, которая максимизирует совместную энтропию сигналов , где извлекаются сигналы по . При оптимальности сигналы имеют максимальную энтропию и, следовательно, независимы, что гарантирует независимость извлеченных сигналов . является обратимой функцией и является моделью сигнала. Обратите внимание, что если функция плотности вероятности модели сигнала источника совпадает с функцией плотности вероятности извлеченного сигнала , затем максимизация совместной энтропии также максимизирует количество взаимной информации между и . По этой причине использование энтропии для извлечения независимых сигналов известно как инфомакс .

Рассмотрим энтропию векторной переменной , где - набор сигналов, извлеченных матрицей несмешивания . Для конечного набора значений, взятых из распределения с помощью pdf , энтропия может быть оценена как:

Совместный PDF может быть показан, что связанно с совместной PDF добытых сигналов по многомерной форме:

где - матрица Якоби . Мы имеем , и это PDF предполагается для сигналов источника , таким образом,

следовательно,

Мы знаем, что когда , имеет равномерное распределение и максимизируется. С

где - абсолютное значение определителя размешивающего матикса . Следовательно,

так,

так как , и максимизация не влияет , поэтому мы можем максимизировать функцию

для достижения независимости извлеченного сигнала.

Если существует M маргинальных PDF-файлов модели совместного PDF-файла, которые являются независимыми и используют обычно супергауссовский модельный PDF-файл для исходных сигналов , то мы имеем

В сумме, учитывая наблюдаемую смесь сигналов , соответствующий набор извлеченных сигналов и модель сигнала источника , мы можем найти оптимальную матрицу несмешивания и сделать извлеченные сигналы независимыми и негауссовыми. Как и в случае с преследованием проекции, мы можем использовать метод градиентного спуска, чтобы найти оптимальное решение для матрицы несмешивания.

На основе оценки максимального правдоподобия [ править ]

Оценка максимального правдоподобия (MLE) - это стандартный статистический инструмент для поиска значений параметров (например, матрицы несмешивания), которые обеспечивают наилучшее соответствие некоторых данных (например, извлеченных сигналов) данной модели (например, предполагаемой совместной функции плотности вероятности). (pdf)исходных сигналов). [16]

ML «модель» включает в себя спецификацию в формате PDF, который в данном случае является PDF искомых сигналов источников . Используя ML ICA , цель состоит в том, чтобы найти матрицу несмешивания, которая дает извлеченные сигналы с объединенным PDF- файлом, максимально похожим на объединенный PDF-файл сигналов неизвестных источников .

Таким образом, MLE основывается на предположении, что если модель pdf и параметры модели верны, то должна быть получена высокая вероятность для данных , которые действительно наблюдались. И наоборот, если значения параметров далеки от правильных, тогда ожидается низкая вероятность наблюдаемых данных.

Используя MLE , мы называем вероятность наблюдаемых данных для данного набора значений параметров модели (например, PDF-файла и матрицы ) вероятностью значений параметров модели с учетом наблюдаемых данных.

Определим вероятностную функцию из :

Это равно плотности вероятности at , поскольку .

Таким образом, если мы хотим найти, что с наибольшей вероятностью сгенерировало наблюдаемые смеси из сигналов неизвестных источников с pdf, то нам нужно только найти то, которое максимизирует вероятность . Матрица несмешивания, которая максимизирует уравнение, известна как MLE оптимальной матрицы несмешивания.

Обычной практикой является использование логарифма правдоподобия , потому что его легче оценить. Поскольку логарифм является монотонной функцией, то, что максимизирует функцию, также максимизирует ее логарифм . Это позволяет нам логарифмировать приведенное выше уравнение, что дает логарифмическую функцию правдоподобия

Если мы заменим обычно используемую модель pdf с большим эксцессом для сигналов источника, то мы имеем

Эта матрица, которая максимизирует эту функцию, является оценкой максимального правдоподобия .

История и предыстория [ править ]

Ранняя общая структура для анализа независимых компонентов была введена Жанни Эро и Бернаром Ансом в 1984 г. [17], затем развита Кристианом Юттеном в 1985 и 1986 гг. [18] [19] [20] и усовершенствована Пьером Комоном в 1991 г. [ 12] и популяризован в его статье 1994 года. [10] В 1995 году Тони Белл и Терри Сейновски представили быстрый и эффективный алгоритм ICA, основанный на infomax , принципе, введенном Ральфом Линскером в 1987 году.

В литературе доступно множество алгоритмов, выполняющих ICA. Широко используемым, в том числе в промышленных приложениях, является алгоритм FastICA, разработанный Хювяриненом и Ойей, который использует эксцесс как функцию стоимости. Другие примеры скорее относятся к слепому разделению источников, где используется более общий подход. Например, можно отказаться от предположения о независимости и разделить взаимно коррелированные сигналы, таким образом, статистически «зависимые» сигналы. Зепп Хохрайтер и Юрген Шмидхубер показали, как получить нелинейный ICA или разделение источников в качестве побочного продукта регуляризации (1999). [21] Их метод не требует априорных знаний о количестве независимых источников.

Приложения [ править ]

ICA может быть расширен для анализа нефизических сигналов. Например, ICA применялся для обнаружения тем для обсуждения в пакетах архивов списков новостей.

Некоторые приложения ICA перечислены ниже: [3]

Независимый компонентный анализ в EEGLAB
  • оптическое изображение нейронов [22]
  • сортировка спайков нейронов [23]
  • распознавание лиц [24]
  • моделирование рецептивных полей первичных зрительных нейронов [25]
  • прогнозирование цен на фондовом рынке [26]
  • мобильная связь [27]
  • определение спелости томатов по цвету [28]
  • удаление артефактов, таких как моргание глаз, из данных ЭЭГ . [29]
  • анализ изменений экспрессии генов с течением времени в экспериментах по секвенированию одноклеточной РНК . [30]
  • исследования сети состояния покоя мозга. [31]
  • астрономия и космология [32]

См. Также [ править ]

  • Слепая деконволюция
  • Факторный анализ
  • Спектр Гильберта
  • Обработка изображений
  • Многолинейный PCA
  • Мультилинейное подпространственное обучение
  • Неотрицательная матричная факторизация (NMF)
  • Нелинейное уменьшение размерности
  • Проекционное преследование
  • Вращение Varimax

Заметки [ править ]

  1. ^ Hyvärinen, Аапо (2013). «Независимый компонентный анализ: последние достижения» . Философские труды: математические, физические и технические науки . 371 (1984): 20110534. Bibcode : 2012RSPTA.37110534H . DOI : 10,1098 / rsta.2011.0534 . ISSN  1364-503X . JSTOR  41739975 . PMC  3538438 . PMID  23277597 .
  2. ^ Isomura, Takuya; Тойоидзуми, Таро (2016). «Правило местного обучения для независимого компонентного анализа» . Научные отчеты . 6 : 28073. Bibcode : 2016NatSR ... 628073I . DOI : 10.1038 / srep28073 . PMC 4914970 . PMID 27323661 .  
  3. ^ a b Стоун, Джеймс В. (2004). Независимый компонентный анализ: введение в учебное пособие . Кембридж, Массачусетс: MIT Press. ISBN 978-0-262-69315-8.
  4. ^ Хювэринен, Аапо; Карунен, Юха; Оя, Эркки (2001). Независимый компонентный анализ (1-е изд.). Нью-Йорк: Джон Вили и сыновья. ISBN 978-0-471-22131-9.
  5. ^ Йохан Химберг и Аапо Хювэринен, Независимый компонентный анализ двоичных данных: экспериментальное исследование , Proc. Int. Семинар по независимому компонентному анализу и слепому разделению сигналов (ICA2001), Сан-Диего, Калифорния, 2001.
  6. ^ Хай Нгуен и Ронг Чжэн, Анализ независимых двоичных компонентов с использованием или смесями , IEEE Transactions on Signal Processing, Vol. 59, выпуск 7. (июль 2011 г.), стр. 3168–3181.
  7. ^ Пайнски, Амичай; Россет, Сахарон; Федер, Меир (2014). Обобщенный двоичный анализ независимых компонентов . Международный симпозиум IEEE по теории информации (ISIT), 2014 . С. 1326–1330. DOI : 10.1109 / ISIT.2014.6875048 . ISBN 978-1-4799-5186-4. S2CID  18579555 .
  8. ^ Джеймс В. Стоун (2004); «Независимый компонентный анализ: введение в учебное пособие», MIT Press, Кембридж, Массачусетс, Лондон, Англия; ISBN 0-262-69315-1 
  9. ^ Крускала, JB. 1969; «К практическому методу, который помогает раскрыть структуру набора наблюдений путем нахождения линейного преобразования, которое оптимизирует новый« индекс конденсации », страницы 427–440 из: Milton, RC, & Nelder, JA (eds), Statistical computing ; Нью-Йорк, Academic Press
  10. ^ a b c Пьер Комон (1994) Независимый компонентный анализ, новая концепция? http://www.ece.ucsb.edu/wcsl/courses/ECE594/594C_F10Madhow/comon94.pdf
  11. ^ Хювэринен, Аапо; Эркки Оя (2000). «Независимый компонентный анализ: алгоритмы и приложения». Нейронные сети . 4-5. 13 (4–5): 411–430. CiteSeerX 10.1.1.79.7003 . DOI : 10.1016 / s0893-6080 (00) 00026-5 . PMID 10946390 .  
  12. ^ a b П.Комон, Независимый компонентный анализ, Семинар по статистике высшего порядка, июль 1991 г., переиздано в JL. Лакум, редактор, «Статистика высшего порядка», стр. 29–38. Эльзевир, Амстердам, Лондон, 1992. Ссылка HAL
  13. ^ Хювэринен, Аапо; Карунен, Юха; Оя, Эркки (2001). Независимый компонентный анализ (переиздание ред.). Нью-Йорк, штат Нью-Йорк: Wiley. ISBN 978-0-471-40540-5.
  14. ^ Hyvärinen, Аапо (1998). «Новые приближения дифференциальной энтропии для независимого компонентного анализа и поиска проекций». Достижения в системах обработки нейронной информации . 10 : 273–279.
  15. ^ Белл, AJ; Сейновски, Т.Дж. (1995). "Подход с максимизацией информации к слепому разделению и слепой деконволюции", Neural Computing, 7, 1129-1159
  16. ^ a b Джеймс В. Стоун (2004). «Независимый компонентный анализ: введение в учебное пособие», MIT Press, Кембридж, Массачусетс, Лондон, Англия; ISBN 0-262-69315-1 
  17. ^ Hérault, J .; Анс Б. (1984). "Réseau de нейронов и синапсов, модифицируемых: Декодирование сенсорных сообщений составных частей par ученичество без надзора и постоянное". Comptes Rendus de l'Académie des Sciences, Série III . 299 : 525–528.
  18. ^ ANS, Б., Эро, J., & Jutten, С. (1985). Адаптивные модели нейромиметических архитектур: обнаружение примитивов. Cognitiva 85 (том 2, стр. 593-597). Париж: CESTA.
  19. ^ Эро J., Jutten, С., & ANS, В. (1985). Обнаружение великих примитивов в составном сообщении, равном архитектуре вычисляемой нейромиметики и обучению без надзора. Материалы 10-го семинара Traitement du signal et ses applications (Том 2, стр. 1017-1022). Ницца (Франция): GRETSI.
  20. ^ Эро J., & Jutten, С. (1986). Адаптивная к пространству или времени обработка сигналов с помощью моделей нейронных сетей. Междунар. Конф. по нейронным сетям для вычислений (стр. 206-211). Snowbird (Юта, США).
  21. ^ Хохрайтер, Зепп; Шмидхубер, Юрген (1999). «Извлечение признаков с помощью LOCOCODE» (PDF) . Нейронные вычисления . 11 (3): 679–714. DOI : 10.1162 / 089976699300016629 . ISSN 0899-7667 . PMID 10085426 . S2CID 1642107 . Проверено 24 февраля 2018 .    
  22. ^ Браун, GD; Ямада, S; Сейновски, Т.Дж. (2001). «Анализ независимых компонентов на нейронном коктейле». Тенденции в неврологии . 24 (1): 54–63. DOI : 10.1016 / s0166-2236 (00) 01683-0 . PMID 11163888 . S2CID 511254 .  
  23. ^ Lewicki, MS (1998). «Обзор методов сортировки спайков: обнаружение и классификация нейронных потенциалов действия». Сеть: вычисления в нейронных системах . 9 (4): 53–78. DOI : 10.1088 / 0954-898X_9_4_001 . S2CID 10290908 . 
  24. ^ Бартлетт, МС (2001). Анализ изображения лица путем обучения без учителя . Бостон: Международная серия Kluwer по инженерным наукам и информатике.
  25. ^ Белл, AJ; Сейновски, Т.Дж. (1997). «Независимые компоненты естественных сцен - это краевые фильтры» . Исследование зрения . 37 (23): 3327–3338. DOI : 10.1016 / s0042-6989 (97) 00121-1 . PMC 2882863 . PMID 9425547 .  
  26. ^ Назад, AD; Weigend, AS (1997). «Первое применение независимого компонентного анализа для извлечения структуры из доходности акций». Международный журнал нейронных систем . 8 (4): 473–484. DOI : 10.1142 / s0129065797000458 . PMID 9730022 . S2CID 872703 .  
  27. ^ Hyvärinen, А, Карунен, J & Ой, Е (2001a). Независимый компонентный анализ . Нью-Йорк: Джон Уайли и сыновья.
  28. ^ Польдер, G; ван дер Хейен, FWAM (2003). «Оценка распределения соединений на спектральных изображениях томатов с использованием независимого компонентного анализа». Австрийское компьютерное общество : 57–64.
  29. ^ Делорм, А; Сейновски, Т; Макейг, S (2007). «Улучшенное обнаружение артефактов в данных ЭЭГ с использованием статистики более высокого порядка и независимого компонентного анализа» . NeuroImage . 34 (4): 1443–1449. DOI : 10.1016 / j.neuroimage.2006.11.004 . PMC 2895624 . PMID 17188898 .  
  30. ^ Trapnell, C; Cacchiarelli, D; Гримсби, Дж (2014). «Динамика и регуляторы решений клеточной судьбы выявляются псевдотрансляционным упорядочением отдельных клеток» . Природа Биотехнологии . 32 (4): 381–386. DOI : 10.1038 / nbt.2859 . PMC 4122333 . PMID 24658644 .  
  31. ^ Кивиниеми, Веса Дж .; Кантола, Джуха-Хейкки; Яухиайнен, Юкка; Hyvärinen, Aapo; Тервонен, Осмо (2003). «Независимый компонентный анализ недетерминированных источников сигнала фМРТ». NeuroImage . 19 (2): 253–260. DOI : 10.1016 / S1053-8119 (03) 00097-1 . PMID 12814576 . S2CID 17110486 .  
  32. ^ Ван, Цзинъин; Сюй, Хайгуан; Гу, Цзюньхуа; Ань, Дао; Цуй, Хайцзюань; Ли, Цзяньсюнь; Чжан, Чжунли; Чжэн, Цянь; У, Сян-Пин (01.11.2010). «Как идентифицировать и отделить яркие скопления галактик от низкочастотного радионеба?» . Астрофизический журнал . 723 (1): 620–633. DOI : 10.1088 / 0004-637X / 723/1/620 . ISSN 0004-637X . 

Ссылки [ править ]

  • Комон, Пьер (1994): "Независимый компонентный анализ: новая концепция?" , Signal Processing , 36 (3): 287–314 (оригинальная статья, описывающая концепцию ICA)
  • Hyvärinen, A .; Karhunen, J .; Ожа, Э. (2001): Независимый анализ компонентов , Нью-Йорк: Wiley, ISBN 978-0-471-40540-5 ( вводная глава ) 
  • Hyvärinen, A .; Оя, Э. (2000): «Независимый компонентный анализ: алгоритмы и приложения» , Нейронные сети , 13 (4-5): 411-430. (Техническое, но педагогическое введение).
  • Comon, P .; Юттен К., (2010): Справочник по слепому разделению источников, независимому компонентному анализу и приложениям. Academic Press, Оксфорд, Великобритания. ISBN 978-0-12-374726-6 
  • Ли, Т.-В. (1998): Независимый компонентный анализ: теория и приложения , Бостон, Массачусетс: Kluwer Academic Publishers, ISBN 0-7923-8261-7 
  • Ачарья, Ranjan (2008): новый подход к Blind Source Separation источников Convolutive - Wavelet основе разделения с помощью функции усадка ISBN 3-639-07797-0 ISBN 978-3639077971 (эта книга посвящена неконтролируемого обучения с Blind Source Separation)   

Внешние ссылки [ править ]

  • Что такое независимый компонентный анализ? Автор: Аапо Хювяринен
  • Независимый анализ компонентов: Учебное пособие от Аапо Хювяринена
  • Учебник по независимому анализу компонентов
  • FastICA как пакет для Matlab, на языке R, C ++
  • ICALAB Toolboxes для Matlab, разработанные в RIKEN
  • Набор инструментов High Performance Signal Analysis Toolkit предоставляет реализации FastICA и Infomax на C ++.
  • Набор инструментов ICA Инструменты Matlab для ICA с Bell-Sejnowski, Molgedey-Schuster и ICA среднего поля. Разработано в ДТУ.
  • Демонстрация проблемы коктейльной вечеринки
  • EEGLAB Toolbox ICA ЭЭГ для Matlab, разработанный в UCSD.
  • FMRLAB Toolbox ICA фМРТ для Matlab, разработанный в UCSD
  • MELODIC , часть библиотеки программного обеспечения FMRIB .
  • Обсуждение использования ICA в контексте биомедицинского представления формы.
  • Алгоритм FastICA, CuBICA, JADE и TDSEP для Python и многое другое ...
  • Group ICA Toolbox и Fusion ICA Toolbox
  • Учебное пособие: Использование ICA для очистки сигналов ЭЭГ