Из Википедии, бесплатной энциклопедии
  (Перенаправлено из алгоритма максимизации ожидания )
Перейти к навигации Перейти к поиску

В статистике , ожидание максимизации ( ЭМ ) Алгоритм представляет собой итерационный метод , чтобы найти (локальное) максимальное правдоподобие или максимальный апостериорный (MAP) оценки параметров в статистических моделях , где модель зависит от ненаблюдаемого латентных переменных . Итерация EM чередуется между выполнением этапа ожидания (E), который создает функцию для ожидания логарифмической вероятности, оцениваемой с использованием текущей оценки параметров, и этапом максимизации (M), на котором вычисляются параметры, максимизирующие ожидаемый логарифм правдоподобия. вероятность найти наШаг E. Эти оценки параметров затем используются для определения распределения скрытых переменных на следующем этапе E.

EM-кластеризация данных об извержениях Old Faithful . Случайная исходная модель (которая из-за разных масштабов осей кажется двумя очень плоскими и широкими сферами) соответствует наблюдаемым данным. На первых итерациях модель существенно меняется, но затем сходится к двум режимам гейзера . Визуализируется с помощью ELKI .

История [ править ]

Алгоритм EM был объяснен и получил свое название в классической статье 1977 года Артура Демпстера , Нэн Лэрд и Дональда Рубина . [1] Они указали, что этот метод «много раз предлагался при особых обстоятельствах» более ранними авторами. Одним из первых является метод подсчета генов для оценки частот аллелей Седрика Смита . [2] Очень подробное рассмотрение метода ЭМ для экспоненциальных семейств было опубликовано Рольфом Сундбергом в его диссертации и нескольких статьях [3] [4] [5] после его сотрудничества с Пером Мартином-Лёфом и Андерсом Мартином-Лёфом . [6] [7][8] [9] [10] [11] [12] Статья Демпстера – Лэрда – Рубина 1977 г. обобщила метод и наметила анализ сходимости для более широкого класса задач. В статье Демпстера – Лэрда – Рубина ЭМ-метод определен как важный инструмент статистического анализа.

Анализ сходимости алгоритма Демпстера – Лэрда – Рубина был ошибочным, и правильный анализ сходимости был опубликован CF Jeff Wu в 1983 году. [13] Доказательство Ву установило сходимость метода EM вне экспоненциального семейства , как утверждал Демпстер – Лейрд– Вбивать в голову. [13]

Введение [ править ]

Алгоритм EM используется для поиска (локальных) параметров максимального правдоподобия статистической модели в случаях, когда уравнения не могут быть решены напрямую. Обычно эти модели включают скрытые переменные в дополнение к неизвестным параметрам и известным данным наблюдений. То есть либо среди данных существуют отсутствующие значения , либо модель может быть сформулирована более просто, допуская существование дополнительных ненаблюдаемых точек данных. Например, модель смеси можно описать более просто, если предположить, что каждая наблюдаемая точка данных имеет соответствующую ненаблюдаемую точку данных или скрытую переменную, определяющую компонент смеси, которому принадлежит каждая точка данных.

Нахождение решения с максимальным правдоподобием обычно требует взятия производных от функции правдоподобия по всем неизвестным значениям, параметрам и скрытым переменным и одновременного решения полученных уравнений. В статистических моделях со скрытыми переменными это обычно невозможно. Вместо этого результатом обычно является набор взаимосвязанных уравнений, в которых решение параметров требует значений скрытых переменных и наоборот, но замена одного набора уравнений в другой дает неразрешимое уравнение.

Алгоритм EM исходит из наблюдения, что существует способ решить эти две системы уравнений численно. Можно просто выбрать произвольные значения для одного из двух наборов неизвестных, использовать их для оценки второго набора, затем использовать эти новые значения, чтобы найти лучшую оценку первого набора, а затем продолжать чередовать эти два до тех пор, пока оба результирующих значения не будут сходятся к неподвижным точкам. Не очевидно, что это сработает, но можно доказать, что в данном контексте это работает, и что производная вероятности (произвольно близка) к нулю в этой точке, что, в свою очередь, означает, что точка является либо максимумом, либо седловой точки . [13] Как правило, могут возникать множественные максимумы без гарантии, что глобальный максимум будет найден. Некоторые вероятности также имеютособенности в них, т. е. бессмысленные максимумы. Например, одно из решений, которое может найти EM в смешанной модели, включает в себя установку одного из компонентов на нулевую дисперсию и параметр среднего значения для того же компонента, равный одной из точек данных.

Описание [ править ]

Учитывая статистическую модель , которая генерирует набор наблюдаемых данных, набор ненаблюдаемых латентных данных или пропущенные значения , и вектор неизвестных параметров , а также функция правдоподобия , то оценка максимального правдоподобия (MLE) неизвестных параметров определяются путем максимизации предельная вероятность наблюдаемых данных

Однако с этой величиной часто трудно справиться (например, если это последовательность событий, так что количество значений растет экспоненциально с длиной последовательности, точное вычисление суммы будет чрезвычайно трудным).

Алгоритм EM пытается найти MLE предельного правдоподобия, итеративно применяя эти два шага:

Шаг Ожидание (Е шаг) : Определить , как ожидаемое значение из журнала функции правдоподобия из , по отношению к текущему условного распределения из дается и текущих оценок параметров :
Шаг максимизации (шаг M) : найдите параметры, которые максимизируют это количество:

Типичные модели, к которым применяется EM, используют как скрытую переменную, указывающую на принадлежность к одной из множества групп:

  1. Наблюдаемые точки данных могут быть дискретными (принимающими значения в конечном или счетно бесконечном множестве) или непрерывными (принимающими значения в несчетно бесконечном множестве). С каждой точкой данных может быть связан вектор наблюдений.
  2. В пропущенные значения ( так называемые латентные переменные ) являются дискретными , взяты из фиксированного числа значений, и с одной скрытой переменной в наблюдаемой единицы.
  3. Параметры являются непрерывными и бывают двух видов: параметры, связанные со всеми точками данных, и параметры, связанные с конкретным значением скрытой переменной (т. Е. Связанные со всеми точками данных, у которых соответствующая скрытая переменная имеет это значение).

Однако ЭМ можно применять к другим типам моделей.

Мотив таков. Если значение параметров известно, обычно значение скрытых переменных можно найти путем максимизации логарифма правдоподобия по всем возможным значениям , либо просто путем повторения, либо с помощью такого алгоритма, как алгоритм Баума – Велча для скрытого Маркова. модели . И наоборот, если мы знаем значение скрытых переменных , мы можем довольно легко найти оценку параметров , обычно просто группируя наблюдаемые точки данных в соответствии со значением связанной скрытой переменной и усредняя значения или некоторую функцию от значения баллов в каждой группе. Это предполагает итеративный алгоритм, в случае, когда и и неизвестны:

  1. Сначала инициализируйте параметры некоторыми случайными значениями.
  2. Вычислите вероятность каждого возможного значения , данного .
  3. Затем используйте только что вычисленные значения, чтобы вычислить более точную оценку параметров .
  4. Повторите шаги 2 и 3 до схождения.

Алгоритм, как только что описанный, монотонно приближается к локальному минимуму функции стоимости.

Свойства [ править ]

Говорить о шаге ожидания (E) немного неправильно . То , что вычисляются на первом этапе являются фиксированными, данные , зависящие от параметров функции Q . Как только параметры Q известны, они полностью определяются и максимизируются на втором (M) шаге алгоритма EM.

Хотя итерация EM увеличивает наблюдаемые данные (т. Е. Предельную) функцию правдоподобия, нет гарантии, что последовательность сходится к оценщику максимального правдоподобия . Для мультимодальных распределений это означает, что алгоритм EM может сходиться к локальному максимуму наблюдаемой функции правдоподобия данных в зависимости от начальных значений. Существует множество эвристических или метаэвристических подходов, позволяющих избежать локального максимума, например, восхождение на холм со случайным перезапуском (начиная с нескольких различных случайных начальных оценок θ ( t ) ) или применение методов моделирования отжига .

EM особенно полезен, когда вероятность является экспоненциальным семейством : шаг E становится суммой ожиданий достаточной статистики , а шаг M включает максимизацию линейной функции. В таком случае обычно можно получить обновления выражений в закрытой форме для каждого шага, используя формулу Сундберга (опубликованную Рольфом Сундбергом с использованием неопубликованных результатов Пера Мартина-Лёфа и Андерса Мартина-Лёфа ). [4] [5] [8] [9] [10] [11] [12]

Метод EM был изменен для вычисления максимальных апостериорных оценок (MAP) для байесовского вывода в исходной статье Демпстера, Лэрда и Рубина.

Существуют и другие методы для поиска оценок максимального правдоподобия, такие как градиентный спуск , сопряженный градиент или варианты алгоритма Гаусса – Ньютона . В отличие от EM, такие методы обычно требуют оценки первой и / или второй производной функции правдоподобия.

Доказательство правильности [ править ]

Максимизация ожиданий работает скорее на улучшение , чем на прямое улучшение . Здесь показано, что улучшения первого подразумевают улучшения второго. [14]

Для любого с ненулевой вероятностью мы можем написать

Мы берем математическое ожидание возможных значений неизвестных данных при текущей оценке параметра путем умножения обеих частей на и суммирования (или интегрирования) . Левая часть - это математическое ожидание константы, поэтому мы получаем:

где определяется отрицательной суммой, которую он заменяет. Это последнее уравнение справедливо для любого значения, включая ,

и вычитание этого последнего уравнения из предыдущего уравнения дает

Однако неравенство Гиббса говорит нам об этом , поэтому мы можем заключить, что

На словах, выбор улучшения приводит к улучшению как минимум на столько же.

Как процедура максимизации – максимизации [ править ]

Алгоритм EM можно рассматривать как два чередующихся шага максимизации, то есть как пример спуска координат . [15] [16] Рассмотрим функцию:

где q - произвольное распределение вероятностей по ненаблюдаемым данным z, а H (q) - энтропия распределения q . Эту функцию можно записать как

где это условное распределение ненаблюдаемых данных , приведенных наблюдаемые данные и является Кульбак-Либлер дивергенции .

Тогда шаги в алгоритме EM можно рассматривать как:

Шаг ожидания : выберите, чтобы максимизировать :
Шаг максимизации : выберите, чтобы максимизировать :

Приложения [ править ]

ЭМ часто используются для оценивания параметров смешанных моделей , [17] [18] В частности , в количественных генетиках . [19]

В психометрии EM - важный инструмент для оценки параметров предмета и скрытых способностей моделей теории реакции на предмет .

Благодаря способности работать с недостающими данными и наблюдать неопознанные переменные, EM становится полезным инструментом для определения цены и управления рисками портфеля. [ необходима цитата ]

Алгоритм ЭМ (и его более быстрый вариант максимизации ожидания упорядоченного подмножества ) также широко используется в реконструкции медицинских изображений , особенно в позитронно-эмиссионной томографии , однофотонной эмиссионной компьютерной томографии и рентгеновской компьютерной томографии . См. Ниже другие более быстрые варианты EM.

В проектировании конструкций алгоритм структурной идентификации с использованием максимизации ожиданий (STRIDE) [20] - это метод только для вывода для определения свойств естественной вибрации структурной системы с использованием данных датчиков (см. Оперативный модальный анализ ).

EM также часто используется для кластеризации данных , компьютерного зрения и машинного обучения . В обработке естественного языка два известных примера алгоритма - это алгоритм Баума – Велча для скрытых марковских моделей и алгоритм изнутри-снаружи для неконтролируемой индукции вероятностных контекстно-свободных грамматик .

Алгоритмы фильтрации и сглаживания EM [ править ]

Фильтр Калмана обычно используется для оценки состояния он-лайн и минимальной дисперсией гладкой может быть использован для офф-лайн или оценки состояния пакета. Однако эти решения с минимальной дисперсией требуют оценок параметров модели в пространстве состояний. EM-алгоритмы могут использоваться для решения задач совместного оценивания состояния и параметров.

Алгоритмы фильтрации и сглаживания EM возникают при повторении этой двухэтапной процедуры:

E-шаг
Воспользуйтесь фильтром Калмана или сглаживателем с минимальной дисперсией, разработанным с текущими оценками параметров, чтобы получить обновленные оценки состояния.
M-шаг
Используйте отфильтрованные или сглаженные оценки состояния в вычислениях максимального правдоподобия, чтобы получить обновленные оценки параметров.

Предположим, что фильтр Калмана или сглаживатель с минимальной дисперсией работает с измерениями системы с одним входом и одним выходом, которая обладает аддитивным белым шумом. Обновленная оценка дисперсии шума измерения может быть получена из расчета максимального правдоподобия.

где - скалярные выходные оценки, вычисленные фильтром или сглаживателем из N скалярных измерений . Вышеупомянутое обновление также можно применить для обновления интенсивности шума измерения Пуассона. Аналогично, для авторегрессивного процесса первого порядка обновленная оценка дисперсии шума процесса может быть вычислена с помощью

где и - скалярные оценки состояния, вычисленные фильтром или сглаживателем. Обновленная оценка коэффициента модели получена через

Сходимость оценок параметров, подобных приведенным выше, хорошо изучена. [21] [22] [23] [24]

Варианты [ править ]

Был предложен ряд методов для ускорения иногда медленной сходимости алгоритма EM, например, использующих сопряженный градиент и модифицированные методы Ньютона (Ньютона – Рафсона). [25] Также EM может использоваться с ограниченными методами оценки.

Алгоритм максимизации ожидания с расширенными параметрами (PX-EM) часто обеспечивает ускорение за счет «использования« ковариационной корректировки »для корректировки анализа шага M, извлекая выгоду из дополнительной информации, содержащейся в вмененных полных данных». [26]

Условная максимизация ожидания (ECM) заменяет каждый шаг M последовательностью шагов условной максимизации (CM), в которой каждый параметр θ i максимизируется индивидуально, при условии, что другие параметры остаются фиксированными. [27] Сам по себе может быть расширен до алгоритма условной максимизации ожидания (ECME) . [28]

Эта идея получила дальнейшее развитие в алгоритме максимизации обобщенного ожидания (GEM) , в котором ищется только увеличение целевой функции F как для шага E, так и для шага M, как описано в разделе « Как процедура максимизации-максимизации ». [15] GEM продолжает развиваться в распределенной среде и показывает многообещающие результаты. [29]

Также можно рассматривать алгоритм EM как подкласс алгоритма MM (Majorize / Minimize или Minorize / Maximize, в зависимости от контекста) [30] и, следовательно, использовать любой механизм, разработанный в более общем случае.

алгоритм α-EM [ править ]

Q-функция, используемая в алгоритме EM, основана на логарифмической вероятности. Поэтому он рассматривается как алгоритм log-EM. Использование логарифма правдоподобия может быть обобщено на использование логарифмического отношения правдоподобия. Затем, логарифмическое отношение правдоподобия наблюдаемых данных может быть точно выражено как равенство с использованием Q-функции логарифмического отношения правдоподобия и дивергенции. Получение этой Q-функции представляет собой обобщенный шаг E. Его максимизация - это обобщенный M-шаг. Эта пара называется алгоритмом α-EM [31], который содержит алгоритм log-EM в качестве подкласса. Таким образом, алгоритм α-EM Ясуо Мацуямыявляется точным обобщением алгоритма log-EM. Расчет градиента или матрицы Гессе не требуется. Α-EM показывает более быструю сходимость, чем алгоритм log-EM, при выборе подходящего α. Алгоритм α-EM приводит к более быстрой версии алгоритма оценки скрытой марковской модели α-HMM.[32]

Отношение к вариационным байесовским методам [ править ]

EM - это частично небайесовский метод максимального правдоподобия. Его окончательный результат дает распределение вероятностей по скрытым переменным (в байесовском стиле) вместе с точечной оценкой для θ (либо оценка максимального правдоподобия, либо апостериорная мода). Может потребоваться полностью байесовская версия этого, дающая распределение вероятностей по θ и скрытым переменным. Байесовский подход к умозаключениям состоит в том, чтобы просто рассматривать θ как еще одну скрытую переменную. В этой парадигме исчезает различие между ступенями E и M. При использовании факторизованного Q-приближения, как описано выше ( вариационный байесовский ), решение может повторяться по каждой скрытой переменной (теперь включая θ) и оптимизируйте их по очереди. Теперь требуется k шагов на итерацию, где k - количество скрытых переменных. Для графических моделей это легко сделать, поскольку новый Q каждой переменной зависит только от ее марковского покрытия , поэтому для эффективного вывода можно использовать локальную передачу сообщений .

Геометрическая интерпретация [ править ]

В информационной геометрии шаг E и шаг M интерпретируются как проекции при двойных аффинных связях , называемых e-связью и m-связью; дивергенции Кульбака-Либлер также могут быть поняты в этих терминах.

Примеры [ править ]

Гауссова смесь [ править ]

Сравнение k-средних и EM на искусственных данных, визуализированных с помощью ELKI . Используя дисперсии, алгоритм EM может точно описывать нормальные распределения, в то время как k-means разбивает данные на ячейки Вороного . Центр кластера обозначен более светлым и большим символом.
Анимация, демонстрирующая, как алгоритм EM подбирает двухкомпонентную модель смеси Гаусса к набору данных Old Faithful . Алгоритм переходит от случайной инициализации к сходимости.

Пусть будет выборкой независимых наблюдений из смеси двух многомерных нормальных распределений размерности , и пусть будет скрытыми переменными, которые определяют компонент, из которого происходит наблюдение. [16]

а также

где

а также

Цель состоит в том, чтобы оценить неизвестные параметры, представляющие значение смешивания между гауссианами и средними значениями и ковариациями каждого из них:

где функция правдоподобия неполных данных

а функция правдоподобия полных данных

или же

где - индикаторная функция, а - функция плотности вероятности многомерной нормали.

В последнем равенстве для каждого i один показатель равен нулю, а один показатель равен единице. Таким образом, внутренняя сумма сводится к одному члену.

Шаг E [ править ]

Учитывая нашу текущую оценку параметров θ ( t ) , условное распределение Z i определяется теоремой Байеса как пропорциональная высота нормальной плотности, взвешенной по τ :

Они называются «вероятностями членства», которые обычно считаются выходными данными шага E (хотя это не функция Q, описанная ниже).

Этот шаг E соответствует настройке этой функции для Q:

Математическое ожидание внутри суммы берется относительно функции плотности вероятности , которая может быть разной для каждого обучающего набора. Все в шаге E известно до того, как шаг будет сделан, за исключением того , что вычисляется в соответствии с уравнением в начале раздела шага E.

Это полное условное ожидание не нужно рассчитывать за один шаг, потому что τ и μ / Σ появляются в отдельных линейных членах и, таким образом, могут быть максимизированы независимо.

Шаг M [ править ]

Q ( θ  |  θ ( t ) ) квадратичная форма означает, что определение максимальных значений θ относительно несложно. Кроме того, τ , ( μ 1 , Σ 1 ) и ( μ 2 , Σ 2 ) могут быть максимизированы независимо, поскольку все они появляются в отдельных линейных членах.

Для начала рассмотрим τ , у которого есть ограничение τ 1 + τ 2 = 1:

Он имеет ту же форму, что и MLE для биномиального распределения , поэтому

Для следующих оценок ( μ 1 , Σ 1 ):

Он имеет ту же форму, что и взвешенный MLE для нормального распределения, поэтому

а также

и по симметрии

а также

Прекращение действия [ править ]

Заключить итерационный процесс , если для ниже некоторого заданного порога.

Обобщение [ править ]

Алгоритм, проиллюстрированный выше, может быть обобщен для смесей более чем двух многомерных нормальных распределений .

Усеченная и цензурированная регрессия [ править ]

Алгоритм EM был реализован в случае, когда существует базовая модель линейной регрессии, объясняющая изменение некоторой величины, но когда фактически наблюдаемые значения являются цензурированными или усеченными версиями представленных в модели. [33] Частные случаи этой модели включают цензурированные или усеченные наблюдения из одного нормального распределения . [33]

Альтернативы [ править ]

EM обычно сходится к локальному оптимуму, не обязательно к глобальному оптимуму, без каких-либо ограничений на скорость сходимости в целом. Возможно, что он может быть сколь угодно бедным в больших размерностях и может иметь экспоненциальное число локальных оптимумов. Следовательно, существует потребность в альтернативных методах гарантированного обучения, особенно в условиях большой размерности. Существуют альтернативы ЭМ с лучшими гарантиями согласованности, которые называются подходами на основе моментов [34] или так называемыми спектральными методами [35] [36] [ необходима цитата ]. Моментные подходы к изучению параметров вероятностной модели в последнее время вызывают все больший интерес, поскольку они обладают такими гарантиями, как глобальная конвергенция при определенных условиях, в отличие от EM, который часто страдает проблемой застревания в локальных оптимумах. Алгоритмы с гарантиями обучения могут быть получены для ряда важных моделей, таких как модели смесей, HMM и т. Д. Для этих спектральных методов не возникает ложных локальных оптимумов, и истинные параметры могут быть последовательно оценены при некоторых условиях регулярности [ необходима ссылка ] .

См. Также [ править ]

  • распределение смеси
  • составное распределение
  • оценка плотности
  • спектроскопия полного поглощения
  • Алгоритм EM можно рассматривать как частный случай алгоритма мажоризации-минимизации (MM) . [37]

Ссылки [ править ]

  1. ^ Демпстер, AP ; Лэрд, Нью-Мексико ; Рубин, ДБ (1977). «Максимальная вероятность неполных данных с помощью алгоритма EM». Журнал Королевского статистического общества, Series B . 39 (1): 1–38. JSTOR 2984875 . Руководство по ремонту 0501537 .  
  2. ^ Ceppelini, RM (1955). «Оценка частот генов в популяции случайного спаривания». Аня. Гм. Genet . 20 (2): 97–115. DOI : 10.1111 / j.1469-1809.1955.tb01360.x . PMID 13268982 . S2CID 38625779 .  
  3. ^ Сундберг, Рольф (1974). «Теория максимального правдоподобия для неполных данных из экспоненциальной семьи». Скандинавский статистический журнал . 1 (2): 49–58. JSTOR 4615553 . Руководство по ремонту 0381110 .  
  4. ^ а б Рольф Сундберг. 1971. Теория максимального правдоподобия и приложения для распределений, генерируемых при наблюдении функции экспоненциальной переменной семейства . Диссертация, Институт математической статистики, Стокгольмский университет.
  5. ^ a b Сундберг, Рольф (1976). «Итерационный метод решения уравнений правдоподобия для неполных данных из экспоненциальных семейств». Коммуникации в статистике - моделирование и вычисления . 5 (1): 55–64. DOI : 10.1080 / 03610917608812007 . Руководство по ремонту 0443190 . 
  6. ^ См. Благодарность Демпстера, Лэрда и Рубина на страницах 3, 5 и 11.
  7. ^ Г. Куллдорф. 1961. Вклад в теорию оценивания по сгруппированным и частично сгруппированным выборкам . Альмквист и Викселл.
  8. ^ a b Андерс Мартин-Лёф. 1963. "Utvärdering av livslängder i subnanosekundsområdet" ("Оценка субнаносекундных времен жизни"). («Формула Сундберга»)
  9. ^ а б Пер Мартин-Лёф . 1966. Статистика с точки зрения статистической механики . Конспект лекций Математического института Орхусского университета. («Формула Сундберга» приписана Андерсу Мартин-Лёфу)
  10. ^ а б Пер Мартин-Лёф . 1970. Statistika Modeller (Статистические модели): Anteckningar from Seminarier läsåret 1969–1970 (Записи семинаров в 1969-1970 учебном году), при содействии Рольфа Сундберга. Стокгольмский университет. («Формула Сундберга»)
  11. ^ a b Мартин-Лёф, П. Понятие избыточности и его использование в качестве количественной меры отклонения между статистической гипотезой и набором данных наблюдений. При обсуждении Ф. Abildgård, А. П. Демпстера , Д. Басу , DR Кокс , AWF Эдвардс , Д. Шпротт, Г. А. Барнарда , О. Barndorff-Nielsen, JD Kalbfleisch и Г. Раша и ответ автора. Труды конференции по основополагающим вопросам статистического вывода (Орхус, 1973), стр. 1–42. Воспоминания, № 1, Теорет. Статист., Инст. Матем., Univ. Орхус, Орхус, 1974.
  12. ^ a b Мартин-Лёф, Пер (1974). «Понятие избыточности и его использование в качестве количественной меры несоответствия между статистической гипотезой и набором данных наблюдений». Сканд. J. Statist . 1 (1): 3–18.
  13. ↑ a b c Wu, CF Jeff (март 1983 г.). «О свойствах сходимости алгоритма ЭМ» . Анналы статистики . 11 (1): 95–103. DOI : 10.1214 / AOS / 1176346060 . JSTOR 2240463 . Руководство по ремонту 0684867 .  
  14. ^ Литтл, Родерик JA; Рубин, Дональд Б. (1987). Статистический анализ с отсутствующими данными . Ряд Уайли по вероятности и математической статистике. Нью-Йорк: Джон Вили и сыновья. стр.  134 -136. ISBN 978-0-471-80254-9.
  15. ^ а б Нил, Рэдфорд; Хинтон, Джеффри (1999). Майкл И. Джордан (ред.). Обзор алгоритма EM, который оправдывает инкрементные, разреженные и другие варианты (PDF) . Обучение в графических моделях . Кембридж, Массачусетс: MIT Press. С. 355–368. ISBN  978-0-262-60032-3. Проверено 22 марта 2009 .
  16. ^ a b Хасти, Тревор ; Тибширани, Роберт ; Фридман, Джером (2001). «8.5 Алгоритм ЭМ». Элементы статистического обучения . Нью-Йорк: Спрингер. стр.  236 -243. ISBN 978-0-387-95284-0.
  17. ^ Линдстрем, Мэри J; Бейтс, Дуглас М (1988). "Алгоритмы Ньютона-Рафсона и EM для линейных моделей смешанных эффектов для данных повторяющихся измерений". Журнал Американской статистической ассоциации . 83 (404): 1014. DOI : 10.1080 / 01621459.1988.10478693 .
  18. Перейти ↑ Van Dyk, David A (2000). «Подбор моделей со смешанными эффектами с использованием эффективных алгоритмов EM-типа». Журнал вычислительной и графической статистики . 9 (1): 78–98. DOI : 10.2307 / 1390614 . JSTOR 1390614 . 
  19. ^ Диффи, С. М; Смит, А. Б; Валлийский, A.H; Каллис, Б. Р. (2017). «Новый алгоритм ЭМ REML (расширенный параметр) для линейных смешанных моделей» . Статистический журнал Австралии и Новой Зеландии . 59 (4): 433. DOI : 10.1111 / anzs.12208 .
  20. ^ Matarazzo, TJ, и Пакзад, SN (2016). «STRIDE для структурной идентификации с использованием максимизации ожиданий: итерационный метод только для вывода для модальной идентификации». Журнал инженерной механики. http://ascelibrary.org/doi/abs/10.1061/(ASCE)EM.1943-7889.0000951
  21. ^ Эйнике, Джорджия; Малос, JT; Рид, округ Колумбия; Хейнсворт, DW (январь 2009 г.). «Уравнение Риккати и сходимость алгоритмов ЭМ для выравнивания инерциальной навигации». IEEE Trans. Сигнальный процесс . 57 (1): 370–375. Bibcode : 2009ITSP ... 57..370E . DOI : 10.1109 / TSP.2008.2007090 . С2ЦИД 1930004 . 
  22. ^ Эйнике, Джорджия; Falco, G .; Малос, Дж. Т. (май 2010 г.). "Матрица состояний алгоритмов ЭМ для навигации". Письма об обработке сигналов IEEE . 17 (5): 437–440. Bibcode : 2010ISPL ... 17..437E . DOI : 10,1109 / LSP.2010.2043151 . S2CID 14114266 . 
  23. ^ Эйнике, Джорджия; Falco, G .; Dunn, MT; Рид, округ Колумбия (май 2012 г.). «Итеративная сглаженная оценка дисперсии». Письма об обработке сигналов IEEE . 19 (5): 275–278. Bibcode : 2012ISPL ... 19..275E . DOI : 10,1109 / LSP.2012.2190278 . S2CID 17476971 . 
  24. ^ Einicke, GA (сентябрь 2015). «Итерационная фильтрация и сглаживание измерений с пуассоновским шумом». IEEE Transactions по аэрокосмическим и электронным системам . 51 (3): 2205–2011. Bibcode : 2015ITAES..51.2205E . DOI : 10.1109 / TAES.2015.140843 . S2CID 32667132 . 
  25. ^ Джамшидиан, Мортаза; Дженнрих, Роберт И. (1997). «Ускорение алгоритма ЭМ с помощью квазиньютоновских методов». Журнал Королевского статистического общества, Series B . 59 (2): 569–587. DOI : 10.1111 / 1467-9868.00083 . Руководство по ремонту 1452026 . 
  26. Перейти ↑ Liu, C (1998). «Расширение параметров для ускорения EM: алгоритм PX-EM». Биометрика . 85 (4): 755–770. CiteSeerX 10.1.1.134.9617 . DOI : 10.1093 / Biomet / 85.4.755 . 
  27. ^ Мэн, Сяо-Ли; Рубин, Дональд Б. (1993). «Оценка максимального правдоподобия с помощью алгоритма ECM: общие рамки». Биометрика . 80 (2): 267–278. DOI : 10.1093 / Biomet / 80.2.267 . Руководство по ремонту 1243503 . S2CID 40571416 .  
  28. ^ Лю, Чуаньхай; Рубин, Дональд Б. (1994). «Алгоритм ECME: простое расширение EM и ECM с более быстрой монотонной сходимостью». Биометрика . 81 (4): 633. DOI : 10,1093 / Biomet / 81.4.633 . JSTOR 2337067 . 
  29. ^ Цзянтао Инь; Янфэн Чжан; Лисинь Гао (2012). «Ускорение ожиданий - алгоритмы максимизации с частыми обновлениями» (PDF) . Труды Международной конференции IEEE по кластерным вычислениям .
  30. ^ Хантер Д. Р. и Ланге К. (2004), Учебное пособие по алгоритмам ММ , Американский статистик, 58: 30–37
  31. ^ Мацуяма, Ясуо (2003). «Алгоритм α-EM: максимизация суррогатного правдоподобия с использованием мер α-логарифмической информации». IEEE Transactions по теории информации . 49 (3): 692–706. DOI : 10.1109 / TIT.2002.808105 .
  32. ^ Мацуяма, Ясуо (2011). «Оценка скрытой марковской модели на основе альфа-EM алгоритма: дискретные и непрерывные альфа-HMM». Международная совместная конференция по нейронным сетям : 808–816.
  33. ^ а б Волинец, MS (1979). «Оценка максимального правдоподобия в линейной модели на основе ограниченных и подвергнутых цензуре нормальных данных». Журнал Королевского статистического общества, серия C . 28 (2): 195–206. DOI : 10.2307 / 2346749 . JSTOR 2346749 . 
  34. ^ Пирсон, Карл (1894). «Вклад в математическую теорию эволюции» . Философские труды Королевского общества Лондона A . 185 : 71–110. Bibcode : 1894RSPTA.185 ... 71P . DOI : 10,1098 / rsta.1894.0003 . ISSN 0264-3820 . JSTOR 90667 .  
  35. ^ Шабан, Амирреза; Мехрдад, Фараджтабар; Бо, Се; Ле, песня; Байрон, Сапоги (2015). «Изучение моделей со скрытыми переменными путем улучшения спектральных решений с помощью метода внешней точки» (PDF) . UAI : 792–801.
  36. ^ Балле, Борха Quattoni, Ариадна Каррерас, Xavier (2012-06-27). Оптимизация локальных потерь в моделях операторов: новый взгляд на спектральное обучение . OCLC 815865081 . CS1 maint: multiple names: authors list (link)
  37. ^ Ланге, Кеннет. «Алгоритм ММ» (PDF) .

Дальнейшее чтение [ править ]

  • Хогг, Роберт; Маккин, Джозеф; Крейг, Аллен (2005). Введение в математическую статистику . Река Аппер Сэдл, Нью-Джерси: Пирсон Прентис Холл. С. 359–364.
  • Делларт, Франк (2002). «Алгоритм максимизации ожидания». CiteSeerX  10.1.1.9.97 35 . Cite journal requires |journal= (help) дает более простое объяснение алгоритма EM в отношении максимизации нижней границы.
  • Епископ, Кристофер М. (2006). Распознавание образов и машинное обучение . Springer. ISBN 978-0-387-31073-2.CS1 maint: ref duplicates default (link)
  • Гупта, MR; Чен, Ю. (2010). «Теория и использование алгоритма ЭМ». Основы и тенденции в обработке сигналов . 4 (3): 223–296. CiteSeerX  10.1.1.219.6830 . DOI : 10.1561 / 2000000034 . Хорошо написанная короткая книга по EM, включая подробный вывод EM для GMM, HMM и Дирихле.
  • Билмес, Джефф (1998). "Мягкое руководство по алгоритму ЭМ и его применению к оценке параметров для гауссовской смеси и скрытых марковских моделей". CiteSeerX  10.1.1.28.613 . Cite journal requires |journal= (help) включает упрощенный вывод уравнений EM для гауссовых смесей и скрытых марковских моделей гауссовской смеси.
  • Маклахлан, Джеффри Дж .; Кришнан, Триямбакам (2008). Алгоритм EM и расширения (2-е изд.). Хобокен: Вайли. ISBN 978-0-471-20170-0.

Внешние ссылки [ править ]

  • Различные одномерные, двухмерные и трехмерные демонстрации ЭМ вместе со смешанным моделированием предоставляются как часть парных действий и апплетов SOCR . Эти апплеты и действия эмпирически демонстрируют свойства алгоритма EM для оценки параметров в различных условиях.
  • k-MLE: быстрый алгоритм для изучения моделей статистической смеси
  • Иерархия классов в C ++ (GPL), включая гауссовские смеси
  • Он-лайн учебник: Теория информации, логические выводы и алгоритмы обучения , написанный Дэвидом Дж. К. Маккеем, включает простые примеры алгоритма EM, такие как кластеризация с использованием алгоритма мягких k- средних, и подчеркивает вариационный взгляд на алгоритм EM, как описано в Глава 33.7 версии 7.2 (четвертое издание).
  • Вариационные алгоритмы для приближенного байесовского вывода , автор MJ Beal, включают сравнения EM с вариационным байесовским EM и вывод нескольких моделей, включая вариационные байесовские HMM ( главы ).
  • Алгоритм максимизации ожиданий: краткое руководство , самостоятельный вывод алгоритма EM Шона Бормана.
  • Алгоритм EM , Сяоцзинь Чжу.
  • Алгоритм и варианты EM: неформальное руководство Алексис Рош. Краткое и очень понятное описание ЭМ и множество интересных вариантов.