Часть серии по |
Регрессивный анализ |
---|
Модели |
Оценка |
|
Фон |
|
|
Метод итеративно взвешенных наименьших квадратов ( IRLS ) используется для решения некоторых задач оптимизации с целевыми функциями вида p -нормы :
с помощью итерационного метода , в котором каждый шаг включает в себя решения взвешенных наименьших квадратов задачу вида: [1]
IRLS используется для поиска оценок максимального правдоподобия обобщенной линейной модели и в устойчивой регрессии для поиска M-оценки как способ смягчения влияния выбросов в наборе данных, обычно распределенных в других отношениях. Например, минимизируя наименьшие абсолютные ошибки, а не наименьшие квадратичные ошибки .
Одним из преимуществ IRLS перед линейным программированием и выпуклым программированием является то, что его можно использовать с численными алгоритмами Гаусса – Ньютона и Левенберга – Марквардта .
Примеры [ править ]
Минимизация L 1 для разреженного восстановления [ править ]
IRLS может быть использован для ℓ 1 минимизации и сглаженный л р минимизации, р <1, в сжатом зондировании проблем. Доказано , что алгоритм имеет линейную скорость сходимости для ℓ 1 нормы и суперлинейного для л т с т <1, при ограниченной изометрии собственности , которая , как правило , является достаточным условием для разреженных решений. [2] [3] Однако в большинстве практических ситуаций свойство ограниченной изометрии не выполняется. [ необходима цитата ]
Линейная регрессия L p norm [ править ]
Чтобы найти параметры β = ( β 1 ,…, β k ) T, которые минимизируют норму L p для задачи линейной регрессии ,
алгоритм IRLS на шаге t + 1 включает решение взвешенной линейной задачи наименьших квадратов : [4]
где W ( t ) - диагональная матрица весов, обычно со всеми элементами, изначально установленными на:
и обновляется после каждой итерации до:
В случае p = 1 это соответствует регрессии с наименьшим абсолютным отклонением (в этом случае для решения проблемы лучше использовать методы линейного программирования [5], чтобы результат был точным) и формула имеет следующий вид:
Чтобы избежать деления на ноль, необходимо выполнить регуляризацию , поэтому на практике формула имеет следующий вид:
где какое-то небольшое значение, например 0,0001. [5] Обратите внимание, что использование в весовой функции эквивалентно функции потерь Хубера в робастной оценке. [6]
См. Также [ править ]
- Возможные обобщенные методы наименьших квадратов
- Алгоритм Вайсфельда (для аппроксимации геометрической медианы ), который можно рассматривать как частный случай IRLS
Заметки [ править ]
- ^ C. Сидни Burrus, итерационный Reweighted МНК
- ^ Chartrand, R .; Инь В. (31 марта - 4 апреля 2008 г.). «Алгоритмы с итеративным перевесом для сжатия данных». IEEE Международная конференция по акустике, речи и обработки сигналов (ICASSP), 2008 . С. 3869–3872. DOI : 10.1109 / ICASSP.2008.4518498 .
- ^ Daubechies, I .; Devore, R .; Fornasier, M .; Гюнтюрк, CSN (2010). «Минимизация методом наименьших квадратов с повторным взвешиванием для разреженного восстановления». Сообщения по чистой и прикладной математике . 63 : 1–38. arXiv : 0807.0575 . DOI : 10.1002 / cpa.20303 .
- ^ Нежный, Джеймс (2007). «6.8.1 Решения, минимизирующие другие нормы остатков». Матричная алгебра . Тексты Springer в статистике. Нью-Йорк: Спрингер. DOI : 10.1007 / 978-0-387-70873-7 . ISBN 978-0-387-70872-0.
- ^ a b Уильям А. Пфейл, Учебные пособия по статистике , диссертация бакалавра наук, Вустерский политехнический институт , 2006 г.
- ^ Fox, J .; Вайсберг, С. (2013), Робастная регрессия , Примечания к курсу, Университет Миннесоты
Ссылки [ править ]
- Численные методы для задач наименьших квадратов, Оке Бьорк (Глава 4: Обобщенные задачи наименьших квадратов).
- Практические методы наименьших квадратов для компьютерной графики. SIGGRAPH Курс 11
Внешние ссылки [ править ]
- Итеративное решение недоопределенных линейных систем