Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Метод итеративно взвешенных наименьших квадратов ( IRLS ) используется для решения некоторых задач оптимизации с целевыми функциями вида p -нормы :

с помощью итерационного метода , в котором каждый шаг включает в себя решения взвешенных наименьших квадратов задачу вида: [1]

IRLS используется для поиска оценок максимального правдоподобия обобщенной линейной модели и в устойчивой регрессии для поиска M-оценки как способ смягчения влияния выбросов в наборе данных, обычно распределенных в других отношениях. Например, минимизируя наименьшие абсолютные ошибки, а не наименьшие квадратичные ошибки .

Одним из преимуществ IRLS перед линейным программированием и выпуклым программированием является то, что его можно использовать с численными алгоритмами Гаусса – Ньютона и Левенберга – Марквардта .

Примеры [ править ]

Минимизация L 1 для разреженного восстановления [ править ]

IRLS может быть использован для ℓ 1 минимизации и сглаженный л р минимизации, р  <1, в сжатом зондировании проблем. Доказано , что алгоритм имеет линейную скорость сходимости для 1 нормы и суперлинейного для л т с т  <1, при ограниченной изометрии собственности , которая , как правило , является достаточным условием для разреженных решений. [2] [3] Однако в большинстве практических ситуаций свойство ограниченной изометрии не выполняется. [ необходима цитата ]

Линейная регрессия L p norm [ править ]

Чтобы найти параметры β  = ( β 1 ,…, β k ) T, которые минимизируют норму L p для задачи линейной регрессии ,

алгоритм IRLS на шаге t  + 1 включает решение взвешенной линейной задачи наименьших квадратов : [4]

где W ( t ) - диагональная матрица весов, обычно со всеми элементами, изначально установленными на:

и обновляется после каждой итерации до:

В случае p  = 1 это соответствует регрессии с наименьшим абсолютным отклонением (в этом случае для решения проблемы лучше использовать методы линейного программирования [5], чтобы результат был точным) и формула имеет следующий вид:

Чтобы избежать деления на ноль, необходимо выполнить регуляризацию , поэтому на практике формула имеет следующий вид:

где какое-то небольшое значение, например 0,0001. [5] Обратите внимание, что использование в весовой функции эквивалентно функции потерь Хубера в робастной оценке. [6]

См. Также [ править ]

  • Возможные обобщенные методы наименьших квадратов
  • Алгоритм Вайсфельда (для аппроксимации геометрической медианы ), который можно рассматривать как частный случай IRLS

Заметки [ править ]

  1. ^ C. Сидни Burrus, итерационный Reweighted МНК
  2. ^ Chartrand, R .; Инь В. (31 марта - 4 апреля 2008 г.). «Алгоритмы с итеративным перевесом для сжатия данных». IEEE Международная конференция по акустике, речи и обработки сигналов (ICASSP), 2008 . С. 3869–3872. DOI : 10.1109 / ICASSP.2008.4518498 .
  3. ^ Daubechies, I .; Devore, R .; Fornasier, M .; Гюнтюрк, CSN (2010). «Минимизация методом наименьших квадратов с повторным взвешиванием для разреженного восстановления». Сообщения по чистой и прикладной математике . 63 : 1–38. arXiv : 0807.0575 . DOI : 10.1002 / cpa.20303 .
  4. ^ Нежный, Джеймс (2007). «6.8.1 Решения, минимизирующие другие нормы остатков». Матричная алгебра . Тексты Springer в статистике. Нью-Йорк: Спрингер. DOI : 10.1007 / 978-0-387-70873-7 . ISBN 978-0-387-70872-0.
  5. ^ a b Уильям А. Пфейл, Учебные пособия по статистике , диссертация бакалавра наук, Вустерский политехнический институт , 2006 г.
  6. ^ Fox, J .; Вайсберг, С. (2013), Робастная регрессия , Примечания к курсу, Университет Миннесоты

Ссылки [ править ]

  • Численные методы для задач наименьших квадратов, Оке Бьорк (Глава 4: Обобщенные задачи наименьших квадратов).
  • Практические методы наименьших квадратов для компьютерной графики. SIGGRAPH Курс 11

Внешние ссылки [ править ]

  • Итеративное решение недоопределенных линейных систем