Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В математике низкоранговая аппроксимация - это задача минимизации , в которой функция стоимости измеряет соответствие между заданной матрицей (данными) и аппроксимирующей матрицей (переменная оптимизации) при условии, что аппроксимирующая матрица имеет пониженный ранг . Задача используется для математического моделирования и сжатия данных . Ограничение ранга связано с ограничением сложности модели, которая соответствует данным. В приложениях часто существуют другие ограничения на аппроксимирующую матрицу, помимо ограничения ранга, например неотрицательность и ганкелевская структура .

Аппроксимация низкого ранга тесно связана с:

Определение [ править ]

Дано

  • спецификация конструкции ,
  • вектор параметров конструкции ,
  • норма , и
  • желаемый ранг ,

Приложения [ править ]

Основная задача аппроксимации низкого ранга [ править ]

Неструктурированная задача с подгонкой, измеряемой нормой Фробениуса , т. Е.

имеет аналитическое решение с точки зрения сингулярного разложения матрицы данных. Результат называется леммой о матричной аппроксимации или теоремой Эккарта – Юнга – Мирского . [4] Пусть

разложение сингулярного значения и перегородки , и следующим образом :

где есть , есть и есть . Тогда матрица рангов , полученная из усеченного разложения по сингулярным числам

таково, что

Минимизатор уникален тогда и только тогда, когда .

Доказательство теоремы Эккарта – Юнга – Мирского (для спектральной нормы ) [ править ]

Позвольте быть реальной (возможно, прямоугольной) матрицей с . Предположим, что

это разложение по сингулярным значениям из . Напомним, что и - ортогональные матрицы, а - диагональная матрица с такими элементами , что .

Мы утверждаем, что наилучшее ранговое приближение к в спектральной норме, обозначаемое как , дается выражением

где и обозначают ый столбец и соответственно.

Во-первых, обратите внимание, что у нас есть

Следовательно, нам нужно показать, что если где и есть столбцы, то .

Поскольку имеет столбцы, то должна быть нетривиальная линейная комбинация первых столбцов , т. Е.

такой что . Не умаляя общности, мы можем масштабировать так или (что эквивалентно) . Следовательно,

Результат получается извлечением квадратного корня из обеих частей указанного неравенства.

Доказательство теоремы Эккарта – Юнга – Мирского (для нормы Фробениуса ) [ править ]

Позвольте быть реальной (возможно, прямоугольной) матрицей с . Предположим, что

это разложение по сингулярным значениям из .

Мы утверждаем, что наилучшее ранговое приближение к в норме Фробениуса, обозначаемое как , дается выражением

где и обозначают ый столбец и соответственно.

Во-первых, обратите внимание, что у нас есть

Следовательно, нам нужно показать, что если где и есть столбцы, то

По неравенству треугольника со спектральной нормой, если тогда . Предположим, что и соответственно обозначают приближение ранга к и по методу SVD, описанному выше. Тогда для любого

Поскольку , когда и заключаем, что для

Следовательно,

как требуется.

Взвешенные задачи аппроксимации низкого ранга [ править ]

Норма Фробениуса равномерно взвешивает все элементы ошибки аппроксимации . Предварительные знания о распределении ошибок могут быть приняты во внимание, рассматривая взвешенную задачу аппроксимации низкого ранга

где векторизует матрицу по столбцам и является заданной положительной (полу) определенной весовой матрицей.

Общая взвешенная задача аппроксимации низкого ранга не допускает аналитического решения в терминах разложения по сингулярным значениям и решается методами локальной оптимизации, которые не гарантируют, что глобально оптимальное решение будет найдено.

В случае некоррелированных весов задача взвешенной аппроксимации низкого ранга также может быть сформулирована следующим образом: [5] [6] для неотрицательной матрицы и матрицы, которую мы хотим минимизировать по матрицам, ранга не выше .

Проблемы аппроксимации низкого ранга с точки зрения входа [ править ]

Пусть . Ибо самый быстрый алгоритм выполняется за время. [7] [8] Одна из важных использованных идей - это забвение вложенных подпространств (OSE), она впервые была предложена Сарлосом. [9]

В самом деле, известно, что эта начальная норма L1 более устойчива, чем норма Фробениуса при наличии выбросов, и указывается в моделях, где предположения Гаусса относительно шума могут не применяться. Стремление к минимизации естественно . [10] Для и есть несколько алгоритмов с доказуемыми гарантиями. [11] [12]

Проблема аппроксимации низкого ранга расстояния [ править ]

Позвольте и быть двумя точечными множествами в произвольном метрическом пространстве. Позвольте представить матрицу где . Такие матрицы расстояний обычно вычисляются в программных пакетах и ​​имеют приложения для изучения многообразий изображений, распознавания почерка и многомерного развертывания. В попытке уменьшить размер их описания [13] [14] можно изучить низкоранговую аппроксимацию таких матриц.

Распределенная / потоковая проблема аппроксимации низкого ранга [ править ]

Проблемы аппроксимации низкого ранга в распределенной и потоковой среде рассмотрены в [15].

Изображение и ядро ​​представления ограничений ранга [ править ]

Используя эквивалентности

а также

взвешенная задача аппроксимации низкого ранга становится эквивалентной задачам оптимизации параметров

а также

где - единичная матрица размера .

Алгоритм альтернативных проекций [ править ]

Представление в виде изображения рангового ограничения предлагает метод оптимизации параметров, в котором функция стоимости минимизируется поочередно по одной из переменных ( или ) с фиксированной другой. Хотя одновременная минимизация по обоим параметрам и является сложной задачей двояковыпуклой оптимизации , минимизация по одной только одной из переменных представляет собой линейную задачу наименьших квадратов и может быть решена глобально и эффективно.

Результирующий алгоритм оптимизации (называемый чередующимися проекциями) глобально сходится с линейной скоростью сходимости к локально оптимальному решению взвешенной задачи аппроксимации низкого ранга. Необходимо указать начальное значение параметра (или ). Итерация останавливается, когда удовлетворяется определенное пользователем условие сходимости.

Реализация в Matlab алгоритма чередующихся проекций для взвешенного низкорангового приближения:

функция [dh, f] = wlra_ap ( d, w, p, tol, maxiter ) [ m , n ] = размер ( d ); r = размер ( p , 2 ); f = inf ;          для i = 2 : maxiter    % минимизации над L bp = крон ( глаз ( n ), p );    vl = ( bp ' * w * bp ) \ bp ' * w * d (:);             l = изменить форму ( vl , r , n );     % минимизации над P bl = крон ( l ' , глаз ( м ));    vp = ( bl ' * w * bl ) \ bl ' * w * d (:);             p = изменить форму ( vp , m , r );     % проверить условие выхода dh = p * l ; дд = д - дх ;          f ( я ) = дд (:) ' * ш * дд (:);       если abs ( f ( i - 1 ) - f ( i )) < tol , break , end         конец

Алгоритм переменных проекций [ править ]

Алгоритм чередующихся проекций использует тот факт, что задача аппроксимации низкого ранга, параметризованная в форме изображения, является билинейной по переменным или . Билинейный характер проблемы эффективно используется в альтернативном подходе, называемом переменными проекциями. [16]

Рассмотрим снова взвешенную задачу аппроксимации низкого ранга, параметризованную в форме изображения. Минимизация по переменной (линейная задача наименьших квадратов) приводит к выражению в замкнутой форме ошибки аппроксимации как функции

Таким образом, исходная задача эквивалентна нелинейной задаче наименьших квадратов минимизации по . Для этого можно использовать стандартные методы оптимизации, например, алгоритм Левенберга-Марквардта .

Реализация в Matlab алгоритма переменных проекций для взвешенной низкоранговой аппроксимации:

функция [dh, f] = wlra_varpro ( d, w, p, tol, maxiter ) prob = optimset (); Проб . solver = 'lsqnonlin' ;     Проб . options = optimset ( 'MaxIter' , maxiter , 'TolFun' , tol ); Проб . х0 = р ; Проб . objective = @ ( p ) cost_fun ( p , d , w );              [ Р , е ] = lsqnonlin ( пробы ); [ f , vl ] = cost_fun ( p , d , w ); dh = p * reshape ( vl , size ( p , 2 ), size ( d , 2 ));                   функция [f, vl] = cost_fun ( p, d, w ) bp = крон ( глаз ( размер ( d , 2 )), p );    vl = ( bp ' * w * bp ) \ bp ' * w * d (:);            f = d (:) ' * w * ( d (:) - bp * vl );          

Подход переменных проекций может быть применен также к задачам аппроксимации низкого ранга, параметризованным в форме ядра. Метод эффективен, когда количество исключаемых переменных намного превышает количество оптимизационных переменных, оставшихся на этапе минимизации нелинейным методом наименьших квадратов. Такие проблемы возникают при идентификации системы, параметризованной в форме ядра, где исключенные переменные представляют собой аппроксимирующую траекторию, а остальные переменные являются параметрами модели. В контексте линейных инвариантных во времени систем этап исключения эквивалентен сглаживанию Калмана .

Вариант: выпукло-ограниченное приближение низкого ранга [ править ]

Обычно мы хотим, чтобы наше новое решение было не только низкого ранга, но и удовлетворяло другим выпуклым ограничениям из-за требований приложения. Наша интересующая проблема будет заключаться в следующем:

У этой проблемы есть много приложений в реальном мире, в том числе для восстановления хорошего решения из неточного (полуопределенного программирования) релаксации. Если дополнительное ограничение является линейным, например, мы требуем, чтобы все элементы были неотрицательными, проблема называется структурированным приближением низкого ранга. [17] Более общая форма называется выпукло-ограниченной аппроксимацией низкого ранга.

Эта проблема помогает при решении многих проблем. Однако это сложно из-за комбинации выпуклых и невыпуклых (низкого ранга) ограничений. На основе разных реализаций были разработаны разные техники . Однако метод множителей с переменным направлением (ADMM) может применяться для решения невыпуклой задачи с выпуклой целевой функцией, ранговыми ограничениями и другими выпуклыми ограничениями [18] и, таким образом, подходит для решения нашей вышеупомянутой проблемы. Более того, в отличие от общих невыпуклых задач, ADMM гарантирует сходимость допустимого решения до тех пор, пока его двойственная переменная сходится в итерациях.

См. Также [ править ]

  • Аппроксимация матрицы CUR производится по строкам и столбцам исходной матрицы.

Ссылки [ править ]

  1. ^ И. Марковский, Структурированная аппроксимация низкого ранга и ее приложения, Автоматика, том 44, выпуск 4, апрель 2008 г., страницы 891–909. DOI : 10.1016 / j.automatica.2007.09.011
  2. ^ I. Марковский, Дж. Виллемс, С. Ван Хаффель , Б. Де Моор и Р. Пинтелон, Применение структурированных общих наименьших квадратов для идентификации системы и сокращения модели. IEEE Transactions on Automatic Control, Volume 50, Number 10, 2005, страницы 1490–1500.
  3. ^ И. Марковский, Аппроксимация низкого ранга: алгоритмы, реализация, приложения, Springer, 2012, ISBN  978-1-4471-2226-5
  4. ^ C. Эккарт, Г. Янг, Аппроксимация одной матрицы другой более низкого ранга. Психометрика, Том 1, 1936, страницы 211–8. DOI : 10.1007 / BF02288367
  5. ^ Сребро, Натан; Яаккола, Томми (2003). Взвешенные приближения низкого ранга (PDF) . ICML'03.
  6. ^ Razenshteyn, Илья; Песня, Чжао; Вудрафф, Дэвид П. (2016). Взвешенные приближения низкого ранга с предоставляемыми гарантиями . STOC '16 Материалы сорок восьмого ежегодного симпозиума ACM по теории вычислений.
  7. ^ Кларксон, Кеннет Л .; Вудрафф, Дэвид П. (2013). Аппроксимация низкого ранга и регрессия во времени разреженности входных данных . STOC '13 Материалы сорок пятого ежегодного симпозиума ACM по теории вычислений. arXiv : 1207.6365 .
  8. ^ Нельсон, Джелани; Нгуен, Хай Л. (2013). OSNAP: более быстрые алгоритмы численной линейной алгебры за счет более разреженных вложений подпространств . FOCS '13. arXiv : 1211.1002 .
  9. ^ Sarlos, Тамаш (2006). Улучшены алгоритмы аппроксимации больших матриц с помощью случайных проекций . FOCS'06.
  10. ^ Песня, Чжао; Вудрафф, Дэвид П .; Чжун, Пейлин (2017). Аппроксимация низкого ранга с входной ошибкой L1-нормы . STOC '17 Материалы сорок девятого ежегодного симпозиума ACM по теории вычислений. arXiv : 1611.00898 .
  11. ^ Брингманн, Карл; Колев, Павел; Вудрафф, Дэвид П. (2017). Аппроксимационные алгоритмы для L0-низкоранговой аппроксимации . НИПС'17. arXiv : 1710.11253 .
  12. ^ Киричетти, Флавио; Голлапуди, Шринивас; Кумар, Рави; Латтанци, Сильвио; Паниграхи, Рина; Вудрафф, Дэвид П. (2017). Алгоритмы аппроксимации низкого ранга Lp . ICML'17. arXiv : 1705.06730 .
  13. ^ Бакши, Ainesh L .; Вудрафф, Дэвид П. (2018). Низкоранговая аппроксимация матриц расстояний по сублинейному времени . NeurIPS. arXiv : 1809.06986 .
  14. ^ Индик, Петр; Вакилиан Али; Вагнер, Таль; Вудрафф, Дэвид П. (2019). Оптимальная по выборке низкоранговая аппроксимация матриц расстояний . КОЛТ.
  15. ^ Буцидис, Христос; Вудрафф, Дэвид П .; Чжун, Пейлин (2016). Оптимальный анализ главных компонентов в распределенных и потоковых моделях . STOC. arXiv : 1504.06729 .
  16. ^ Г. Голуб и В. Перейра, Разделимые нелинейные наименьшие квадраты: метод переменной проекции и его приложения, Институт физики, Обратные задачи, Том 19, 2003 г., страницы 1-26.
  17. ^ Чу, Муди Т .; Funderlic, Роберт Э .; Племмонс, Роберт Дж. (2003). «структурированное низкоранговое приближение» . Линейная алгебра и ее приложения . 366 : 157–172. DOI : 10.1016 / S0024-3795 (02) 00505-0 .
  18. ^ "Общая система эвристического решения выпуклых задач над невыпуклыми множествами" (PDF) .
  • MT Chu, RE Funderlic, RJ Plemmons, Структурированная аппроксимация низкого ранга, Линейная алгебра и ее приложения, Том 366, 1 июня 2003 г., страницы 157–172 doi : 10.1016 / S0024-3795 (02) 00505-0

Внешние ссылки [ править ]

  • Пакет C ++ для приближения структурированного низкого ранга