Из Википедии, свободной энциклопедии
Перейти к навигации Перейти к поиску

В машинном обучении , ядро машина представляет собой класс алгоритмов для анализа картины , чей самый известный член является поддержка вектор машины (SVM). Общая задача анализа паттернов - найти и изучить общие типы отношений (например, кластеры , ранжирование , главные компоненты , корреляции , классификации ) в наборах данных. Для многих алгоритмов, которые решают эти задачи, данные в необработанном представлении должны быть явно преобразованы в представления векторов признаков через заданную пользователем карту признаков.: напротив, методы ядра требуют только ядра , указанного пользователем , т. е. функции подобия по парам точек данных в необработанном представлении.

Методы ядра обязаны своим названием с использованием функций ядра , которые позволяют им работать в высокой размерности, неявной признакового пространства никогда не вычисления координат данных в этом пространстве, а просто вычисляя скалярные произведения между изображениями в все пары данных в пространстве функций. Эта операция часто бывает дешевле в вычислительном отношении, чем явное вычисление координат. Такой подход называется « уловкой с ядром ». [1] Функции ядра были введены для данных последовательности, графиков , текста, изображений, а также векторов.

Алгоритмы, способные работать с ядрами, включают персептрон ядра , машины опорных векторов (SVM), гауссовские процессы , анализ главных компонентов (PCA), канонический корреляционный анализ , гребневую регрессию , спектральную кластеризацию , линейные адаптивные фильтры и многие другие. Любую линейную модель можно превратить в нелинейную, применив к модели трюк с ядром: заменив ее свойства (предикторы) на функцию ядра. [ необходима цитата ]

Большинство алгоритмов ядра основаны на выпуклой оптимизации или собственных задачах и являются статистически хорошо обоснованными. Обычно их статистические свойства анализируются с использованием теории статистического обучения (например, с использованием сложности Радемахера ).

Мотивация и неформальное объяснение [ править ]

Методы ядра можно рассматривать как обучающихся на основе экземпляров : вместо того, чтобы изучать некоторый фиксированный набор параметров, соответствующих характеристикам их входных данных, они вместо этого «запоминают» -й обучающий пример и изучают для него соответствующий вес . Прогнозирование для немаркированных входов, т. Е. Тех, которые не входят в обучающий набор, обрабатывается применением функции подобия , называемой ядром , между немаркированным входом и каждым из обучающих входов . Например, бинарный классификатор с ядром обычно вычисляет взвешенную сумму сходств.

,

где

  • - это предсказанная метка бинарного классификатора с ядром для немаркированного ввода , скрытая истинная метка которого представляет интерес;
  • это функция ядра, которая измеряет сходство между любой парой входов ;
  • сумма колеблется по n помеченным примерам в обучающей выборке классификатора, причем ;
  • являются Весами для учебных примеров, как определенно с помощью алгоритма обучения;
  • знаковая функция определяет , будет ли предсказанное классификация выходит положительный или отрицательный.

Классификаторы ядра были описаны еще в 1960-х годах, когда был изобретен перцептрон ядра . [2] Они приобрели большую известность с популярностью машины опорных векторов (SVM) в 1990-х годах, когда было обнаружено, что SVM может конкурировать с нейронными сетями в таких задачах, как распознавание рукописного ввода .

Математика: трюк с ядром [ править ]

SVM с ядром, заданным формулой φ (( a , b )) = ( a , b , a 2 + b 2 ) и, следовательно, K ( x , y ) = . Точки обучения отображаются в трехмерном пространстве, где можно легко найти разделяющую гиперплоскость.

Уловка с ядром позволяет избежать явного отображения, которое необходимо для получения алгоритмов линейного обучения для изучения нелинейной функции или границы решения . Для всех и во входном пространстве определенные функции могут быть выражены как внутренний продукт в другом пространстве . Функцию часто называют ядром или функцией ядра . Слово «ядро» используется в математике для обозначения весовой функции для взвешенной суммы или интеграла .

Некоторые задачи машинного обучения имеют более сложную структуру, чем произвольная весовая функция . Вычисление значительно упростится, если ядро ​​можно записать в виде «карты характеристик», удовлетворяющей

Ключевым ограничением является то, что это должен быть правильный внутренний продукт. С другой стороны, явное представление для не требуется, если это внутреннее пространство продукта . Альтернатива следует из теоремы Мерсера : неявно определенная функция существует всякий раз, когда пространство может быть оснащено подходящей мерой, гарантирующей, что функция удовлетворяет условию Мерсера .

Теорема Мерсера похожа на обобщение результата линейной алгебры, которое связывает скалярный продукт с любой положительно определенной матрицей . Фактически, условие Мерсера можно свести к этому более простому случаю. Если мы выберем в качестве нашей меры счетную меру для всех , которая считает количество точек внутри множества , тогда интеграл в теореме Мерсера сводится к суммированию

Если это суммирование выполняется для всех конечных последовательностей точек в и всех выборов действительных коэффициентов (см. Положительно определенное ядро ), то функция удовлетворяет условию Мерсера.

Некоторые алгоритмы, которые зависят от произвольных отношений в собственном пространстве , на самом деле будут иметь линейную интерпретацию в другой настройке: пространстве диапазона . Линейная интерпретация дает нам представление об алгоритме. Более того, часто нет необходимости в вычислениях непосредственно во время вычислений, как в случае с машинами опорных векторов . Некоторые называют это сокращение времени работы основным преимуществом. Исследователи также используют его для обоснования значений и свойств существующих алгоритмов.

Теоретически матрица Грама относительно (иногда также называемая «ядерной матрицей» [3] ), где , должна быть положительно полуопределенной (PSD) . [4] Эмпирически для эвристики машинного обучения выбор функции , не удовлетворяющей условию Мерсера, может по-прежнему работать разумно, если хотя бы приближается к интуитивному представлению о подобии. [5] Независимо от того, является ли ядро ​​Mercer, все равно может называться «ядром».

Если функция ядра также является ковариационной функцией, используемой в гауссовских процессах , то матрицу Грама также можно назвать ковариационной матрицей . [6]

Приложения [ править ]

Области применения ядерных методов разнообразны и включают геостатистику , [7] кригинг , обратное взвешивание расстояний , трехмерную реконструкцию , биоинформатику , химиоинформатику , извлечение информации и распознавание почерка .

Популярные ядра [ править ]

  • Ядро Фишера
  • Ядра графа
  • Ядро более гладкое
  • Полиномиальное ядро
  • Ядро радиальной базисной функции (RBF)
  • Строковые ядра
  • Нейронное касательное ядро
  • Ядро нейросетевого гауссовского процесса (NNGP)

См. Также [ править ]

  • Методы ядра для векторного вывода
  • Оценка плотности ядра
  • Теорема о представителях
  • Теорема обложки

Ссылки [ править ]

  1. ^ Theodoridis, Sergios (2008). Распознавание образов . Elsevier BV стр. 203. ISBN. 9780080949123.
  2. ^ Айзерман, Массачусетс; Браверман, Эммануэль М .; Розоноэр, Л.И. (1964). «Теоретические основы метода потенциальных функций в обучении распознаванию образов». Автоматизация и телемеханика . 25 : 821–837.Цитируется у Гийона, Изабель; Boser, B .; Вапник, Владимир (1993). Автоматическая настройка емкости классификаторов очень больших размеров VC . Достижения в области нейронных систем обработки информации. CiteSeerX 10.1.1.17.7215 . 
  3. ^ Хофманн, Томас; Шолкопф, Бернхард; Смола, Александр Дж. (2008). «Методы ядра в машинном обучении» . Cite journal requires |journal= (help)
  4. ^ Мохри, Мехрияр ; Ростамизаде, Афшин; Талвалкар, Амит (2012). Основы машинного обучения . США, Массачусетс: MIT Press. ISBN 9780262018258.
  5. ^ Сьюэлл, Мартин. «Машины опорных векторов: состояние Мерсера» . www.svms.org .
  6. ^ Расмуссен, CE; Уильямс, CKI (2006). «Гауссовские процессы для машинного обучения». Cite journal requires |journal= (help)
  7. ^ Honarkhah, M .; Каерс, Дж. (2010). «Стохастическое моделирование паттернов с использованием дистанционного моделирования паттернов». Математические науки о Земле . 42 : 487–517. DOI : 10.1007 / s11004-010-9276-7 .

Дальнейшее чтение [ править ]

  • Shawe-Taylor, J .; Кристианини, Н. (2004). Методы ядра для анализа паттернов . Издательство Кембриджского университета.
  • Liu, W .; Principe, J .; Хайкин, С. (2010). Адаптивная фильтрация ядра: всестороннее введение . Вайли.
  • Шёлкопф, Б .; Смола, AJ; Бах, Ф. (2018). Обучение с помощью ядер: машины опорных векторов, регуляризация, оптимизация и не только . MIT Press. ISBN 978-0-262-53657-8.

Внешние ссылки [ править ]

  • Kernel-Machines Org - веб-сайт сообщества
  • www.support-vector-machines.org (литература, обзор, программное обеспечение, ссылки, относящиеся к машинам опорных векторов - академический сайт)
  • Статья о методах ядра onlineprediction.net