Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску
Пример влияния немаркированных данных на полу-контролируемое обучение. На верхней панели показана граница решения, которую мы могли бы принять, увидев только один положительный (белый кружок) и один отрицательный (черный кружок) пример. На нижней панели показана граница решения, которую мы могли бы принять, если бы в дополнение к двум помеченным примерам нам дали набор немаркированных данных (серые кружки). Это можно рассматривать как выполнение кластеризации с последующей маркировкой кластеров помеченными данными, отодвигание границы принятия решения от областей с высокой плотностью или изучение базового одномерного многообразия, в котором находятся данные.

Полу-контролируемое обучение - это подход к машинному обучению, который объединяет небольшой объем помеченных данных с большим объемом немаркированных данных во время обучения. Полу-контролируемое обучение находится между неконтролируемым обучением (без маркированных данных обучения) и контролируемым обучением (только с помеченными данными обучения). Это особый случай слабого надзора . [1]

Немаркированные данные, когда они используются вместе с небольшим количеством помеченных данных, могут значительно повысить точность обучения. Для получения помеченных данных для задачи обучения часто требуется квалифицированный агент-человек (например, для расшифровки аудиосегмента) или физический эксперимент (например, определение трехмерной структуры белка или определение наличия масла в конкретном месте). Стоимость, связанная с процессом маркировки, таким образом, может сделать большие, полностью маркированные обучающие наборы невозможными, тогда как получение немаркированных данных является относительно недорогим. В таких ситуациях обучение без учителя может иметь большую практическую ценность. Полу-контролируемое обучение также представляет теоретический интерес для машинного обучения и как модель человеческого обучения.

Обрабатывается набор независимо идентично распределенных примеров с соответствующими метками и немаркированных примеров . Полу-контролируемое обучение объединяет эту информацию, чтобы превзойти эффективность классификации, которая может быть получена либо путем отбрасывания немаркированных данных и выполнения контролируемого обучения, либо путем отбрасывания меток и выполнения неконтролируемого обучения.

Полу-контролируемое обучение может относиться как к трансдуктивному, так и к индуктивному обучению . [2] Цель трансдуктивного обучения - вывести правильные метки только для данных немаркированных данных . Цель индуктивного обучения - вывести правильное отображение от к .

Интуитивно проблема обучения может рассматриваться как экзамен, а данные - как образцы задач, которые учитель решает для класса, чтобы помочь в решении другого набора задач. В трансдуктивной среде эти нерешенные проблемы выступают в роли экзаменационных вопросов. В индуктивной обстановке они становятся практическими задачами, из которых состоит экзамен.

Нет необходимости (и, согласно принципу Вапника , неосмотрительно) выполнять трансдуктивное обучение путем вывода правила классификации по всему входному пространству; однако на практике алгоритмы, формально разработанные для преобразования или индукции, часто используются как взаимозаменяемые.

Предположения [ править ]

Чтобы можно было использовать немаркированные данные, должна существовать некоторая связь с лежащим в основе распределением данных. Алгоритмы полууправляемого обучения используют по крайней мере одно из следующих предположений: [3]

Предположение о непрерывности [ править ]

Точки, расположенные близко друг к другу, с большей вероятностью будут иметь метку. Это также обычно предполагается при обучении с учителем и дает предпочтение геометрически простым границам принятия решений . В случае полууправляемого обучения предположение о гладкости дополнительно дает предпочтение границам решения в областях с низкой плотностью, поэтому несколько точек находятся близко друг к другу, но относятся к разным классам.

Предположение о кластере [ править ]

Данные, как правило, образуют дискретные кластеры, и точки в одном кластере с большей вероятностью имеют общую метку (хотя данные, которые имеют общую метку, могут распространяться по нескольким кластерам). Это частный случай предположения о гладкости, который приводит к обучению признаков с помощью алгоритмов кластеризации.

Предположение о многообразии [ править ]

Данные лежат приблизительно на коллекторе гораздо меньшей размерности, чем пространство ввода. В этом случае изучение многообразия с использованием как помеченных, так и немаркированных данных может избежать проклятия размерности . Затем обучение может продолжаться с использованием расстояний и плотностей, определенных на многообразии.

Предположение о многообразии практично, когда многомерные данные генерируются некоторым процессом, который может быть трудно смоделировать напрямую, но который имеет лишь несколько степеней свободы. Например, человеческий голос контролируется несколькими голосовыми связками [4], а изображения различных выражений лица контролируются несколькими мышцами. В этих случаях расстояния и гладкость в естественном пространстве порождающей задачи лучше, чем рассмотрение пространства всех возможных акустических волн или изображений, соответственно.

История [ править ]

Эвристический подход самообучения (также известный как самообучение или самообучение ) исторически является самым старым подходом к полу-контролируемому обучению [3] с примерами приложений, начиная с 1960-х годов. [5]

Фреймворк трансдуктивного обучения был официально представлен Владимиром Вапником в 1970-х годах. [6] Интерес к индуктивному обучению с использованием генеративных моделей также начался в 1970-х годах. , Вероятно , приблизительно правильное обучение связаны на полу-контролируемого обучение в гауссовой смеси было продемонстрировано Ratsaby и Venkatesh в 1995 году [7]

Полу-контролируемое обучение в последнее время стало более популярным и практически актуальным из-за разнообразия задач, для которых доступны огромные объемы немаркированных данных, например текст на веб-сайтах, последовательности белков или изображения. [8]

Методы [ править ]

Генеративные модели [ править ]

Генеративные подходы к статистическому обучению сначала стремятся оценить , [ спорят ] распределение точек данных, принадлежащих каждому классу. Вероятность того, что данная точка имеет метку в этом случае пропорциональна по правилу Байеса . Полу-контролируемое обучение с генеративными моделями можно рассматривать либо как расширение контролируемого обучения (классификация плюс информация о ), либо как расширение неконтролируемого обучения (кластеризация плюс некоторые метки).

Генеративные модели предполагают, что распределения принимают определенную форму, параметризованную вектором . Если эти предположения неверны, немаркированные данные могут фактически снизить точность решения по сравнению с тем, что было бы получено только на основе помеченных данных. [9] Однако, если предположения верны, то немаркированные данные обязательно улучшают производительность. [7]

Непомеченные данные распределяются в соответствии со смесью распределений индивидуальных классов. Чтобы узнать распределение смеси из немаркированных данных, оно должно быть идентифицируемым, то есть разные параметры должны давать разные суммарные распределения. Распределение гауссовой смеси идентифицируемо и обычно используется для генеративных моделей.

Параметризованное совместное распределение можно записать как с помощью цепного правила . Каждый вектор параметров связан с функцией принятия решения . Затем параметр выбирается на основе соответствия как помеченным, так и немеченым данным, взвешенным по :

[10]

Разделение с низкой плотностью [ править ]

Другой важный класс методов пытается установить границы в регионах с небольшим количеством точек данных (помеченных или немаркированных). Одним из наиболее часто используемых алгоритмов является машина трансдуктивных опорных векторов , или TSVM (которая, несмотря на свое название, может также использоваться для индуктивного обучения). В то время как вспомогательные векторные машины для контролируемого обучения ищут границу принятия решения с максимальным запасом по размеченным данным, цель TSVM - разметка немаркированных данных так, чтобы граница решения имела максимальный запас по всем данным. В дополнение к стандартным потерям на шарнире для помеченных данных, функция потерь вводится для немаркированных данных путем разрешения . Затем TSVM выбирает извоспроизведение ядра гильбертова пространства за счет минимизации регуляризованного эмпирического риска :

Точное решение трудно найти из-за невыпуклого члена , поэтому исследования сосредоточены на полезных приближениях. [10]

Другие подходы, реализующие разделение с низкой плотностью, включают гауссовские модели процессов, регуляризацию информации и минимизацию энтропии (частным случаем которых является TSVM).

Графические методы [ править ]

Методы на основе графиков для полууправляемого обучения используют графическое представление данных с узлом для каждого помеченного и немаркированного примера. Граф может быть построен с использованием знания предметной области или подобия примеров; два распространенных метода - подключить каждую точку данных к ее ближайшим соседям или к примерам на некотором расстоянии . Затем устанавливается вес ребра между и .

В рамках многообразия регуляризации , [11] [12] граф служит в качестве посредника для коллектора. К стандартной задаче регуляризации Тихонова добавляется член, чтобы обеспечить гладкость решения относительно многообразия (во внутреннем пространстве задачи), а также относительно внешнего входного пространства. Проблема минимизации становится

[10]

где - воспроизводящее ядро Гильбертова пространство, а - многообразие, на котором лежат данные. Параметры регуляризации и управляют гладкостью в окружающем и внутреннем пространствах соответственно. График используется для аппроксимации внутреннего члена регуляризации. Определяя лапласиан графа где и вектор , мы имеем

.

Лапласиан также может использоваться для расширения алгоритмов контролируемого обучения: регуляризованных наименьших квадратов и опорных векторных машин (SVM) до полууправляемых версий лапласовских регуляризованных наименьших квадратов и лапласовских SVM.

Эвристические подходы [ править ]

Некоторые методы полууправляемого обучения по своей сути не ориентированы на обучение как на немаркированных, так и на маркированных данных, а вместо этого используют немаркированные данные в рамках контролируемого обучения. Например, помеченные и немаркированные примеры могут информировать о выборе представления, метрики расстояния или ядра для данных на неконтролируемом первом этапе. Тогда контролируемое обучение основывается только на помеченных примерах.

Самообучение - это метод-оболочка для полу-контролируемого обучения. [13] Сначала обучаемый алгоритм обучения обучается только на основе помеченных данных. Затем этот классификатор применяется к немаркированным данным, чтобы создать больше помеченных примеров в качестве входных данных для алгоритма обучения с учителем. Как правило, на каждом этапе добавляются только те метки, в которых классификатор наиболее уверен. [14]

Совместное обучение - это расширение самообучения, при котором несколько классификаторов обучаются различным (в идеале непересекающимся) наборам функций и генерируют помеченные примеры друг для друга. [15]

В человеческом познании [ править ]

Ответы людей на формальные проблемы обучения с полу-контролируемым наблюдением привели к различным выводам о степени влияния немаркированных данных. [16] Более естественные проблемы обучения также можно рассматривать как примеры обучения с частично контролируемым обучением. Большая часть человеческого концептуального обучения включает в себя небольшое количество прямых инструкций (например, родительские ярлыки для предметов в детстве) в сочетании с большим количеством немаркированного опыта (например, наблюдение за объектами без их наименования или подсчета или, по крайней мере, без обратной связи).

Человеческие младенцы чувствительны к структуре немаркированных естественных категорий, таких как изображения собак и кошек, мужских и женских лиц. [17] Младенцы и дети принимают во внимание не только немаркированные примеры, но и процесс выборки, в результате которого возникают помеченные примеры. [18] [19]

См. Также [ править ]

  • Обучение PU
  • Слабый надзор

Ссылки [ править ]

  1. ^ Кабанн, Вивьен; Руди, Алессандро; Бах, Фрэнсис (2021). «Устранение неоднозначности слабого наблюдения с экспоненциальной скоростью сходимости». CoRR . arXiv : 2102.02789 .
  2. ^ "Обзор учебной литературы с полуфабрикатом, стр. 5". 2007. CiteSeerX 10.1.1.99.9681 .  Cite journal requires |journal= (help)
  3. ^ a b Chapelle, Schölkopf & Zienin 2006 .
  4. ^ Стивенс, Кеннет Н., 1924- (1998). Акустическая фонетика . Кембридж, Массачусетс: MIT Press. ISBN 0-585-08720-2. OCLC  42856189 .CS1 maint: multiple names: authors list (link)
  5. ^ Скаддер, Х. (июль 1965 г.). «Вероятность ошибки некоторых адаптивных машин распознавания образов». IEEE Transactions по теории информации . 11 (3): 363–371. DOI : 10.1109 / TIT.1965.1053799 . ISSN 1557-9654 . 
  6. ^ Вапник, В .; Червоненкис, А. (1974). Теория распознавания образов . Москва: Наука.цитируется в Chapelle, Schölkopf & Zienin 2006 , p. 3
  7. ^ a b Ratsaby, J .; Венкатеш, С. «Обучение на смеси помеченных и немаркированных примеров с параметрической дополнительной информацией» (PDF) . в материалах восьмой ежегодной конференции по теории вычислительного обучения - COLT '95 . Нью-Йорк, Нью-Йорк, США: ACM Press. 1995. С. 412–417. DOI : 10.1145 / 225298.225348 . ISBN 0-89791-723-5.. Цитируется в Chapelle, Schölkopf & Zienin 2006 , p. 4
  8. ^ Чжу, Xiaojin (2008). «Обзор литературы для полуавтоматического обучения» (PDF) . Университет Висконсин-Мэдисон.
  9. ^ Фабио, Козман; Ира, Коэн (2006-09-22), «Риски полу-контролируемого обучения: как немаркированные данные могут ухудшить производительность генеративных классификаторов», полу-контролируемое обучение , MIT Press, стр. 56–72, doi : 10.7551 / mitpress /9780262033589.003.0004 , ISBN 978-0-262-03358-9В: Chapelle, Schölkopf & Zienin 2006.
  10. ^ a b c Чжу, Сяоцзинь. Полу-контролируемый обучающийся университет Висконсин-Мэдисон.
  11. ^ М. Белкин; П. Нийоги (2004). "Полу-контролируемое обучение на римановых многообразиях" . Машинное обучение . 56 (специальный выпуск по кластеризации): 209–239. DOI : 10.1023 / B: mach.0000033120.25363.1e .
  12. ^ М. Белкин, П. Нийоги, В. Синдвани. О регуляризации многообразия. АИСТАТС 2005.
  13. ^ Тригуэро, Исаак; Гарсия, Сальвадор; Эррера, Франциско (26 ноября 2013 г.). «Методы самообучения для полу-контролируемого обучения: таксономия, программное обеспечение и эмпирическое исследование». Знания и информационные системы . 42 (2): 245–284. DOI : 10.1007 / s10115-013-0706-у . ISSN 0219-1377 . 
  14. ^ Fazakis, Никос; Карлос, Стаматис; Коциантис, Сотирис; Сгарбас, Кириакос (29 декабря 2015 г.). «Самостоятельное обучение LMT для полуавтоматического обучения» . Вычислительный интеллект и нейробиология . 2016 : 3057481. дои : 10,1155 / 2016/3057481 . PMC 4709606 . PMID 26839531 .  
  15. ^ Didaci, Лука; Фумера, Джорджио; Роли, Фабио (07.11.2012). Гимельфарб Георгий; Хэнкок, Эдвин; Имия, Ацуши; Куиджпер, Арьян; Кудо, Минэити; Омачи, Шиничиро; Windeatt, Терри; Ямада, Кейджи (ред.). Анализ алгоритма совместного обучения с очень маленькими обучающими наборами . Конспект лекций по информатике. Springer Berlin Heidelberg. С. 719–726. DOI : 10.1007 / 978-3-642-34166-3_79 . ISBN 9783642341656.
  16. ^ Чжу, Xiaojin (2009). Введение в полу-контролируемое обучение . Гольдберг, А.Б. (Эндрю Б.). [Сан-Рафаэль, Калифорния]: Издательство Morgan & Claypool. ISBN 978-1-59829-548-1. OCLC  428541480 .
  17. ^ Младший BA; Опасаясь DD (1999). «Разбор предметов по отдельным категориям: изменение в развитии младенческой категоризации». Развитие ребенка . 70 (2): 291–303. DOI : 10.1111 / 1467-8624.00022 .
  18. Перейти ↑ Xu, F. & Tenenbaum, JB (2007). «Чувствительность к выборке в байесовском обучении слов». Наука о развитии . 10 (3): 288–297. CiteSeerX 10.1.1.141.7505 . DOI : 10.1111 / j.1467-7687.2007.00590.x . PMID 17444970 .  
  19. ^ Gweon, H., Тененбаум JB и Schulz LE (2010). «Младенцы рассматривают как образец, так и процесс отбора образцов в индуктивном обобщении» . Proc Natl Acad Sci USA . 107 (20): 9066–71. Bibcode : 2010PNAS..107.9066G . DOI : 10.1073 / pnas.1003095107 . PMC 2889113 . PMID 20435914 .  CS1 maint: multiple names: authors list (link)

Источники [ править ]

  • Шапель, Оливье; Шёлкопф, Бернхард; Зиен, Александр (2006). Полу-контролируемое обучение . Кембридж, Массачусетс: MIT Press. ISBN 978-0-262-03358-9.

Внешние ссылки [ править ]

  • Регуляризация многообразия . Свободно доступная реализация в MATLAB основанных на графах полууправляемых алгоритмов лапласовских опорных векторных машин и лапласовских регуляризованных наименьших квадратов.
  • KEEL: программный инструмент для оценки эволюционных алгоритмов для задач интеллектуального анализа данных (регрессия, классификация, кластеризация, анализ шаблонов и т. Д.). Модуль KEEL для полууправляемого обучения.
  • ПО для полу-контролируемого обучения ПО для полу-контролируемого обучения
  • 1.14. Полу-контролируемый - документация scikit-learn 0.22.1 Полу-контролируемые алгоритмы в scikit-learn.