Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В машинном обучении , мультиклассируют или полиномиальной классификации является проблема классификации экземпляров в одном из трех или более классов (классификационных экземпляров в один из двух классов, называется бинарная классификация ).

Хотя многие алгоритмы классификации (особенно полиномиальная логистическая регрессия ) естественно допускают использование более двух классов, некоторые по своей природе являются бинарными алгоритмами; однако их можно превратить в полиномиальные классификаторы с помощью различных стратегий.

Классификацию по нескольким классам не следует путать с классификацией по нескольким меткам, когда для каждого экземпляра следует прогнозировать несколько меток.

Общие стратегии [ править ]

Существующие методы мультиклассовой классификации можно разделить на (i) преобразование в двоичную систему (ii) расширение двоичной классификации и (iii) иерархическую классификацию. [1]

Преобразование в двоичный [ править ]

В этом разделе обсуждаются стратегии сведения проблемы многоклассовой классификации к множеству задач двоичной классификации. Его можно разделить на один против отдыха и один против одного . Методы, разработанные на основе сведения мультиклассовой проблемы к множеству бинарных задач, также можно назвать методами преобразования проблемы.

Один против остальных [ править ]

Один против остальных [2] : 182, 338 (OvR или один против всех , OvA или один против всех , OAA). Стратегия включает обучение одного классификатора для каждого класса с выборками этого класса как положительными. образцы и все другие образцы как негативы. Эта стратегия требует, чтобы базовые классификаторы производили реальную оценку достоверности своего решения, а не просто метку класса; Одни только дискретные метки классов могут привести к неоднозначности, когда несколько классов прогнозируются для одной выборки. [3] : 182 [примечание 1]

В псевдокоде алгоритм обучения учащегося OvR, построенного на основе учащегося L двоичной классификации, выглядит следующим образом:

Входы:
  • L , ученик (алгоритм обучения бинарных классификаторов)
  • образцы X
  • метки y, где y i ∈ {1,… K } - метка для выборки X i
Выход:
  • список классификаторов f k для k ∈ {1,…, K }
Процедура:
  • Для каждого k в {1,…, K }
    • Создайте новый вектор меток z, где z i = y i, если y i = k, и z i = 0, в противном случае
    • Примените L к X , z, чтобы получить f k

Принятие решений означает применение всех классификаторов к невидимой выборке x и прогнозирование метки k, для которой соответствующий классификатор сообщает наивысшую оценку достоверности:

Хотя эта стратегия популярна, это эвристика , имеющая несколько проблем. Во-первых, шкала значений достоверности может различаться между бинарными классификаторами. Во-вторых, даже если распределение классов в обучающем наборе сбалансировано, учащиеся бинарной классификации видят несбалансированное распределение, потому что обычно набор негативов, которые они видят, намного больше, чем набор положительных. [3] : 338

Один против одного [ править ]

При редукции « один-против-один» (OvO) обучают K ( K - 1) / 2 бинарных классификатора для K- way мультиклассовой задачи; каждый получает образцы пары классов из исходного обучающего набора и должен научиться различать эти два класса. Во время прогнозирования применяется схема голосования: все классификаторы K ( K - 1) / 2 применяются к невидимой выборке, а класс, получивший наибольшее количество прогнозов «+1», прогнозируется комбинированным классификатором. [3] : 339

Как и OvR, OvO страдает двусмысленностью в том, что некоторые области его входного пространства могут получить одинаковое количество голосов. [3] : 183

Расширение из двоичного кода [ править ]

В этом разделе обсуждаются стратегии расширения существующих двоичных классификаторов для решения задач мультиклассовой классификации. Несколько алгоритмов были разработаны на основе нейронных сетей , деревьев решений , k-ближайших соседей , наивного байесовского алгоритма , опорных векторных машин и экстремальных обучающихся машин для решения проблем мультиклассовой классификации. Эти типы методов также можно назвать методами адаптации алгоритмов.

Нейронные сети [ править ]

Мультиклассовые персептроны являются естественным продолжением мультиклассовой проблемы. Вместо того, чтобы иметь только один нейрон в выходном слое с двоичным выходом, можно было бы иметь N двоичных нейронов, что приведет к классификации нескольких классов. На практике последний уровень нейронной сети обычно является функциональным слоем softmax , который представляет собой алгебраическое упрощение N логистических классификаторов, нормализованных для каждого класса суммой N-1 других логистических классификаторов.

Машины с экстремальным обучением [ править ]

Машины с экстремальным обучением (ELM) - это частный случай нейронных сетей с прямой связью с одним скрытым слоем (SLFN), в которых входные веса и смещения скрытых узлов могут быть выбраны случайным образом. В ELM внесено множество вариантов и усовершенствований для мультиклассовой классификации.

k-ближайшие соседи [ править ]

k-ближайшие соседи kNN считается одним из старейших алгоритмов непараметрической классификации. Чтобы классифицировать неизвестный пример, измеряется расстояние от этого примера до любого другого обучающего примера. Идентифицируются k наименьших расстояний, и класс, наиболее представленный этими k ближайшими соседями, считается меткой выходного класса.

Наивный Байес [ править ]

Наивный байесовский классификатор - успешный классификатор, основанный на принципе апостериорного максимума (MAP). Этот подход естественным образом расширяется для случая наличия более двух классов, и было показано, что он хорошо работает, несмотря на лежащее в основе упрощающее предположение об условной независимости .

Деревья решений [ править ]

Изучение дерева решений - мощный метод классификации. Дерево пытается вывести разделение обучающих данных на основе значений доступных функций для получения хорошего обобщения. Алгоритм естественным образом справляется с задачами двоичной или мультиклассовой классификации. Листовые узлы могут относиться к любому из рассматриваемых классов K.

Поддержка векторных машин [ править ]

Машины опорных векторов основаны на идее максимизации запаса, т.е. максимизации минимального расстояния от разделяющей гиперплоскости до ближайшего примера. Базовая SVM поддерживает только двоичную классификацию, но были предложены расширения для обработки случая многоклассовой классификации. В этих расширениях к задаче оптимизации добавляются дополнительные параметры и ограничения для обработки разделения различных классов.

Иерархическая классификация [ править ]

Иерархическая классификация решает проблему мультиклассовой классификации путем разделения выходного пространства, то есть на дерево . Каждый родительский узел делится на несколько дочерних узлов, и процесс продолжается до тех пор, пока каждый дочерний узел не будет представлять только один класс. Было предложено несколько методов, основанных на иерархической классификации.

Парадигмы обучения [ править ]

На основе парадигм обучения существующие методы многоклассовой классификации можно разделить на пакетное обучение и онлайн-обучение . Алгоритмы пакетного обучения требуют, чтобы все образцы данных были доступны заранее. Он обучает модель, используя все обучающие данные, а затем предсказывает тестовую выборку, используя найденную взаимосвязь. С другой стороны, алгоритмы онлайн-обучения постепенно строят свои модели в последовательных итерациях. На итерации t онлайн-алгоритм получает выборку x t и предсказывает ее метку ŷ t, используя текущую модель; затем алгоритм получает y t , истинную метку x t, и обновляет свою модель на основе пары образец-метка: (x t , y t). Недавно была разработана новая парадигма обучения, называемая прогрессивной техникой обучения. [4] Метод прогрессивного обучения способен не только учиться на новых образцах, но также способен изучать новые классы данных и при этом сохранять полученные знания. [5]

См. Также [ править ]

  • Бинарная классификация
  • Одноклассовая классификация
  • Классификация с несколькими этикетками
  • Мультиклассовый персептрон
  • Многозадачное обучение

Заметки [ править ]

  1. ^ В классификации с несколькими метками OvR известен как двоичная релевантность, и прогнозирование нескольких классов считается функцией, а не проблемой.

Ссылки [ править ]

  1. ^ Мохамед, Али (2005). «Обзор методов многоклассовой классификации» (PDF) . Технический отчет, Калтех .
  2. Епископ, Кристофер М. (2006). Распознавание образов и машинное обучение . Springer.
  3. ^ a b c d Епископ, Кристофер М. (2006). Распознавание образов и машинное обучение . Springer.
  4. ^ Венкатесан, Раджасекар; Мэн Джу, Эр (2016). «Новый прогрессивный метод обучения для классификации нескольких классов». Нейрокомпьютеры . 207 : 310–321. arXiv : 1609,00085 . DOI : 10.1016 / j.neucom.2016.05.006 .
  5. Venkatesan, Rajasekar. «Прогрессивная техника обучения» .