Распознавание образов - это автоматическое распознавание закономерностей и закономерностей в данных . Он имеет приложения для статистического анализа данных , обработки сигналов , анализа изображений , поиска информации , биоинформатики , сжатия данных , компьютерной графики и машинного обучения . Распознавание образов берет свое начало в статистике и инженерии; некоторые современные подходы к распознаванию образов включают использование машинного обучения из-за возросшей доступности больших данных и нового обилия вычислительной мощности.. Однако эти действия можно рассматривать как две стороны одной и той же области применения, и вместе они претерпели существенное развитие за последние несколько десятилетий. Современное определение распознавания образов:
Область распознавания образов связана с автоматическим обнаружением закономерностей в данных с помощью компьютерных алгоритмов и с использованием этих закономерностей для принятия таких действий, как классификация данных по различным категориям. [1]
Системы распознавания образов во многих случаях обучаются на основе помеченных «обучающих» данных, но когда помеченные данные недоступны, можно использовать другие алгоритмы для обнаружения ранее неизвестных закономерностей. KDD и интеллектуальный анализ данных уделяют больше внимания неконтролируемым методам и более тесной связи с использованием в бизнесе. Распознавание образов больше фокусируется на сигнале, а также учитывает сбор данных и обработку сигналов . Он возник в инженерии , и этот термин популярен в контексте компьютерного зрения : ведущая конференция по компьютерному зрению носит название Конференция по компьютерному зрению и распознаванию образов .
В машинном обучении распознавание образов - это присвоение метки заданному входному значению. В статистике с этой же целью в 1936 году был введен дискриминантный анализ . Примером распознавания образов является классификация , которая пытается присвоить каждое входное значение одному из заданного набора классов (например, определить, является ли данное электронное письмо «спамом»). или «без спама»). Однако распознавание образов - более общая проблема, которая охватывает и другие типы вывода. Другими примерами являются регрессия , при которой каждому входу присваивается результат с действительным знаком ; [2] маркировка последовательности , которая присваивает класс каждому члену последовательности значений [3] (например, тегирование части речи , которое присваивает часть речи каждому слову во входном предложении); и синтаксический анализ , который присваивает входному предложению дерево синтаксического анализа , описывающее синтаксическую структуру предложения. [4]
Алгоритмы распознавания образов обычно стремятся предоставить разумный ответ для всех возможных входных данных и выполнить «наиболее вероятное» сопоставление входных данных с учетом их статистической вариации. Это противоположно алгоритмам сопоставления с образцом , которые ищут точные совпадения во входных данных с уже существующими образцами. Распространенным примером алгоритма сопоставления с образцом является сопоставление с регулярным выражением , которое ищет образцы заданного вида в текстовых данных и входит в возможности поиска многих текстовых редакторов и текстовых процессоров .
Обзор
Распознавание образов обычно классифицируется в соответствии с типом процедуры обучения, используемой для генерации выходного значения. Контролируемое обучение предполагает, что был предоставлен набор обучающих данных ( обучающий набор ), состоящий из набора экземпляров, которые были должным образом помечены вручную с правильными выходными данными . Затем процедура обучения генерирует модель, которая пытается достичь двух иногда противоречащих друг другу целей: как можно лучше работать с данными обучения и как можно лучше обобщать новые данные (обычно это означает быть как можно более простым для некоторого технического определения. «простого», в соответствии с бритвой Оккама , обсуждаемого ниже). С другой стороны, неконтролируемое обучение предполагает обучающие данные, которые не были помечены вручную, и пытается найти внутренние шаблоны в данных, которые затем могут быть использованы для определения правильного выходного значения для новых экземпляров данных. [5] Комбинация этих двух, которая была недавно исследована, представляет собой полу-контролируемое обучение , которое использует комбинацию помеченных и немаркированных данных (обычно небольшой набор помеченных данных в сочетании с большим объемом немаркированных данных). Обратите внимание, что в случае обучения без учителя данные для обучения могут вообще отсутствовать; Другими словами, маркируемые данные являются обучающими данными.
Обратите внимание, что иногда используются разные термины для описания соответствующих контролируемых и неконтролируемых процедур обучения для одного и того же типа выходных данных. Например, неконтролируемый эквивалент классификации обычно известен как кластеризация , основанная на общем восприятии задачи как не содержащей обучающих данных, о которых можно было бы говорить, и на группировке входных данных в кластеры на основе некоторой присущей меры сходства (например, расстояния между экземпляры, рассматриваемые как векторы в многомерном векторном пространстве ), а не назначать каждый входной экземпляр одному из набора предопределенных классов. В некоторых областях используется другая терминология: например, в экологии сообществ термин «классификация» используется для обозначения того, что обычно известно как «кластеризация».
Часть входных данных, для которой генерируется выходное значение, формально называется экземпляром . Экземпляр формально описывается вектором из функций , которые вместе составляют описание всех известных характеристик экземпляра. (Эти векторы признаков можно рассматривать как определяющие точки в соответствующем многомерном пространстве , и к ним могут быть соответственно применены методы управления векторами в векторных пространствах , такие как вычисление скалярного произведения или угла между двумя векторами.) Как правило, признаки либо категориальный (также известный как номинальный , т. е. состоящий из одного из набора неупорядоченных элементов, таких как пол «мужской» или «женский», или группа крови «A», «B», «AB» или « O »), порядковый (состоящий из одного из набора упорядоченных элементов, например,« большой »,« средний »или« маленький »), целочисленный (например, подсчет количества вхождений определенного слова в электронная почта) или с реальной оценкой (например, измерение артериального давления). Часто категориальные и порядковые данные группируются вместе; аналогично для целочисленных и действительных данных. Кроме того, многие алгоритмы работают только с категориальными данными и требуют, чтобы данные с действительными или целыми значениями были дискретно разделены на группы (например, меньше 5, от 5 до 10 или больше 10).
Вероятностные классификаторы
Многие распространенные алгоритмы распознавания образов являются вероятностными по своей природе, поскольку они используют статистический вывод, чтобы найти лучшую метку для данного экземпляра. В отличие от других алгоритмов, которые просто выводят «лучшую» метку, часто вероятностные алгоритмы также выводят вероятность того, что экземпляр описывается данной меткой. Кроме того, многие вероятностные алгоритмы выводят список N- лучших меток с соответствующими вероятностями для некоторого значения N , а не просто одну лучшую метку. Когда количество возможных меток довольно мало (например, в случае классификации ), N может быть установлено так, чтобы выводилась вероятность всех возможных меток. Вероятностные алгоритмы имеют много преимуществ перед не вероятностными алгоритмами:
- Они выводят значение уверенности, связанное с их выбором. (Обратите внимание, что некоторые другие алгоритмы также могут выводить значения достоверности, но в целом, только для вероятностных алгоритмов это значение математически обосновано в теории вероятностей. Невероятным значениям достоверности, как правило, не может быть придано какое-либо конкретное значение, и они используются только для сравнения с другие значения достоверности, полученные с помощью того же алгоритма.)
- Соответственно, они могут воздержаться, когда уверенность в выборе того или иного результата слишком мала.
- Благодаря выводам вероятностей алгоритмы вероятностного распознавания образов могут быть более эффективно включены в более крупные задачи машинного обучения таким образом, чтобы частично или полностью избежать проблемы распространения ошибок .
Количество важных переменных характеристик
Алгоритмы выбора функций пытаются напрямую исключить избыточные или нерелевантные функции. Было дано общее введение в выбор функций, в котором обобщены подходы и проблемы. [6] Сложность выбора функций из-за его немонотонного характера является проблемой оптимизации, в которой задано в общей сложностиимеет набор мощности, состоящий из всехнеобходимо изучить подмножества функций. Алгоритм ветвей и Связанные [7] делает уменьшить эту сложность , но неразрешимый для среднего и больших значений числа доступных функций. Для крупномасштабного сравнения алгоритмов выбора функций см.. [8]
Методы преобразования исходных векторов признаков ( извлечение признаков ) иногда используются до применения алгоритма сопоставления с образцом. Например, алгоритмы извлечения признаков пытаются уменьшить вектор признаков большой размерности до вектора меньшей размерности, с которым легче работать и кодирует меньшую избыточность, используя математические методы, такие как анализ главных компонентов (PCA). Различие между отбором признаков и выделением признаков является то , что полученные возможности после извлечения признаков имели место имеют разного рода , чем оригинальные черты и не могут быть легко интерпретируемыми, в то время как функции , оставшихся после выбора функции просто подмножество оригинальных особенностей .
Постановка задачи
Формально проблему распознавания образов можно сформулировать так: дана неизвестная функция ( основная истина ), который отображает входные экземпляры для вывода этикеток вместе с данными обучения предполагается, что они представляют точные примеры отображения, производят функцию который максимально приближает правильное отображение . (Например, если проблема заключается в фильтрации спама, то представляет собой некоторое представление электронной почты и является либо «спамом», либо «не спамом»). Для того чтобы это была четко определенная проблема, необходимо строго определить «приближается как можно точнее». В теории принятия решений это определяется путем определения функции потерь или функции стоимости, которая присваивает определенное значение «потерям» в результате создания неправильной метки. Затем цель состоит в том, чтобы минимизировать ожидаемые потери, с ожиданием берется по распределению вероятности в. На практике ни распределение ни функция наземной истины точно известны, но могут быть вычислены только эмпирически путем сбора большого количества выборок и маркируя их вручную, используя правильное значение (длительный процесс, который обычно является ограничивающим фактором для объема данных такого рода, которые могут быть собраны). Конкретная функция потерь зависит от типа прогнозируемой метки. Например, в случае классификации часто бывает достаточно простой функции потерь нуля или единицы . Это соответствует просто присвоению потери 1 любой неправильной маркировке и подразумевает, что оптимальный классификатор минимизирует частоту ошибок для независимых тестовых данных (т.е. подсчет доли экземпляров, которые изученная функцияметки неправильно, что равносильно максимальному увеличению количества правильно классифицированных экземпляров). Таким образом, цель процедуры обучения состоит в том, чтобы минимизировать частоту ошибок (максимизировать правильность ) на «типичном» тестовом наборе.
Для вероятностного распознавателя образов проблема состоит в том, чтобы вместо этого оценить вероятность каждой возможной выходной метки для конкретного входного экземпляра, т. Е. Оценить функцию вида
где вход вектора признаков, а функция f обычно параметризуется некоторыми параметрами. [9] При дискриминационном подходе к проблеме f оценивается напрямую. Однако в генеративном подходе обратная вероятностьвместо этого оценивается и комбинируется с априорной вероятностью используя правило Байеса следующим образом:
Когда метки непрерывно распределяются (например, при регрессионном анализе ), знаменатель предполагает интегрирование, а не суммирование:
Значение обычно изучается с использованием максимальной апостериорной оценки (MAP). Это находит лучшее значение, которое одновременно соответствует двум конфликтующим объектам: максимально эффективно работать с обучающими данными (наименьшая частота ошибок ) и найти простейшую возможную модель. По сути, это объединяет оценку максимального правдоподобия с процедурой регуляризации , которая отдает предпочтение более простым моделям по сравнению с более сложными моделями. В байесовском контексте процедуру регуляризации можно рассматривать как определение априорной вероятности по разным значениям . Математически:
где это значение, используемое для в последующей процедуре оценки, и , То апостериорная вероятность из, дан кем-то
В байесовском подходе к этой проблеме вместо выбора одного вектора параметров, вероятность данной метки для нового экземпляра вычисляется интегрированием по всем возможным значениям , взвешенные по апостериорной вероятности:
Частотный или байесовский подход к распознаванию образов
Первый классификатор паттернов - линейный дискриминант, представленный Фишером - был разработан в соответствии с частотной традицией. Частотный подход предполагает, что параметры модели считаются неизвестными, но объективными. Затем параметры вычисляются (оцениваются) на основе собранных данных. Для линейного дискриминанта эти параметры являются в точности векторами средних значений и ковариационной матрицей . Также вероятность каждого классаоценивается на основе собранных данных. Обратите внимание, что использование « правила Байеса » в классификаторе шаблонов не делает подход к классификации байесовским.
Байесовская статистика берет свое начало в греческой философии, где уже проводилось различие между « априорным » и « апостериорным » знанием. Позже Кант определил различие между тем, что известно априори - до наблюдения - и эмпирическим знанием, полученным из наблюдений. В классификаторе байесовских паттернов вероятности классовмогут быть выбраны пользователем, которые затем априори. Более того, опыт, количественно выраженный как априорные значения параметров, может быть взвешен с помощью эмпирических наблюдений, например, с использованием бета- ( сопряженных априорных ) и Дирихле-распределений . Байесовский подход способствует плавному смешиванию экспертных знаний в форме субъективных вероятностей и объективных наблюдений.
Классификаторы вероятностных паттернов могут использоваться в соответствии с частотным или байесовским подходом.
Использует
В медицинской науке распознавание образов является основой систем компьютерной диагностики (CAD). CAD описывает процедуру, которая поддерживает интерпретацию и выводы врача. Другими типичными применениями методов распознавания образов являются автоматическое распознавание речи , идентификация говорящего , классификация текста на несколько категорий (например, спам / не спамовые сообщения электронной почты), автоматическое распознавание почерка на почтовых конвертах, автоматическое распознавание изображений человеческих лиц и т. Д. или извлечение изображения почерка из медицинских бланков. [10] [11] Последние два примера формируют подтемный анализ изображений распознавания образов, который имеет дело с цифровыми изображениями в качестве входных данных для систем распознавания образов. [12] [13]
Оптическое распознавание символов - классический пример применения классификатора образов, см. Пример OCR . Метод подписания своего имени был запечатлен с помощью стилуса и наложения, начиная с 1990 года. [ Необходима цитата ] Удары, скорость, относительный минимум, относительный максимум, ускорение и давление используются для однозначной идентификации и подтверждения личности. Банкам впервые была предложена эта технология, но они были довольны получением от FDIC взыскания за любое банковское мошенничество и не хотели причинять неудобства клиентам. [ необходима цитата ]
Распознавание образов имеет множество реальных приложений для обработки изображений, некоторые примеры включают:
- идентификация и аутентификация: например, распознавание автомобильных номеров , [14] анализ отпечатков пальцев, обнаружение / проверка лиц [15] и аутентификация на основе голоса. [16]
- медицинский диагноз: например, обследование на рак шейки матки (Папнет), [17] опухоли груди или тоны сердца;
- защита: различные системы навигации и наведения, системы распознавания целей, технологии распознавания форм и т. д.
- мобильность: современные системы помощи водителю , технологии автономных транспортных средств и т. д. [18] [19] [20] [21] [22]
В психологии распознавание образов (осмысление и идентификация объектов) тесно связано с восприятием, которое объясняет, как сенсорные сигналы, получаемые людьми, становятся значимыми. Распознавание образов можно рассматривать двумя разными способами: первый - сопоставление с шаблоном, а второй - обнаружение признаков. Шаблон - это шаблон, используемый для создания предметов одинаковых пропорций. Гипотеза соответствия шаблону предполагает, что входящие стимулы сравниваются с шаблонами в долговременной памяти. Если есть совпадение, стимул идентифицируется. Модели обнаружения признаков, такие как система классификации букв Pandemonium (Selfridge, 1959), предполагают, что стимулы разбиваются на составные части для идентификации. Например, заглавная буква E состоит из трех горизонтальных линий и одной вертикальной линии. [23]
Алгоритмы
Алгоритмы распознавания образов зависят от типа вывода метки, от того, является ли обучение контролируемым или неконтролируемым, и от того, является ли алгоритм статистическим или нестатистическим по своей природе. Статистические алгоритмы можно также разделить на генеративные и дискриминационные .
Методы классификации (методы прогнозирования категориальных меток)
Параметрический: [24]
- Линейный дискриминантный анализ
- Квадратичный дискриминантный анализ
- Классификатор максимальной энтропии (также известный как логистическая регрессия , полиномиальная логистическая регрессия ): обратите внимание, что логистическая регрессия - это алгоритм классификации, несмотря на его название. (Название происходит от того факта, что логистическая регрессия использует расширение модели линейной регрессии для моделирования вероятности того, что входные данные принадлежат определенному классу.)
Непараметрический: [25]
- Деревья решений , списки решений
- Оценка ядра и алгоритмы K-ближайшего соседа
- Наивный байесовский классификатор
- Нейронные сети (многослойные персептроны)
- Персептроны
- Опорные векторные машины
- Программирование экспрессии генов
Методы кластеризации (методы классификации и прогнозирования категориальных меток)
- Категориальные модели смеси
- Иерархическая кластеризация (агломеративная или разделяющая)
- К-средство кластеризации
- Корреляционная кластеризация
- Анализ основных компонентов ядра (Kernel PCA)
Алгоритмы ансамблевого обучения (контролируемые метаалгоритмы для объединения нескольких алгоритмов обучения вместе)
- Повышение (мета-алгоритм)
- Агрегирование бутстрапа ("упаковка")
- Усреднение по ансамблю
- Смесь экспертов , иерархическая смесь экспертов
Общие методы прогнозирования произвольно структурированных (наборов) меток
- Байесовские сети
- Марковские случайные поля
Алгоритмы обучения мультилинейных подпространств (прогнозирование меток многомерных данных с использованием тензорных представлений)
Без присмотра:
- Многолинейный анализ главных компонент (MPCA)
Вещественнозначные маркировки последовательности методы (прогнозирующие последовательности вещественных меток)
- Фильтры Калмана
- Фильтры твердых частиц
Методы регрессии (прогнозирование меток с действительными значениями )
- Регрессия гауссовского процесса (кригинг)
- Линейная регрессия и расширения
- Независимый компонентный анализ (ICA)
- Анализ основных компонентов (PCA)
Методы маркировки последовательностей (прогнозирование последовательностей категориальных меток)
- Условные случайные поля (CRF)
- Скрытые марковские модели (HMM)
- Марковские модели с максимальной энтропией (MEMM)
- Рекуррентные нейронные сети (RNN)
- Динамическое искажение времени (DTW)
Смотрите также
- Теория адаптивного резонанса
- Черный ящик
- Модель языка кеширования
- Многократная обработка
- Компьютерная диагностика
- Сбор данных
- Глубокое обучение
- Теория информации
- Список программного обеспечения для численного анализа
- Список числовых библиотек
- Мультилинейное подпространственное обучение
- Неокогнитрон
- Восприятие
- Восприятие обучения
- Прогнозная аналитика
- Предварительные знания по распознаванию образов
- Последовательный майнинг
- Соответствие шаблонов
- Контекстная классификация изображений
- Список наборов данных для исследования машинного обучения
Рекомендации
Эта статья основана на материалах, взятых из Free On-line Dictionary of Computing до 1 ноября 2008 г. и включенных в соответствии с условиями «перелицензирования» GFDL версии 1.3 или новее.
- ↑ Епископ, Кристофер М. (2006). Распознавание образов и машинное обучение . Springer.
- ^ Ховард, WR (20 февраля 2007 г.). «Распознавание образов и машинное обучение». Кибернетес . 36 (2): 275. DOI : 10,1108 / 03684920710743466 . ISSN 0368-492X .
- ^ «Маркировка последовательностей» (PDF) . utah.edu . Архивировано (PDF) из оригинала на 2018-11-06 . Проверено 6 ноября 2018 .
- ^ Ян., Чизуэлл (2007). Математическая логика, стр. 34 . Издательство Оксфордского университета. ISBN 9780199215621. OCLC 799802313 .
- ^ Карвалко, младший, Престон К. (1972). «Об определении оптимальных простых преобразований маркировки Голея для обработки двоичных изображений». Транзакции IEEE на компьютерах . 21 (12): 1430–33. DOI : 10.1109 / TC.1972.223519 . S2CID 21050445 .CS1 maint: несколько имен: список авторов ( ссылка ).
- ^ Isabelle Гийон Clopinet, Андре Elisseeff (2003). Введение в выбор переменных и функций . Журнал исследований в области машинного обучения, Vol. 3, 1157–1182. Ссылка Архивировано 4 марта 2016 года на Wayback Machine.
- ^ Иман Фороутан; Джек Склански (1987). «Выбор функций для автоматической классификации негауссовских данных». IEEE Transactions по системам, человеку и кибернетике . 17 (2): 187–198. DOI : 10.1109 / TSMC.1987.4309029 . S2CID 9871395 ..
- ^ Минеити Кудо; Джек Склански (2000). «Сравнение алгоритмов выбора признаков для классификаторов паттернов». Распознавание образов . 33 (1): 25–41. CiteSeerX 10.1.1.55.1718 . DOI : 10.1016 / S0031-3203 (99) 00041-2 ..
- ^ Для линейного дискриминантного анализа вектор параметров состоит из двух средних векторов а также и общая ковариационная матрица .
- ^ Милевски, Роберт; Говиндараджу, Вену (31 марта 2008 г.). «Бинаризация и очистка рукописного текста от копий изображений медицинских форм» . Распознавание образов . 41 (4): 1308–1315. DOI : 10.1016 / j.patcog.2007.08.018 . Архивировано 10 сентября 2020 года . Проверено 26 октября 2011 года .
- ^ Саранги, Сусанта; Сахидулла, штат Мэриленд; Саха, Гоутам (сентябрь 2020 г.). «Оптимизация набора фильтров на основе данных для автоматической проверки говорящего». Цифровая обработка сигналов . 104 : 102795. arXiv : 2007.10729 . DOI : 10.1016 / j.dsp.2020.102795 . S2CID 220665533 .
- ^ Ричард О. Дуда , Питер Э. Харт , Дэвид Г. Сторк (2001). Классификация паттернов (2-е изд.). Вили, Нью-Йорк. ISBN 978-0-471-05669-0. Архивировано 19 августа 2020 года . Проверено 26 ноября 2019 .CS1 maint: несколько имен: список авторов ( ссылка )
- ^ Р. Брунелли, Методы сопоставления шаблонов в компьютерном зрении: теория и практика , Wiley, ISBN 978-0-470-51706-2 , 2009 г.
- ^ РУКОВОДСТВО ПО АВТОМАТИЧЕСКОМУ РАСПОЗНАВАНИЮ НОМЕРНОЙ ТАБЛИЧКИ Архивировано 20 августа 2006 г. на Wayback Machine http://anpr-tutorial.com/ Архивировано 20 августа 2006 г. на Wayback Machine
- ^ Нейронные сети для распознавания лиц Архивированных 2016-03-04 в Вайбаке Machine Companion к главе 4 учебника Machine Learning.
- ^ Поддар, Арнаб; Сахидулла, штат Мэриленд; Саха, Гоутам (март 2018 г.). «Подтверждение оратора с помощью коротких высказываний: обзор проблем, тенденций и возможностей» . IET Biometrics . 7 (2): 91–101. DOI : 10,1049 / МТВ-bmt.2017.0065 . Архивировано 3 сентября 2019 года . Проверено 27 августа 2019 .
- ^ PAPNET для скрининга шейки матки. Архивировано 8 июля 2012 г. в archive.today.
- ^ «Разработка стратегии управления автономным транспортным средством с использованием одной камеры и глубоких нейронных сетей (технический документ 2018-01-0035) - SAE Mobilus» . saemobilus.sae.org . Архивировано 6 сентября 2019 года . Проверено 6 сентября 2019 .
- ^ Гердес, Дж. Кристиан; Кегельман, Джон С .; Kapania, Nitin R .; Браун, Мэтью; Спилберг, Натан А. (27 марта 2019 г.). «Нейросетевые модели автомобилей для высокопроизводительного автоматизированного вождения» . Наука Робототехника . 4 (28): eaaw1975. DOI : 10.1126 / scirobotics.aaw1975 . ISSN 2470-9476 . PMID 33137751 . S2CID 89616974 .
- ^ Пикеринг, Крис (2017-08-15). «Как ИИ прокладывает путь к полностью автономным автомобилям» . Инженер . Архивировано 6 сентября 2019 года . Проверено 6 сентября 2019 .
- ^ Рэй, Байшахи; Яна, Суман; Пей, Кексин; Тиан, Ючи (28.08.2017). «DeepTest: автоматизированное тестирование автономных автомобилей, управляемых глубокими нейронными сетями». arXiv : 1708.08559 . Bibcode : 2017arXiv170808559T . Цитировать журнал требует
|journal=
( помощь ) - ^ Синха, ПК; Хаджийский, Л.М.; Мутиб, К. (1993-04-01). «Нейронные сети в управлении автономным транспортным средством». Сборники материалов МФБ . 1-й международный семинар МФБ по интеллектуальным автономным транспортным средствам, Хэмпшир, Великобритания, 18–21 апреля. 26 (1): 335–340. DOI : 10.1016 / S1474-6670 (17) 49322-0 . ISSN 1474-6670 .
- ^ "A-level Psychology Attention Revision - Распознавание образов | S-cool, обновленный веб-сайт" . S-cool.co.uk. Архивировано 22 июня 2013 года . Проверено 17 сентября 2012 .
- ^ Предполагая известную форму распределения пространственных объектов по классам, напримерформу Гаусса .
- ^ Нет предположений о распределении по форме распределения объектов по классам.
дальнейшее чтение
- Фукунага, Кейносуке (1990). Введение в статистическое распознавание образов (2-е изд.). Бостон: Academic Press. ISBN 978-0-12-269851-4.
- Хорнеггер, Иоахим; Паулюс, Дитрих WR (1999). Прикладное распознавание образов: практическое введение в обработку изображений и речи в C ++ (2-е изд.). Сан-Франциско: Издательство Морган Кауфманн. ISBN 978-3-528-15558-2.
- Шуэрманн, Юрген (1996). Классификация паттернов: единый взгляд на статистические и нейронные подходы . Нью-Йорк: Вили. ISBN 978-0-471-13534-0.
- Годфрид Т. Туссен, изд. (1988). Вычислительная морфология . Амстердам: Издательская компания Северной Голландии. ISBN 9781483296722.
- Куликовский, Казимир А .; Вайс, Шолом М. (1991). Компьютерные системы, которые учатся: методы классификации и прогнозирования на основе статистики, нейронных сетей, машинного обучения и экспертных систем . Машинное обучение. Сан-Франциско: Издательство Морган Кауфманн. ISBN 978-1-55860-065-2.
- Дуда, Ричард О .; Харт, Питер Э .; Аист, Дэвид Г. (2000). Классификация паттернов (2-е изд.). Wiley-Interscience. ISBN 978-0471056690.
- Jain, Anil.K .; Duin, Robert.PW; Мао, Цзяньчан (2000). «Статистическое распознавание образов: обзор». IEEE Transactions по анализу шаблонов и машинному анализу . 22 (1): 4–37. CiteSeerX 10.1.1.123.8151 . DOI : 10.1109 / 34.824819 .
- Вводное руководство по классификаторам (введение основных терминов с числовым примером)
Внешние ссылки
- Международная ассоциация распознавания образов
- Список веб-сайтов по распознаванию образов
- Журнал исследований распознавания образов
- Информация о распознавании образов
- Распознавание образов (журнал Общества распознавания образов)
- Международный журнал распознавания образов и искусственного интеллекта
- Международный журнал прикладного распознавания образов
- Открытый проект распознавания образов , задуманный как платформа с открытым исходным кодом для обмена алгоритмами распознавания образов.
- Улучшенное быстрое сопоставление с образцом Улучшенное быстрое сопоставление с образцом