Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Распознавание образов - это автоматическое распознавание закономерностей и закономерностей в данных . Он имеет приложения для статистического анализа данных , обработки сигналов , анализа изображений , поиска информации , биоинформатики , сжатия данных , компьютерной графики и машинного обучения . Распознавание образов берет свое начало в статистике и инженерии; некоторые современные подходы к распознаванию образов включают использование машинного обучения из-за возросшей доступности больших данных и нового обилия вычислительной мощности.. Однако эти действия можно рассматривать как две стороны одной и той же области применения, и вместе они претерпели существенное развитие за последние несколько десятилетий. Современное определение распознавания образов:

Область распознавания образов связана с автоматическим обнаружением закономерностей в данных с помощью компьютерных алгоритмов и с использованием этих закономерностей для принятия таких действий, как классификация данных по различным категориям. [1]

Системы распознавания образов во многих случаях обучаются на основе помеченных «обучающих» данных, но когда помеченные данные недоступны, можно использовать другие алгоритмы для обнаружения ранее неизвестных образов. KDD и интеллектуальный анализ данных уделяют больше внимания неконтролируемым методам и более тесной связи с использованием в бизнесе. Распознавание образов больше фокусируется на сигнале, а также учитывает сбор данных и обработку сигналов . Он возник в инженерии , и этот термин популярен в контексте компьютерного зрения : ведущая конференция по компьютерному зрению носит название Конференция по компьютерному зрению и распознаванию образов .

В машинном обучении распознавание образов - это присвоение метки заданному входному значению. В статистике с этой же целью в 1936 году был введен дискриминантный анализ . Примером распознавания образов является классификация , которая пытается присвоить каждое входное значение одному из заданного набора классов (например, определить, является ли данное электронное письмо «спамом»). или «без спама»). Однако распознавание образов - более общая проблема, которая охватывает и другие типы вывода. Другими примерами являются регрессия , при которой каждому входу присваивается результат с действительным знаком ; [2] маркировка последовательности , которая присваивает класс каждому члену последовательности значений.[3] (например, тегирование части речи , которое присваивает часть речи каждому слову во входном предложении); и синтаксический анализ , который присваиваетвходному предложению дерево синтаксического анализа , описывающее синтаксическую структуру предложения. [4]

Алгоритмы распознавания образов обычно стремятся предоставить разумный ответ для всех возможных входных данных и выполнить «наиболее вероятное» сопоставление входных данных с учетом их статистической вариации. Это противоположно алгоритмам сопоставления с образцом , которые ищут точные совпадения во входных данных с уже существующими образцами. Распространенным примером алгоритма сопоставления с образцом является сопоставление с регулярным выражением , которое ищет образцы заданного вида в текстовых данных и входит в возможности поиска многих текстовых редакторов и текстовых процессоров .

Обзор [ править ]

Распознавание образов обычно классифицируется в соответствии с типом процедуры обучения, используемой для генерации выходного значения. Контролируемое обучение предполагает, что был предоставлен набор обучающих данных ( обучающий набор ), состоящий из набора экземпляров, которые были должным образом помечены вручную с правильными выходными данными . Затем процедура обучения генерирует модель, которая пытается достичь двух иногда противоречащих друг другу целей: как можно лучше работать с обучающими данными и как можно лучше обобщать новые данные (обычно это означает быть как можно более простым для некоторого технического определения. «простого», в соответствии с бритвой Оккама , обсуждаемого ниже). Обучение без учителя, с другой стороны, предполагает обучающие данные, которые не были помечены вручную, и пытается найти в данных собственные шаблоны, которые затем можно использовать для определения правильного выходного значения для новых экземпляров данных. [5] Комбинация этих двух, которая была недавно исследована, представляет собой полу-контролируемое обучение , которое использует комбинацию помеченных и немаркированных данных (обычно небольшой набор помеченных данных в сочетании с большим объемом немаркированных данных). Обратите внимание, что в случае обучения без учителя данные для обучения могут вообще отсутствовать; Другими словами, маркируемые данные являются обучающими данными.

Обратите внимание, что иногда используются разные термины для описания соответствующих контролируемых и неконтролируемых процедур обучения для одного и того же типа выходных данных. Например, неконтролируемый эквивалент классификации обычно известен как кластеризация , основанная на общем восприятии задачи как не содержащей обучающих данных, о которых можно было бы говорить, и на группировке входных данных в кластеры на основе некоторой присущей меры сходства (например, расстояния между экземпляры, рассматриваемые как векторы в многомерном векторном пространстве ), а не назначать каждый входной экземпляр одному из набора предопределенных классов. В некоторых областях терминология отличается: например, в области общественной экологии.термин «классификация» используется для обозначения того, что обычно известно как «кластеризация».

Часть входных данных, для которой генерируется выходное значение, формально называется экземпляром . Экземпляр формально описывается вектором из функций , которые вместе составляют описание всех известных характеристик экземпляра. (Эти векторы признаков можно рассматривать как определяющие точки в соответствующем многомерном пространстве , и к ним могут быть соответственно применены методы управления векторами в векторных пространствах , такие как вычисление скалярного произведения или угла между двумя векторами.) Как правило, признаки либо категориальный (также известный как номинальный, т. е. состоящий из одного из набора неупорядоченных элементов, таких как пол «мужской» или «женский» или группа крови «A», «B», «AB» или «O»), порядковый номер ( состоящий из одного из набора упорядоченных элементов, например, «большой», «средний» или «маленький»), целочисленный (например, подсчет количества вхождений определенного слова в электронном письме) или действительный (например, измерение артериального давления). Часто категориальные и порядковые данные группируются вместе; аналогично для целочисленных и действительных данных. Кроме того, многие алгоритмы работают только с категориальными данными и требуют, чтобы данные с действительными или целыми значениями были дискретно разделены на группы (например, менее 5, от 5 до 10, или больше 10).

Вероятностные классификаторы [ править ]

Многие распространенные алгоритмы распознавания образов являются вероятностными по своей природе, поскольку они используют статистический вывод, чтобы найти лучшую метку для данного экземпляра. В отличие от других алгоритмов, которые просто выводят «лучшую» метку, часто вероятностные алгоритмы также выводят вероятность того, что экземпляр описывается данной меткой. Кроме того, многие вероятностные алгоритмы выводят список N- лучших меток с соответствующими вероятностями для некоторого значения N , а не просто одну лучшую метку. Когда количество возможных меток довольно мало (например, в случае классификации ), Nможет быть установлен так, чтобы выводилась вероятность всех возможных меток. Вероятностные алгоритмы имеют много преимуществ перед не вероятностными алгоритмами:

  • Они выводят значение уверенности, связанное с их выбором. (Обратите внимание, что некоторые другие алгоритмы также могут выводить значения достоверности, но в целом, только для вероятностных алгоритмов это значение математически обосновано в теории вероятностей. Невероятным значениям достоверности, как правило, не может быть придано какое-либо конкретное значение, и они используются только для сравнения с другие значения достоверности, полученные с помощью того же алгоритма.)
  • Соответственно, они могут воздержаться, когда уверенность в выборе того или иного результата слишком мала.
  • Благодаря выводам вероятностей алгоритмы вероятностного распознавания образов могут быть более эффективно включены в более крупные задачи машинного обучения таким образом, чтобы частично или полностью избежать проблемы распространения ошибок .

Количество важных переменных функций [ править ]

Алгоритмы выбора функций пытаются напрямую исключить избыточные или нерелевантные функции. Было дано общее введение в выбор функций, в котором обобщены подходы и проблемы. [6] Сложность выбора признаков из-за его немонотонного характера представляет собой проблему оптимизации, когда при заданном общем количестве функций необходимо изучить мощный набор, состоящий из всех подмножеств функций. Ветви и Связанный алгоритм [7] делает уменьшить эту сложность , но неразрешимый для среднего и больших значений числа доступных функций . Для крупномасштабного сравнения алгоритмов выбора функций см.. [8]

Методы преобразования исходных векторов признаков ( извлечение признаков ) иногда используются до применения алгоритма сопоставления с образцом. Например, алгоритмы извлечения признаков пытаются уменьшить вектор признаков большой размерности до вектора меньшей размерности, с которым легче работать и кодирует меньшую избыточность, используя математические методы, такие как анализ главных компонентов (PCA). Различие между отбором признаков и выделением признаков заключается в том, что результирующие функции после того, как произошло извлечение признаков, имеют другой вид, чем исходные, и могут быть трудно интерпретируемыми, в то время как функции, оставшиеся после выбора функции, являются просто подмножеством исходных функций.

Формулировка проблемы [ править ]

Формально проблема распознавания образов может быть сформулирована следующим образом: если задана неизвестная функция ( основная истина ), которая сопоставляет входные экземпляры с выходными метками , вместе с обучающими данными, которые, как предполагается, представляют точные примеры сопоставления, получается функция, которая максимально приближается к по возможности правильное отображение . (Например, если проблема заключается в фильтрации спама, то это некоторое представление электронной почты и либо «спам», либо «не спам»). Для того чтобы это была четко определенная проблема, необходимо строго определить «приближается как можно точнее». В теории принятия решений это определяется путем задания функции потерьили функция стоимости, которая присваивает определенное значение «потерям» в результате создания неправильной метки. Затем цель состоит в том, чтобы минимизировать ожидаемые потери, с ожиданием берется по распределению вероятностей в . На практике ни распределение, ни основная функция истинности точно не известны, но могут быть вычислены только эмпирически путем сбора большого количества выборок и ручной маркировки их с использованием правильного значения (процесс, требующий много времени, который обычно ограничивающий фактор количества данных такого рода, которые могут быть собраны). Конкретная функция потерь зависит от типа прогнозируемой метки. Например, в случае классификации простойфункции потерь, равной нулю или единице , часто бывает достаточно. Это соответствует просто присвоению потери 1 любой неправильной маркировке и подразумевает, что оптимальный классификатор минимизирует частоту ошибок для независимых тестовых данных (то есть подсчет доли экземпляров, которые изученная функция помечает неправильно, что эквивалентно максимальному увеличению количества правильно классифицированные экземпляры). Таким образом, цель процедуры обучения - минимизировать частоту ошибок (максимизировать правильность ) на «типичном» тестовом наборе.

Для вероятностного распознавателя образов проблема состоит в том, чтобы вместо этого оценить вероятность каждой возможной выходной метки для конкретного входного экземпляра, т. Е. Оценить функцию вида

где входной вектор признаков есть , а функция f обычно параметризуется некоторыми параметрами . [9] При дискриминационном подходе к проблеме f оценивается напрямую. Однако в генеративном подходе обратная вероятность вместо этого оценивается и комбинируется с априорной вероятностью с использованием правила Байеса следующим образом:

Когда метки непрерывно распределяются (например, при регрессионном анализе ), знаменатель предполагает интегрирование, а не суммирование:

Значение обычно изучается с использованием максимальной апостериорной оценки (MAP). Это находит лучшее значение, которое одновременно соответствует двум конфликтующим объектам: максимально эффективно работать с обучающими данными (наименьшая частота ошибок ) и найти простейшую возможную модель. По сути, это объединяет оценку максимального правдоподобия с процедурой регуляризации , которая отдает предпочтение более простым моделям по сравнению с более сложными моделями. В байесовском контексте процедуру регуляризации можно рассматривать как установление априорной вероятности на различные значения . Математически:

где это значение , используемое для в последующей процедуре оценки, и , то апостериорная вероятность из , задается

В байесовском подходе к этой проблеме, вместо выбора одного вектора параметров , вероятность данной метки для нового экземпляра вычисляется путем интегрирования по всем возможным значениям , взвешенным в соответствии с апостериорной вероятностью:

Частотный или байесовский подход к распознаванию образов [ править ]

Первый классификатор паттернов - линейный дискриминант, представленный Фишером - был разработан в соответствии с частотной традицией. Частотный подход предполагает, что параметры модели считаются неизвестными, но объективными. Затем параметры вычисляются (оцениваются) на основе собранных данных. Для линейного дискриминанта эти параметры являются в точности векторами средних значений и ковариационной матрицей . Также вероятность каждого класса оценивается на основе собранных данных. Обратите внимание, что использование « правила Байеса » в классификаторе шаблонов не делает подход к классификации байесовским.

Байесовская статистика берет свое начало в греческой философии, где уже проводилось различие между « априорным » и « апостериорным » знанием. Позже Кант определил различие между тем, что известно априори - до наблюдения - и эмпирическим знанием, полученным из наблюдений. В классификаторе байесовских шаблонов вероятности классов могут быть выбраны пользователем, которые затем являются априорными. Более того, опыт, количественно выраженный как априорные значения параметров, может быть взвешен с помощью эмпирических наблюдений - например, с использованием бета- ( сопряженных априорных ) и Дирихле-распределений.. Байесовский подход способствует плавному смешиванию экспертных знаний в форме субъективных вероятностей и объективных наблюдений.

Классификаторы вероятностных паттернов могут использоваться в соответствии с частотным или байесовским подходом.

Использует [ редактировать ]

Лицо было автоматически обнаружено специальным программным обеспечением.

В медицинской науке распознавание образов является основой систем компьютерной диагностики (CAD). CAD описывает процедуру, которая поддерживает интерпретацию и выводы врача. Другими типичными применениями методов распознавания образов являются автоматическое распознавание речи , идентификация говорящего , классификация текста на несколько категорий (например, спам / не спамовые сообщения электронной почты), автоматическое распознавание почерка на почтовых конвертах, автоматическое распознавание изображений человеческих лиц и т. Д. или извлечение изображения почерка из медицинских бланков. [10] [11] Последние два примера образуют анализ подтемы изображений.распознавания образов, которое использует цифровые изображения в качестве входных данных для систем распознавания образов. [12] [13]

Оптическое распознавание символов - классический пример применения классификатора образов, см. Пример OCR . Метод подписания имени был запечатлен с помощью стилуса и наложения, начиная с 1990 года. [ Необходима цитата ] Удары, скорость, относительный минимум, относительный максимум, ускорение и давление используются для однозначной идентификации и подтверждения личности. Банкам впервые была предложена эта технология, но они были довольны получением от FDIC взыскания за любое банковское мошенничество и не хотели причинять неудобства клиентам. [ необходима цитата ]

Распознавание образов имеет множество реальных приложений для обработки изображений, некоторые примеры включают:

  • идентификация и аутентификация: например, распознавание номерных знаков , [14] анализ отпечатков пальцев, обнаружение / проверка лиц, [15] и голосовая аутентификация. [16]
  • медицинский диагноз: например, обследование на рак шейки матки (Папнет), [17] опухоли груди или тоны сердца;
  • защита: различные системы навигации и наведения, системы распознавания целей, технологии распознавания форм и т. д.
  • мобильность: современные системы помощи водителю , технологии автономных транспортных средств и т. д. [18] [19] [20] [21] [22]

В психологии распознавание образов (осмысление и идентификация объектов) тесно связано с восприятием, которое объясняет, как сенсорные сигналы, получаемые людьми, становятся значимыми. Распознавание образов можно рассматривать двумя разными способами: первый - сопоставление с шаблоном, а второй - обнаружение признаков. Шаблон - это шаблон, используемый для создания предметов одинаковых пропорций. Гипотеза соответствия шаблону предполагает, что входящие стимулы сравниваются с шаблонами в долговременной памяти. Если есть совпадение, стимул идентифицируется. Модели обнаружения признаков, такие как система классификации букв Pandemonium (Selfridge, 1959), предполагают, что стимулы разбиваются на составные части для идентификации. Например, заглавная буква E состоит из трех горизонтальных линий и одной вертикальной линии.[23]

Алгоритмы [ править ]

Алгоритмы распознавания образов зависят от типа вывода метки, от того, является ли обучение контролируемым или неконтролируемым, и от того, является ли алгоритм статистическим или нестатистическим по своей природе. Статистические алгоритмы можно также разделить на генеративные и дискриминационные .

Методы классификации (методы прогнозирования категориальных меток) [ править ]

Параметрический: [24]

  • Линейный дискриминантный анализ
  • Квадратичный дискриминантный анализ
  • Классификатор максимальной энтропии (также известный как логистическая регрессия , полиномиальная логистическая регрессия ): обратите внимание, что логистическая регрессия - это алгоритм классификации, несмотря на его название. (Название происходит от того факта, что логистическая регрессия использует расширение модели линейной регрессии для моделирования вероятности того, что входные данные принадлежат определенному классу.)

Непараметрический: [25]

  • Деревья решений , списки решений
  • Оценка ядра и алгоритмы K-ближайшего соседа
  • Наивный байесовский классификатор
  • Нейронные сети (многослойные персептроны)
  • Персептроны
  • Опорные векторные машины
  • Программирование экспрессии генов

Методы кластеризации (методы классификации и прогнозирования категориальных меток) [ править ]

  • Категориальные модели смеси
  • Иерархическая кластеризация (агломеративная или разделяющая)
  • К-средство кластеризации
  • Корреляционная кластеризация
  • Анализ основных компонентов ядра (Kernel PCA)

Алгоритмы ансамблевого обучения (контролируемые метаалгоритмы для объединения нескольких алгоритмов обучения) [ править ]

  • Повышение (мета-алгоритм)
  • Агрегирование бутстрапа ("упаковка")
  • Усреднение по ансамблю
  • Смесь экспертов , иерархическая смесь экспертов

Общие методы прогнозирования произвольно структурированных (наборов) меток [ править ]

  • Байесовские сети
  • Марковские случайные поля

Алгоритмы обучения мультилинейных подпространств (предсказание меток многомерных данных с использованием тензорных представлений) [ править ]

Без присмотра:

  • Многолинейный анализ главных компонент (MPCA)

Вещественнозначная последовательность маркировка метода (прогнозирующие последовательности вещественных меток) [ править ]

  • Фильтры Калмана
  • Фильтры твердых частиц

Методы регрессии (прогнозирование меток с действительным знаком) [ править ]

  • Регрессия гауссовского процесса (кригинг)
  • Линейная регрессия и расширения
  • Независимый компонентный анализ (ICA)
  • Анализ основных компонентов (PCA)

Методы маркировки последовательностей (прогнозирование последовательностей категориальных меток) [ править ]

  • Условные случайные поля (CRF)
  • Скрытые марковские модели (HMM)
  • Марковские модели с максимальной энтропией (MEMM)
  • Рекуррентные нейронные сети (RNN)
  • Динамическое искажение времени (DTW)

См. Также [ править ]

  • Теория адаптивного резонанса
  • Черный ящик
  • Модель языка кеширования
  • Многократная обработка
  • Компьютерная диагностика
  • Сбор данных
  • Глубокое обучение
  • Теория информации
  • Список программного обеспечения для численного анализа
  • Список числовых библиотек
  • Мультилинейное подпространственное обучение
  • Неокогнитрон
  • Восприятие
  • Восприятие обучения
  • Прогнозная аналитика
  • Предварительные знания по распознаванию образов
  • Последовательный майнинг
  • Соответствие шаблонов
  • Контекстная классификация изображений
  • Список наборов данных для исследования машинного обучения

Ссылки [ править ]

Эта статья основана на материалах, взятых из Free On-line Dictionary of Computing до 1 ноября 2008 г. и включенных в соответствии с условиями «перелицензирования» GFDL версии 1.3 или новее.

  1. Епископ, Кристофер М. (2006). Распознавание образов и машинное обучение . Springer.
  2. Перейти ↑ Howard, WR (2007-02-20). «Распознавание образов и машинное обучение». Кибернетес . 36 (2): 275. DOI : 10,1108 / 03684920710743466 . ISSN 0368-492X . 
  3. ^ «Маркировка последовательности» (PDF) . utah.edu . Архивировано (PDF) из оригинала на 2018-11-06 . Проверено 6 ноября 2018 .
  4. ^ Ян., Chiswell (2007). Математическая логика, стр. 34 . Издательство Оксфордского университета. ISBN 9780199215621. OCLC  799802313 .
  5. ^ Carvalko, JR, Престон К. (1972). «Об определении оптимальных простых преобразований маркировки Голея для обработки двоичных изображений». Транзакции IEEE на компьютерах . 21 (12): 1430–33. DOI : 10.1109 / TC.1972.223519 . S2CID 21050445 . CS1 maint: multiple names: authors list (link).
  6. ^ Isabelle Гийон Clopinet, Андре Elisseeff (2003). Введение в выбор переменных и функций . Журнал исследований в области машинного обучения, Vol. 3, 1157–1182. Ссылка Архивировано 4 марта 2016 года на Wayback Machine.
  7. ^ Иман Фороутан; Джек Склански (1987). «Выбор функций для автоматической классификации негауссовских данных». IEEE Transactions по системам, человеку и кибернетике . 17 (2): 187–198. DOI : 10.1109 / TSMC.1987.4309029 . S2CID 9871395 . .
  8. ^ Mineichi Kudo; Джек Склански (2000). «Сравнение алгоритмов выбора признаков для классификаторов паттернов». Распознавание образов . 33 (1): 25–41. CiteSeerX 10.1.1.55.1718 . DOI : 10.1016 / S0031-3203 (99) 00041-2 . .
  9. ^ Для линейного дискриминантного анализа вектор параметровсостоит из двух средних векторовиобщей ковариационной матрицы .
  10. ^ Милевски, Роберт; Говиндараджу, Вену (31 марта 2008 г.). «Бинаризация и очистка рукописного текста от копий изображений медицинских форм» . Распознавание образов . 41 (4): 1308–1315. DOI : 10.1016 / j.patcog.2007.08.018 . Архивировано 10 сентября 2020 года . Проверено 26 октября 2011 года .
  11. ^ Саранги, Сусанта; Сахидулла, штат Мэриленд; Саха, Гоутам (сентябрь 2020 г.). «Оптимизация набора фильтров на основе данных для автоматической проверки говорящего». Цифровая обработка сигналов . 104 : 102795. arXiv : 2007.10729 . DOI : 10.1016 / j.dsp.2020.102795 . S2CID 220665533 . 
  12. ^ Ричард О. Дуда , Питер Э. Харт , Дэвид Г. Сторк (2001). Классификация паттернов (2-е изд.). Вили, Нью-Йорк. ISBN 978-0-471-05669-0. Архивировано 19 августа 2020 года . Проверено 26 ноября 2019 .CS1 maint: multiple names: authors list (link)
  13. ^ Р. Брунелли, Методы сопоставления шаблонов в компьютерном зрении: теория и практика , Wiley, ISBN 978-0-470-51706-2 , 2009 
  14. ^ РУКОВОДСТВО ПО АВТОМАТИЧЕСКОМУ РАСПОЗНАВАНИЮ НОМЕРНОЙ ТАБЛИЧКИ Архивировано 20 августа 2006 г. на Wayback Machine http://anpr-tutorial.com/ Архивировано 20 августа 2006 г. на Wayback Machine
  15. ^ Нейронные сети для распознавания лиц Архивированных 2016-03-04 в Вайбаке Machine Companion к главе 4 учебника Machine Learning.
  16. ^ Поддар, Арнаб; Сахидулла, штат Мэриленд; Саха, Гоутам (март 2018 г.). «Подтверждение оратора с помощью коротких высказываний: обзор проблем, тенденций и возможностей» . IET Biometrics . 7 (2): 91–101. DOI : 10,1049 / МТВ-bmt.2017.0065 . Архивировано 3 сентября 2019 года . Проверено 27 августа 2019 .
  17. ^ PAPNET для скрининга шейки матки. Архивировано 8 июля 2012 г. в Archive.today.
  18. ^ «Разработка стратегии управления автономным транспортным средством с использованием одной камеры и глубоких нейронных сетей (Технический документ 2018-01-0035) - SAE Mobilus» . saemobilus.sae.org . Архивировано 6 сентября 2019 года . Проверено 6 сентября 2019 .
  19. ^ Гердес, Дж. Кристиан; Кегельман, Джон С .; Kapania, Nitin R .; Браун, Мэтью; Спилберг, Натан А. (27 марта 2019 г.). «Нейросетевые модели автомобилей для высокопроизводительного автоматизированного вождения» . Наука Робототехника . 4 (28): eaaw1975. DOI : 10.1126 / scirobotics.aaw1975 . ISSN 2470-9476 . PMID 33137751 . S2CID 89616974 .   
  20. ^ Пикеринг, Крис (2017-08-15). «Как ИИ прокладывает путь к полностью автономным автомобилям» . Инженер . Архивировано 6 сентября 2019 года . Проверено 6 сентября 2019 .
  21. ^ Рэй, Байшахи; Яна, Суман; Пей, Кексин; Тиан, Ючи (28.08.2017). «DeepTest: автоматизированное тестирование автономных автомобилей, управляемых глубокими нейронными сетями». arXiv : 1708.08559 . Bibcode : 2017arXiv170808559T . Cite journal requires |journal= (help)
  22. ^ Синха, ПК; Хаджийский, Л.М.; Мутиб, К. (1993-04-01). «Нейронные сети в управлении автономным транспортным средством». Сборники материалов МФБ . 1-й международный семинар МФБ по интеллектуальным автономным транспортным средствам, Хэмпшир, Великобритания, 18–21 апреля. 26 (1): 335–340. DOI : 10.1016 / S1474-6670 (17) 49322-0 . ISSN 1474-6670 . 
  23. ^ "A-level Psychology Attention Revision - Распознавание образов | S-cool, пересмотренный веб-сайт" . S-cool.co.uk. Архивировано 22 июня 2013 года . Проверено 17 сентября 2012 .
  24. ^ Предполагая известную форму распределения пространственных объектов по классам, напримерформу Гаусса .
  25. ^ Нет предположений о распределении по форме распределения объектов по классам.

Дальнейшее чтение [ править ]

  • Фукунага, Кейносуке (1990). Введение в статистическое распознавание образов (2-е изд.). Бостон: Academic Press. ISBN 978-0-12-269851-4.
  • Хорнеггер, Иоахим; Паулюс, Дитрих WR (1999). Прикладное распознавание образов: практическое введение в обработку изображений и речи в C ++ (2-е изд.). Сан-Франциско: Издательство Морган Кауфманн. ISBN 978-3-528-15558-2.
  • Шуэрманн, Юрген (1996). Классификация паттернов: единый взгляд на статистические и нейронные подходы . Нью-Йорк: Вили. ISBN 978-0-471-13534-0.
  • Годфрид Т. Туссен, изд. (1988). Вычислительная морфология . Амстердам: Издательская компания Северной Голландии. ISBN 9781483296722.
  • Куликовский, Казимир А .; Вайс, Шолом М. (1991). Компьютерные системы, которые учатся: методы классификации и прогнозирования на основе статистики, нейронных сетей, машинного обучения и экспертных систем . Машинное обучение. Сан-Франциско: Издательство Морган Кауфманн. ISBN 978-1-55860-065-2.
  • Дуда, Ричард О .; Харт, Питер Э .; Аист, Дэвид Г. (2000). Классификация паттернов (2-е изд.). Wiley-Interscience. ISBN 978-0471056690.
  • Jain, Anil.K .; Duin, Robert.PW; Мао, Цзяньчан (2000). «Статистическое распознавание образов: обзор». IEEE Transactions по анализу шаблонов и машинному анализу . 22 (1): 4–37. CiteSeerX  10.1.1.123.8151 . DOI : 10.1109 / 34.824819 .
  • Вводное руководство по классификаторам (введение основных терминов с числовым примером)

Внешние ссылки [ править ]

  • Международная ассоциация распознавания образов
  • Список веб-сайтов по распознаванию образов
  • Журнал исследований распознавания образов
  • Информация о распознавании образов
  • Распознавание образов (журнал Общества распознавания образов)
  • Международный журнал распознавания образов и искусственного интеллекта
  • Международный журнал прикладного распознавания образов
  • Открытый проект распознавания образов , задуманный как платформа с открытым исходным кодом для обмена алгоритмами распознавания образов.
  • Улучшенное быстрое сопоставление с образцом Улучшенное быстрое сопоставление с образцом