Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Машинное обучение ( ML ) - это изучение компьютерных алгоритмов, которые автоматически улучшаются по мере накопления опыта. [1] Это рассматривается как часть искусственного интеллекта . Алгоритмы машинного обучения создают модель на основе выборочных данных, известных как « обучающие данные », чтобы делать прогнозы или решения, не будучи явно запрограммированными на это. [2] Алгоритмы машинного обучения используются в самых разных приложениях, таких как фильтрация электронной почты и компьютерное зрение , где сложно или невозможно разработать традиционные алгоритмы для выполнения необходимых задач.

Подмножество машинного обучения тесно связано с вычислительной статистикой , которая фокусируется на прогнозировании с использованием компьютеров; но не все машинное обучение - это статистическое обучение. Изучение математической оптимизации предоставляет методы, теорию и прикладные области для машинного обучения. Интеллектуальный анализ данных - это смежная область исследования, в которой основное внимание уделяется исследовательскому анализу данных посредством обучения без учителя . [4] [5] В применении к бизнес-задачам машинное обучение также называется предиктивной аналитикой .

Обзор [ править ]

Машинное обучение предполагает, что компьютеры обнаруживают, как они могут выполнять задачи, не будучи явно запрограммированными на это. Он включает в себя обучение компьютеров на предоставленных данных для выполнения определенных задач. Для простых задач, возложенных на компьютеры, можно запрограммировать алгоритмы, сообщающие машине, как выполнять все шаги, необходимые для решения данной проблемы; со стороны компьютера никакого обучения не требуется. Для более сложных задач человеку может быть сложно вручную создать необходимые алгоритмы. На практике может оказаться более эффективным помочь машине разработать свой собственный алгоритм, чем заставлять программистов указывать каждый необходимый шаг. [6]

Дисциплина машинного обучения использует различные подходы к обучению компьютеров выполнению задач, для которых нет полностью удовлетворительного алгоритма. В случаях, когда существует огромное количество возможных ответов, один из подходов состоит в том, чтобы пометить некоторые из правильных ответов как действительные. Затем их можно использовать в качестве обучающих данных для компьютера, чтобы улучшить алгоритм (ы), который он использует для определения правильных ответов. Например, для обучения системы задаче распознавания цифровых символов часто используется набор рукописных цифр MNIST . [6]

Подходы к машинному обучению [ править ]

Подходы машинного обучения традиционно делятся на три широкие категории в зависимости от характера «сигнала» или «обратной связи», доступного системе обучения:

  • Обучение с учителем: компьютеру представлены примеры входных данных и желаемых выходных данных, данные «учителем», и цель состоит в том, чтобы усвоить общее правило, которое сопоставляет входные данные с выходными.
  • Неконтролируемое обучение : алгоритму обучения не присваиваются ярлыки, и он сам должен находить структуру во входных данных. Обучение без учителя может быть самоцелью (обнаружение скрытых закономерностей в данных) или средством достижения цели ( обучение особенностям ).
  • Обучение с подкреплением : компьютерная программа взаимодействует с динамической средой, в которой она должна выполнять определенную цель (например, управлять транспортным средством или играть в игру с противником). В процессе навигации по проблемному пространству программа получает обратную связь, аналогичную вознаграждениям, которые она пытается максимизировать. [3]

Были разработаны другие подходы, которые не вписываются в эту тройную категоризацию, и иногда в одной и той же системе машинного обучения используется более одного. Например, тематическое моделирование , уменьшение размерности или метаобучение . [7]

По состоянию на 2020 год глубокое обучение стало доминирующим подходом для продолжающейся работы в области машинного обучения. [6]

История и отношения с другими полями [ править ]

Термин машинное обучение был придуман в 1959 году Артуром Самуэлем , американским сотрудником IBM и пионером в области компьютерных игр и искусственного интеллекта . [8] [9] Репрезентативной книгой исследований машинного обучения в 1960-х годах была книга Нильссона об обучающих машинах, посвященная в основном машинному обучению для классификации шаблонов. [10] Интерес, связанный с распознаванием образов, сохранялся и в 1970-х годах, как описано Дудой и Хартом в 1973 году. [11]В 1981 году был представлен отчет об использовании обучающих стратегий, согласно которым нейронная сеть учится распознавать 40 символов (26 букв, 10 цифр и 4 специальных символа) с компьютерного терминала. [12]

Том М. Митчелл дал широко цитируемое, более формальное определение алгоритмов, изучаемых в области машинного обучения: «Считается, что компьютерная программа учится на опыте E в отношении некоторого класса задач T и показателя производительности P, если ее производительность при выполнении задач в T , измеряемом P , улучшается с опытом E ". [13] Это определение задач, связанных с машинным обучением, предлагает принципиально рабочее определение, а не определение области в когнитивных терминах. Это следует за предложением Алана Тьюринга в его статье « Вычислительные машины и интеллект.», в котором вопрос« Могут ли машины думать? »заменен вопросом« Могут ли машины делать то, что мы (как мыслящие сущности) можем? » [14]

Современное машинное обучение преследует две цели: одна - классифицировать данные на основе разработанных моделей, другая - делать прогнозы будущих результатов на основе этих моделей. Гипотетический алгоритм, специфичный для классификации данных, может использовать компьютерное зрение родинок в сочетании с контролируемым обучением, чтобы обучить его классифицировать раковые родинки. Где как, алгоритм машинного обучения для торговли акциями может информировать трейдера о будущих потенциальных прогнозах. [15]

Искусственный интеллект [ править ]

Машинное обучение как подполе ИИ [16]
Часть машинного обучения как подполе ИИ или часть ИИ как подполе машинного обучения [17]

Как научное направление машинное обучение выросло из поисков искусственного интеллекта. На заре искусственного интеллекта как академической дисциплины некоторые исследователи были заинтересованы в том, чтобы машины учились на данных. Они пытались подойти к проблеме с помощью различных символических методов, а также того, что тогда называлось « нейронными сетями »; в основном это были перцептроны и другие модели , которые позже были обнаружены как переизобретения обобщенных линейных моделей статистики. [18] Вероятностные рассуждения также использовались, особенно в автоматизированной медицинской диагностике . [19] : 488

Однако усиление акцента на логическом подходе, основанном на знаниях, привело к разрыву между ИИ и машинным обучением. Вероятностные системы страдали от теоретических и практических проблем сбора и представления данных. [19] : 488 К 1980 году экспертные системы стали доминировать над ИИ, и статистика перестала быть популярной. [20] Работа над символическим / основанным на знаниях обучением продолжалась в рамках ИИ, что привело к индуктивному логическому программированию , но более статистические исследования теперь выходили за рамки собственно ИИ, в области распознавания образов и поиска информации . [19] : 708–710; 755ИИ и информатика отказались от исследований нейронных сетей примерно в то же время. Эта линия также была продолжена за пределами области AI / CS как « коннекционизм » исследователями из других дисциплин, включая Хопфилда , Румелхарта и Хинтона . Их главный успех пришел к середине 1980-х годов, когда был изобретен метод обратного распространения ошибки . [19] : 25

Машинное обучение (ML), реорганизованное в отдельную область, начало процветать в 1990-х годах. Область изменила свою цель с создания искусственного интеллекта на решение решаемых проблем практического характера. Он сместил акцент с символических подходов, унаследованных от ИИ, на методы и модели, заимствованные из статистики и теории вероятностей . [20]

По состоянию на 2020 год многие источники продолжают утверждать, что машинное обучение остается под областью ИИ. [21] [22] [16] Основное разногласие заключается в том, является ли весь ML частью AI, поскольку это будет означать, что любой, кто использует ML, может утверждать, что он использует AI. Другие считают, что не весь ML является частью AI [23] [24] [25], где только «интеллектуальное» подмножество ML является частью AI. [26]

На вопрос, в чем разница между ML и AI, отвечает Джудея Перл в книге «Почему» . [27] Соответственно, ML учится и прогнозирует на основе пассивных наблюдений, тогда как AI подразумевает, что агент взаимодействует с окружающей средой, чтобы учиться и предпринимать действия, которые увеличивают его шансы на успешное достижение своих целей. [30]

Интеллектуальный анализ данных [ править ]

В машинном обучении и интеллектуальном анализе данных часто используются одни и те же методы и они значительно перекрываются, но в то время как машинное обучение фокусируется на прогнозировании, основанном на известных свойствах, полученных из обучающих данных, интеллектуальный анализ данных фокусируется на обнаружении (ранее) неизвестных свойств в данных (это этап анализа открытия знанийв базах данных). В интеллектуальном анализе данных используется множество методов машинного обучения, но с разными целями; с другой стороны, машинное обучение также использует методы интеллектуального анализа данных как «обучение без учителя» или как этап предварительной обработки для повышения точности обучения. Большая часть путаницы между этими двумя исследовательскими сообществами (у которых часто есть отдельные конференции и отдельные журналы, за исключением ECML PKDD ) происходит из-за основных допущений, с которыми они работают: в машинном обучении производительность обычно оценивается с точки зрения способности воспроизводить известные знания, в то время как при обнаружении знаний и интеллектуальном анализе данных (KDD) ключевой задачей является обнаружение ранее неизвестныхзнание. Неинформированный (неконтролируемый) метод, оцениваемый на основе известных знаний, будет легко уступать другим контролируемым методам, в то время как в типичной задаче KDD контролируемые методы не могут использоваться из-за недоступности обучающих данных.

Оптимизация [ править ]

Машинное обучение также тесно связано с оптимизацией : многие задачи обучения формулируются как минимизация некоторой функции потерь на обучающем наборе примеров. Функции потерь выражают несоответствие между прогнозами обучаемой модели и фактическими экземплярами проблемы (например, при классификации нужно присвоить экземплярам метку, а модели обучены правильно предсказывать заранее назначенные метки набора Примеры). [31]

Обобщение [ править ]

Разница между оптимизацией и машинным обучением проистекает из цели обобщения: в то время как алгоритмы оптимизации могут минимизировать потери на обучающем наборе, машинное обучение связано с минимизацией потерь на невидимых выборках. Характеристика обобщения различных алгоритмов обучения является активной темой текущих исследований, особенно для алгоритмов глубокого обучения .

Статистика [ править ]

Машинное обучение и статистика - тесно связанные области с точки зрения методов, но разные по своей основной цели: статистика делает выводы о населении на основе выборки , а машинное обучение находит обобщаемые модели прогнозирования. [32] По словам Майкла И. Джордана , идеи машинного обучения, от методологических принципов до теоретических инструментов, имеют долгую предысторию в статистике. [33] Он также предложил термин « наука о данных» в качестве заполнителя для обозначения общего поля. [33]

Лео Брейман выделил две парадигмы статистического моделирования: модель данных и алгоритмическую модель [34], где «алгоритмическая модель» в большей или меньшей степени означает алгоритмы машинного обучения, такие как случайный лес .

Некоторые статистики переняли методы машинного обучения, что привело к созданию комбинированной области, которую они называют статистическим обучением . [35]

Теория [ править ]

Основная цель учащегося - обобщить свой опыт. [3] [36] Обобщение в этом контексте - это способность обучающейся машины точно выполнять новые, невидимые примеры / задачи после изучения набора обучающих данных. Примеры обучения исходят из некоторого, как правило, неизвестного распределения вероятностей (которое считается репрезентативным для пространства вхождений), и учащийся должен построить общую модель этого пространства, которая позволяет ему производить достаточно точные прогнозы в новых случаях.

Вычислительный анализ алгоритмов машинного обучения и их производительности - это раздел теоретической информатики, известный как теория вычислительного обучения . Поскольку обучающие наборы конечны, а будущее неопределенно, теория обучения обычно не дает гарантий производительности алгоритмов. Вместо этого довольно распространены вероятностные границы производительности. Разложение диагонально-дисперсия является одним из способов количественного обобщения ошибки .

Для лучшей производительности в контексте обобщения сложность гипотезы должна соответствовать сложности функции, лежащей в основе данных. Если гипотеза менее сложна, чем функция, то модель не соответствует данным. Если сложность модели увеличивается в ответ, то ошибка обучения уменьшается. Но если гипотеза слишком сложна, то модель подвержена переобучению, и обобщение будет хуже. [37]

Помимо пределов производительности, теоретики обучения изучают временную сложность и осуществимость обучения. В теории вычислительного обучения вычисление считается выполнимым, если оно может быть выполнено за полиномиальное время . Есть два вида результатов временной сложности . Положительные результаты показывают, что определенный класс функций можно изучить за полиномиальное время. Отрицательные результаты показывают, что некоторые классы нельзя изучить за полиномиальное время.

Подходы [ править ]

Типы алгоритмов обучения [ править ]

Типы алгоритмов машинного обучения различаются по своему подходу, типу данных, которые они вводят и выводят, и типу задачи или проблемы, для решения которых они предназначены.

Обучение с учителем [ править ]

Опорных векторы Контролируемая модель обучения , которая делит данные в регионы разделены линейной границей . Здесь линейная граница отделяет черные кружки от белых.

Алгоритмы контролируемого обучения создают математическую модель набора данных, который содержит как входные, так и желаемые выходы. [38] Данные известны как обучающие данные и состоят из набора обучающих примеров. Каждый обучающий пример имеет один или несколько входов и желаемый выход, также известный как контрольный сигнал. В математической модели каждый обучающий пример представлен массивом или вектором, иногда называемым вектором признаков, а обучающие данные представлены матрицей . С помощью итеративной оптимизации в качестве целевой функции , охраняемого обучение алгоритмов обучения функции , которые могут быть использованы для прогнозирования выхода , связанный с новыми входами. [39]Оптимальная функция позволит алгоритму правильно определять выходные данные для входных данных, которые не были частью обучающих данных. Говорят, что алгоритм, который со временем повышает точность своих результатов или прогнозов, научился выполнять эту задачу. [13]

Типы алгоритмов контролируемого обучения включают активное обучение , классификацию и регрессию . [40] Алгоритмы классификации используются, когда выходные данные ограничены ограниченным набором значений, а алгоритмы регрессии используются, когда выходы могут иметь любое числовое значение в пределах диапазона. Например, для алгоритма классификации, который фильтрует электронные письма, входом будет входящее электронное письмо, а выходом будет имя папки, в которую будет сохранено электронное письмо.

Изучение подобия - это область машинного обучения с учителем, тесно связанная с регрессией и классификацией, но цель состоит в том, чтобы учиться на примерах с использованием функции подобия, которая измеряет, насколько похожи или связаны два объекта. У него есть приложения для ранжирования , системы рекомендаций , визуального отслеживания личности, проверки лица и проверки говорящего.

Обучение без учителя [ править ]

Алгоритмы неконтролируемого обучения берут набор данных, который содержит только входные данные, и находят в них структуру, например группировку или кластеризацию точек данных. Следовательно, алгоритмы учатся на тестовых данных, которые не были помечены, классифицированы или категоризированы. Вместо того, чтобы реагировать на обратную связь, алгоритмы неконтролируемого обучения выявляют общие черты в данных и реагируют на наличие или отсутствие таких общих черт в каждой новой части данных. Центральное применение обучения без учителя - это оценка плотности в статистике , например, определение функции плотности вероятности . [41] Хотя обучение без учителя охватывает и другие области, включающие обобщение и объяснение характеристик данных.

Кластерный анализ - это распределение набора наблюдений в подмножества (называемые кластерами ), так что наблюдения в одном кластере похожи по одному или нескольким заранее заданным критериям, в то время как наблюдения, полученные из разных кластеров, не похожи. Различные методы кластеризации делают разные предположения о структуре данных, часто определяемой некоторой метрикой сходства и оцениваемой, например, по внутренней компактности или сходству между членами одного и того же кластера, а разделение - разницей между кластерами. Другие методы основаны на предполагаемой плотности и связности графов .

Полу-контролируемое обучение [ править ]

Полу-контролируемое обучение находится между неконтролируемым обучением (без каких-либо помеченных данных обучения) и контролируемым обучением (с полностью маркированными данными обучения). В некоторых обучающих примерах отсутствуют обучающие метки, но многие исследователи машинного обучения обнаружили, что немаркированные данные при использовании вместе с небольшим количеством помеченных данных могут значительно повысить точность обучения.

При обучении со слабым учителем ярлыки обучения шумные, ограниченные или неточные; однако эти метки часто дешевле получить, что приводит к более эффективным обучающим выборкам. [42]

Обучение с подкреплением [ править ]

Обучение с подкреплением является областью машинного обучения касается того , как программное обеспечение , агенты должны принимать меры в среде так, чтобы максимизировать некоторое представление о совокупной награды. Благодаря своей общности, поле изучаются во многих других областях, такие , как теория игр , теория управления , исследование операций , теория информации , моделирование на основе оптимизация , многоагентные системы , роя интеллект , статистика и генетические алгоритмы . В машинном обучении среда обычно представлена ​​в виде марковского процесса принятия решений.(MDP). Многие алгоритмы обучения с подкреплением используют методы динамического программирования . [43] Алгоритмы обучения с подкреплением не предполагают знания точной математической модели MDP и используются, когда точные модели невозможны. Алгоритмы обучения с подкреплением используются в автономных транспортных средствах или при обучении игре против человеческого противника.

Самообучение [ править ]

Самообучение как парадигма машинного обучения была представлена ​​в 1982 году вместе с нейронной сетью, способной к самообучению, названной поперечным адаптивным массивом (CAA). [44] Это обучение без внешнего вознаграждения и без совета внешнего учителя. Алгоритм самообучения CAA перекрестным образом вычисляет как решения о действиях, так и эмоции (чувства) в отношении последствий ситуаций. Система управляется взаимодействием познания и эмоций. [45] Алгоритм самообучения обновляет матрицу памяти W = || w (a, s) || таким образом, что на каждой итерации выполняется следующая процедура машинного обучения:

 В ситуации s выполнить действие a; Получите последствие ситуации s '; Вычислить эмоцию пребывания в последующей ситуации v (s '); Обновить память перекладины w '(a, s) = w (a, s) + v (s').

Это система только с одним входом, ситуацией s и только одним выходом, действием (или поведением) a. Нет ни отдельного подкрепления, ни совета из среды. Ценность обратного распространения (вторичное подкрепление) - это эмоция по отношению к ситуации последствий. CAA существует в двух средах: одна - это поведенческая среда, в которой он ведет себя, а другая - генетическая среда, откуда он изначально и только один раз получает начальные эмоции по поводу ситуаций, с которыми он может столкнуться в поведенческой среде. После получения вектора генома (видов) из генетической среды CAA обучается целенаправленному поведению в среде, которая содержит как желательные, так и нежелательные ситуации. [46]

Особенности обучения [ править ]

Несколько алгоритмов обучения направлены на обнаружение лучшего представления входных данных, предоставляемых во время обучения. [47] Классические примеры включают анализ основных компонентов и кластерный анализ. Алгоритмы изучения функций, также называемые алгоритмами обучения представлению, часто пытаются сохранить информацию во входных данных, но также преобразовать ее таким образом, чтобы сделать ее полезной, часто в качестве этапа предварительной обработки перед выполнением классификации или прогнозирования. Этот метод позволяет реконструировать входные данные, поступающие из неизвестного распределения, генерирующего данные, при этом не обязательно сохраняя верность конфигурациям, которые неправдоподобны для этого распределения. Это заменяет ручную разработку функций, и позволяет машине как изучать функции, так и использовать их для выполнения определенной задачи.

Изучение функций может быть контролируемым или неконтролируемым. При обучении с учителем функции изучаются с использованием помеченных входных данных. Примеры включают искусственные нейронные сети , многослойные персептроны и контролируемое изучение словаря . При неконтролируемом обучении функций функции изучаются с немаркированными входными данными. Примеры включают изучение словаря, анализ независимых компонентов , автоэнкодеры , матричную факторизацию [48] и различные формы кластеризации . [49] [50] [51]

Алгоритмы обучения многообразию пытаются сделать это при ограничении, заключающемся в том, что изученное представление является низкоразмерным. Алгоритмы разреженного кодирования пытаются сделать это при том ограничении, что изученное представление является разреженным, что означает, что математическая модель имеет много нулей. Алгоритмы обучения мультилинейных подпространств нацелены на изучение низкоразмерных представлений непосредственно из тензорных представлений многомерных данных без преобразования их в многомерные векторы. [52] Глубокое обучениеалгоритмы обнаруживают несколько уровней представления или иерархию функций с более высокоуровневыми, более абстрактными функциями, определенными в терминах (или генерирующих) функций более низкого уровня. Утверждалось, что интеллектуальная машина - это машина, которая изучает представление, которое выделяет основные факторы вариации, объясняющие наблюдаемые данные. [53]

Функциональное обучение мотивировано тем фактом, что задачи машинного обучения, такие как классификация, часто требуют ввода, который математически и вычислительно удобно обрабатывать. Однако реальные данные, такие как изображения, видео и сенсорные данные, не поддались попыткам алгоритмического определения конкретных характеристик. Альтернативой является тщательное изучение таких функций или представлений, не полагаясь на явные алгоритмы.

Скудное изучение словаря [ править ]

Изучение разреженного словаря - это метод обучения функции, в котором обучающий пример представлен как линейная комбинация базисных функций и считается разреженной матрицей . Этот метод является NP-трудным и трудным для приближенного решения. [54] Популярным эвристическим методом для быстрого изучения словаря является K-SVD.алгоритм. Редкое изучение словаря применялось в нескольких контекстах. При классификации проблема состоит в том, чтобы определить класс, к которому принадлежит ранее невидимый обучающий пример. Для словаря, в котором каждый класс уже создан, новый обучающий пример связан с классом, который лучше всего редко представлен соответствующим словарем. Редкое изучение словаря также применяется для уменьшения шума изображений . Ключевая идея состоит в том, что чистый фрагмент изображения может быть редко представлен словарем изображений, а шум - нет. [55]

Обнаружение аномалий [ править ]

В интеллектуальном анализе данных обнаружение аномалий, также известное как обнаружение выбросов, представляет собой идентификацию редких элементов, событий или наблюдений, вызывающих подозрения, поскольку они значительно отличаются от большинства данных. [56] Обычно аномальные элементы представляют собой такие проблемы, как банковское мошенничество , структурный дефект, медицинские проблемы или ошибки в тексте. Аномалии называются выбросами , новинками, шумом, отклонениями и исключениями. [57]

В частности, в контексте обнаружения злоупотреблений и сетевых вторжений интересными объектами часто являются не редкие объекты, а неожиданные всплески бездействия. Этот шаблон не соответствует общему статистическому определению выброса как редкого объекта, и многие методы обнаружения выбросов (в частности, неконтролируемые алгоритмы) не работают с такими данными, если они не были агрегированы надлежащим образом. Вместо этого алгоритм кластерного анализа может обнаруживать микрокластеры, образованные этими шаблонами. [58]

Существуют три широкие категории методов обнаружения аномалий. [59] Неконтролируемые методы обнаружения аномалий обнаруживают аномалии в немаркированном наборе тестовых данных в предположении, что большинство экземпляров в наборе данных являются нормальными, путем поиска экземпляров, которые кажутся наименее подходящими для остальной части набора данных. Для контролируемых методов обнаружения аномалий требуется набор данных, который был помечен как «нормальный» и «ненормальный», и включает обучение классификатора (ключевым отличием от многих других задач статистической классификации является несбалансированный характер обнаружения выбросов). Методы полууправляемого обнаружения аномалий создают модель, представляющую нормальное поведение из заданного набора данных для нормального обучения, а затем проверяют вероятность того, что модель будет сгенерирована тестовым экземпляром.

Обучение роботов [ править ]

В робототехнике развития , робот обучения алгоритмы генерируют свои собственные последовательности опыта обучения, также известный как учебный план, чтобы совокупно приобретать новые навыки через самонаводящиеся разведки и социальное взаимодействие с людьми. Эти роботы используют такие механизмы наведения, как активное обучение, созревание, моторная синергия и имитация.

Правила ассоциации [ править ]

Обучение правилам ассоциации - это основанный на правилах метод машинного обучения для обнаружения взаимосвязей между переменными в больших базах данных. Он предназначен для выявления строгих правил, обнаруженных в базах данных, с использованием некоторой степени «интересности». [60]

Машинное обучение на основе правил - это общий термин для любого метода машинного обучения, который определяет, изучает или развивает «правила» для хранения, манипулирования или применения знаний. Определяющей характеристикой алгоритма машинного обучения на основе правил является идентификация и использование набора реляционных правил, которые в совокупности представляют знания, полученные системой. Это контрастирует с другими алгоритмами машинного обучения, которые обычно определяют особую модель, которую можно универсально применить к любому экземпляру, чтобы сделать прогноз. [61] Основанные на правилах подходы к машинному обучению включают обучающие системы классификаторов , обучение ассоциативным правилам и искусственные иммунные системы .

Основываясь на концепции строгих правил, Ракеш Агравал , Томаш Имелински и Арун Свами ввели правила ассоциации для выявления закономерностей между продуктами в данных крупномасштабных транзакций, регистрируемых системами точек продаж (POS) в супермаркетах. [62] Например, правило, обнаруженное в данных о продажах супермаркета, указывает на то, что, если покупатель покупает лук и картофель вместе, он, вероятно, также купит мясо для гамбургеров. Такая информация может использоваться в качестве основы для принятия решений о маркетинговых мероприятиях, таких как рекламные цены или размещение продуктов . В дополнение к анализу корзины, ассоциативные правила используются сегодня в областях приложений, включая интеллектуальный анализ использования Интернета , обнаружение вторжений , непрерывное производство и биоинформатику . В отличие от анализа последовательности , изучение ассоциативных правил обычно не учитывает порядок элементов ни внутри транзакции, ни между транзакциями.

Изучение системы классификаторов (ЛВП) представляют собой семейство алгоритмов машинного обучения на основе правил , которые сочетают в себе компонент обнаружения, как правило , в генетический алгоритм , с компонентом обучения, выполняя либо под наблюдением обучения , обучения с подкреплением , или неконтролируемого обучения . Они стремятся идентифицировать набор контекстно-зависимых правил, которые коллективно хранят и применяют знания по частям , чтобы делать прогнозы. [63]

Индуктивное логическое программирование (ILP) - это подход к изучению правил с использованием логического программирования в качестве унифицированного представления для входных примеров, базовых знаний и гипотез. С учетом кодирования известных фоновых знаний и набора примеров, представленных в виде логической базы данных фактов, система ILP выведет гипотетическую логическую программу, которая влечет за собой все положительные и никакие отрицательные примеры. Индуктивное программирование - это связанная область, которая рассматривает любой язык программирования для представления гипотез (а не только логическое программирование), например функциональные программы .

Индуктивное логическое программирование особенно полезно в биоинформатике и обработке естественного языка . Гордон Плоткин и Эхуд Шапиро заложили первоначальную теоретическую основу для индуктивного машинного обучения в логической среде. [64] [65] [66] Шапиро построил свою первую реализацию (систему вывода моделей) в 1981 году: программу на языке Prolog, которая индуктивно выводила логические программы из положительных и отрицательных примеров. [67] Термин индуктивный здесь относится к философской индукции, предлагая теорию для объяснения наблюдаемых фактов, а не математическую индукцию., доказывая свойство для всех членов упорядоченного множества.

Модели [ править ]

Выполнение машинного обучения включает в себя создание модели , которая обучается на некоторых обучающих данных, а затем может обрабатывать дополнительные данные для прогнозирования. Для систем машинного обучения использовались и исследовались различные типы моделей.

Искусственные нейронные сети [ править ]

Искусственная нейронная сеть - это взаимосвязанная группа узлов, подобная обширной сети нейронов в головном мозге . Здесь каждый круговой узел представляет собой искусственный нейрон, а стрелка представляет собой соединение между выходом одного искусственного нейрона и входом другого.

Искусственные нейронные сети (ИНС) или коннекционистские системы - это вычислительные системы, смутно вдохновленные биологическими нейронными сетями, которые составляют мозг животных . Такие системы «учатся» выполнять задачи, рассматривая примеры, как правило, без программирования каких-либо правил для конкретных задач.

ИНС - это модель, основанная на наборе связанных блоков или узлов, называемых « искусственными нейронами », которые в общих чертах моделируют нейроны в биологическом мозге . Каждое соединение, как синапсы в биологическом мозге , может передавать информацию, «сигнал», от одного искусственного нейрона к другому. Искусственный нейрон, который получает сигнал, может обработать его, а затем передать сигнал дополнительным искусственным нейронам, подключенным к нему. В обычных реализациях ИНС сигнал на соединении между искусственными нейронами представляет собой действительное число., а выходной сигнал каждого искусственного нейрона вычисляется некоторой нелинейной функцией суммы его входов. Связи между искусственными нейронами называются «ребрами». Искусственные нейроны и ребра обычно имеют вес, который корректируется по мере обучения. Вес увеличивает или уменьшает силу сигнала в соединении. Искусственные нейроны могут иметь такой порог, что сигнал отправляется только в том случае, если совокупный сигнал пересекает этот порог. Обычно искусственные нейроны объединены в слои. Разные слои могут выполнять разные виды преобразований на своих входах. Сигналы проходят от первого слоя (входной) к последнему (выходному), возможно, после многократного прохождения слоев.

Первоначальная цель подхода ИНС заключалась в том, чтобы решать проблемы так же, как это делает человеческий мозг . Однако со временем внимание переключилось на выполнение конкретных задач, что привело к отклонениям от биологии . Искусственные нейронные сети использовались для решения множества задач, включая компьютерное зрение , распознавание речи , машинный перевод , фильтрацию социальных сетей , настольные игры и видеоигры, а также медицинскую диагностику .

Глубокое обучение состоит из нескольких скрытых слоев в искусственной нейронной сети. Этот подход пытается смоделировать способ, которым человеческий мозг обрабатывает свет и звук, превращая их в зрение и слух. Некоторые успешные применения глубокого обучения - это компьютерное зрение и распознавание речи . [68]

Деревья решений [ править ]

При обучении по дереву решений дерево решений используется в качестве модели прогнозирования для перехода от наблюдений за элементом (представленных в ветвях) к выводам о целевом значении элемента (представленных в листьях). Это один из подходов к прогнозному моделированию, используемых в статистике, интеллектуальном анализе данных и машинном обучении. Модели деревьев, в которых целевая переменная может принимать дискретный набор значений, называются деревьями классификации; в этих древовидных структурах листья представляют метки классов, а ветви представляют соединения функций, которые ведут к этим меткам классов. Деревья решений, в которых целевая переменная может принимать непрерывные значения (обычно действительные числа) называются деревьями регрессии. При анализе решений дерево решений может использоваться для визуального и явного представления решений и принятия решений . При интеллектуальном анализе данных дерево решений описывает данные, но результирующее дерево классификации может быть входом для принятия решения.

Поддержка векторных машин [ править ]

Машины опорных векторов (SVM), также известные как сети опорных векторов, представляют собой набор связанных контролируемых методов обучения, используемых для классификации и регрессии. С учетом набора обучающих примеров, каждый из которых помечен как принадлежащий к одной из двух категорий, алгоритм обучения SVM строит модель, которая предсказывает, попадает ли новый пример в ту или иную категорию. [69] алгоритм обучения СВМ является не- вероятностного , двоичный , линейный классификатор , хотя методы , таких как масштабирование Platt существует для использования SVM в вероятностной настройке классификации. Помимо выполнения линейной классификации, SVM могут эффективно выполнять нелинейную классификацию, используя то, что называетсятрюк с ядром , неявно отображающий их входные данные в многомерные пространства функций.

Иллюстрация линейной регрессии на наборе данных.

Регрессионный анализ [ править ]

Регрессионный анализ включает в себя большое количество статистических методов для оценки взаимосвязи между входными переменными и связанными с ними характеристиками. Наиболее распространенной формой является линейная регрессия , когда рисуется одна линия, которая наилучшим образом соответствует заданным данным в соответствии с математическим критерием, таким как обычный метод наименьших квадратов . Последний часто расширяется с помощью методов регуляризации (математики) для смягчения переобучения и смещения, как в регрессии гребня . При решении нелинейных задач модели перехода включают полиномиальную регрессию (например, используемую для подбора линии тренда в Microsoft Excel [70] ), логистическую регрессию (часто используемую встатистическая классификация ) или даже ядерной регрессии , которая вводит нелинейность за счет использования уловки ядра для неявного отображения входных переменных в многомерное пространство.

Байесовские сети [ править ]

Простая байесовская сеть. Дождь влияет на включение дождевателя, а дождь и дождеватель влияют на то, будет ли трава влажной.

Байесовская сеть, сеть убеждений или направленная ациклическая графическая модель - это вероятностная графическая модель, которая представляет набор случайных величин и их условную независимость с направленным ациклическим графом (DAG). Например, байесовская сеть может представлять вероятностные отношения между болезнями и симптомами. Учитывая симптомы, сеть может использоваться для вычисления вероятности наличия различных заболеваний. Существуют эффективные алгоритмы, выполняющие вывод и обучение. Байесовские сети, моделирующие последовательности переменных, таких как речевые сигналы или белковые последовательности , называются динамическими байесовскими сетями.. Обобщения байесовских сетей, которые могут представлять и решать проблемы принятия решений в условиях неопределенности, называются диаграммами влияния .

Генетические алгоритмы [ править ]

Генетический алгоритм (ГА) - это алгоритм поиска и эвристический метод, который имитирует процесс естественного отбора , используя такие методы, как мутация и кроссовер, для создания новых генотипов в надежде найти хорошие решения данной проблемы. В машинном обучении генетические алгоритмы использовались в 1980-х и 1990-х годах. [71] [72] И наоборот, методы машинного обучения использовались для повышения производительности генетических и эволюционных алгоритмов . [73]

Тренировочные модели [ править ]

Обычно для хорошей работы модели машинного обучения требуют большого количества данных. Обычно при обучении модели машинного обучения необходимо собрать большую репрезентативную выборку данных из обучающей выборки. Данные из обучающего набора могут быть такими же разнообразными, как корпус текста, набор изображений и данные, собранные от отдельных пользователей службы. При обучении модели машинного обучения следует остерегаться переобучения. Обученные модели, полученные на основе предвзятых данных, могут приводить к искаженным или нежелательным прогнозам. Алгоритмическая ошибка - это потенциальный результат не полностью подготовленных данных для обучения.

Федеративное обучение [ править ]

Федеративное обучение - это адаптированная форма распределенного искусственного интеллекта для обучения моделей машинного обучения, которая децентрализует процесс обучения, позволяя поддерживать конфиденциальность пользователей, не отправляя их данные на централизованный сервер. Это также увеличивает эффективность за счет децентрализации процесса обучения на многих устройствах. Например, Gboard использует федеративное машинное обучение для обучения моделей прогнозирования поисковых запросов на мобильных телефонах пользователей без необходимости отправлять отдельные поисковые запросы обратно в Google . [74]

Приложения [ править ]

Есть много приложений для машинного обучения, в том числе:

  • сельское хозяйство
  • Анатомия
  • Адаптивные сайты
  • Аффективные вычисления
  • Банковское дело
  • Биоинформатика
  • Мозг-машинные интерфейсы
  • Хеминформатика
  • Гражданская наука
  • Компьютерная сеть
  • Компьютерное зрение
  • Обнаружение мошенничества с кредитными картами
  • Качество данных
  • Классификация последовательностей ДНК
  • Экономика
  • Анализ финансового рынка [75]
  • Общая игра
  • Распознавание почерка
  • Поиск информации
  • Страхование
  • Обнаружение интернет-мошенничества
  • Лингвистика
  • Управление машинным обучением
  • Машинное восприятие
  • Машинный перевод
  • Маркетинг
  • Медицинский диагноз
  • Обработка естественного языка
  • Понимание естественного языка
  • Он-лайн реклама
  • Оптимизация
  • Рекомендательные системы
  • Передвижение робота
  • Поисковые системы
  • Анализ настроений
  • Последовательный майнинг
  • Программная инженерия
  • Распознавание речи
  • Структурный мониторинг здоровья
  • Распознавание синтаксических образов
  • Телекоммуникации
  • Доказательство теорем
  • Прогнозирование временных рядов
  • Аналитика поведения пользователей

В 2006 году поставщик медиа-услуг Netflix провел первый конкурс « Netflix Prize », чтобы найти программу, которая лучше прогнозирует предпочтения пользователей и повышает точность существующего алгоритма рекомендаций фильмов Cinematch как минимум на 10%. Совместная команда, состоящая из исследователей из AT&T Labs -Research в сотрудничестве с командами Big Chaos и Pragmatic Theory, построила ансамблевую модель, чтобы выиграть Гран-при в 2009 году за 1 миллион долларов. [76] Вскоре после присуждения приза Netflix осознал, что рейтинги зрителей не являются лучшими показателями их моделей просмотра («все является рекомендацией»), и соответствующим образом изменили свой механизм рекомендаций. [77]В 2010 году The Wall Street Journal писала о компании Rebellion Research и их использовании машинного обучения для прогнозирования финансового кризиса. [78] В 2012 году один из основателей Sun Microsystems , Винод Косла , предсказал , что 80% рабочих мест медицинских врачей будут потеряны в течение следующих двух десятилетий в автоматизированной машине обучения медицинского диагностического программного обеспечения. [79] В 2014 году сообщалось, что алгоритм машинного обучения был применен в области истории искусства для изучения картин изобразительного искусства и что он, возможно, выявил ранее не признанное влияние среди художников. [80] В 2019 году Springer Nature опубликовала первую исследовательскую книгу, созданную с помощью машинного обучения. [81]

Ограничения [ править ]

Хотя машинное обучение способствовало преобразованию в некоторых областях, программы машинного обучения часто не дают ожидаемых результатов. [82] [83] [84] Причин тому множество: отсутствие (подходящих) данных, отсутствие доступа к данным, предвзятость данных, проблемы с конфиденциальностью, плохо выбранные задачи и алгоритмы, неправильные инструменты и люди, нехватка ресурсов, и проблемы оценки. [85]

В 2018 году беспилотный автомобиль Uber не смог обнаружить пешехода, который погиб в результате столкновения. [86] Попытки использовать машинное обучение в здравоохранении с системой IBM Watson не увенчались успехом даже после многих лет и миллиардов вложенных долларов. [87] [88]

Машинное обучение использовалось в качестве стратегии для обновления данных, связанных с систематическим обзором, и увеличения нагрузки на рецензентов, связанной с ростом биомедицинской литературы. Хотя он улучшился с помощью обучающих наборов, он еще недостаточно развит, чтобы снизить нагрузку на рабочую нагрузку без ограничения необходимой чувствительности для самих исследований результатов. [89]

Предвзятость [ править ]

В частности, подходы к машинному обучению могут страдать от различных искажений данных. Система машинного обучения, обученная только текущим клиентам, может быть не в состоянии предсказать потребности новых групп клиентов, которые не представлены в данных обучения. При обучении на данных, созданных человеком, машинное обучение может уловить те же конституционные и бессознательные предубеждения, которые уже присутствуют в обществе. [90] Было показано, что языковые модели, полученные на основе данных, содержат человеческие предубеждения. [91] [92] Было обнаружено, что системы машинного обучения, используемые для оценки криминального риска, предвзято относятся к чернокожим. [93] [94] В 2015 году Google Фото часто помечали чернокожих людей как горилл, [95]и в 2018 году это все еще не было решено должным образом, но, как сообщается, Google все еще использовал обходной путь для удаления всех горилл из данных обучения и, таким образом, вообще не мог распознать настоящих горилл. [96] Подобные проблемы с распознаванием небелых людей были обнаружены во многих других системах. [97] В 2016 году Microsoft протестировала чат-бота, который учился на Twitter, и быстро освоил расистские и сексистские выражения. [98] Из-за таких проблем эффективное использование машинного обучения может занять больше времени, чтобы внедрить его в других областях. [99] Забота о справедливостив машинном обучении, то есть уменьшение предвзятости в машинном обучении и продвижение его использования на благо человека, все чаще выражается учеными искусственного интеллекта, в том числе Фей-Фей Ли , который напоминает инженерам, что «в ИИ нет ничего искусственного ... Он вдохновлен людьми , он создается людьми и, что наиболее важно, влияет на людей. Это мощный инструмент, который мы только начинаем понимать, и это огромная ответственность ». [100]

Оценка модели [ править ]

Классификация моделей машинного обучения может быть подтверждена с помощью методов оценки точности, таких как метод удержания , который разделяет данные на обучающий и тестовый набор (обычно 2/3 обучающего набора и 1/3 обозначения набора тестов) и оценивает производительность обучающей модели. на тестовом наборе. Для сравнения, метод K-кратной перекрестной проверки случайным образом разбивает данные на K подмножеств, а затем выполняется K экспериментов, каждый, соответственно, с учетом 1 подмножества для оценки и оставшихся K-1 подмножеств для обучения модели. Помимо методов удержания и перекрестной проверки, для оценки точности модели можно использовать бутстрап , который отбирает n экземпляров с заменой из набора данных. [101]

Помимо общей точности, исследователи часто сообщают о чувствительности и специфичности, имея в виду истинно положительную частоту (TPR) и истинно отрицательную частоту (TNR) соответственно. Точно так же исследователи иногда сообщают о частоте ложных срабатываний (FPR), а также о частоте ложных отрицательных результатов (FNR). Однако эти коэффициенты представляют собой коэффициенты, которые не раскрывают своих числителей и знаменателей. Общая характеристика срабатывания (ТОС) является эффективным методом , чтобы выразить диагностическую способность модели. TOC показывает числители и знаменатели ранее упомянутых скоростей, таким образом, TOC предоставляет больше информации, чем обычно используемые рабочие характеристики приемника (ROC) и связанная с ними площадь ROC под кривой (AUC). [102]

Этика [ править ]

Машинное обучение ставит множество этических вопросов . Системы, которые обучены на наборах данных, собранных с ошибками, могут демонстрировать эти предубеждения при использовании ( алгоритмическое смещение ), тем самым оцифровывая культурные предрассудки. [103] Например, использование данных о найме на работу от фирмы с расистской политикой приема на работу может привести к тому, что система машинного обучения будет дублировать предвзятость, оценивая кандидатов на работу по сравнению с предыдущими успешными кандидатами. [104] [105] Таким образом, ответственный сбор данных и документирование алгоритмических правил, используемых системой, является важной частью машинного обучения.

Развитие систем искусственного интеллекта вызывает множество вопросов в сфере этики и морали. ИИ может быть хорошо оснащен для принятия решений в определенных областях, таких как технические и научные, которые в значительной степени полагаются на данные и историческую информацию. Эти решения основаны на объективности и логической аргументации. [106] Поскольку человеческие языки содержат предубеждения, машины, обученные языковым корпусам , обязательно также изучат эти предубеждения. [107] [108]

Другие формы этических проблем, не связанных с личными предубеждениями, более заметны в сфере здравоохранения. Специалисты в области здравоохранения опасаются, что эти системы могут быть разработаны не в интересах общества, а как машины, приносящие доход. Это особенно верно в Соединенных Штатах, где существует давняя этическая дилемма улучшения здравоохранения, но также и увеличения прибыли. Например, алгоритмы могут быть разработаны для предоставления пациентам ненужных тестов или лекарств, в которых владельцы алгоритмов владеют долями. Машинное обучение в здравоохранении обладает огромным потенциалом, чтобы предоставить профессионалам отличный инструмент для диагностики, лечения и даже планирования путей выздоровления для пациентов, но этого не произойдет, пока личные предубеждения, упомянутые ранее, и эти предубеждения "жадности" не будут устранены.[109]

Оборудование [ править ]

С 2010-х годов достижения как в алгоритмах машинного обучения, так и в компьютерном оборудовании привели к созданию более эффективных методов обучения глубоких нейронных сетей (особая узкая подобласть машинного обучения), которые содержат множество уровней нелинейных скрытых единиц. [110] К 2019 году графические процессоры ( ГП ), часто с улучшениями, специфичными для ИИ, вытеснили ЦП в качестве доминирующего метода обучения ИИ в крупномасштабном коммерческом облаке. [111] OpenAI оценил объем аппаратных вычислений, используемых в крупнейших проектах глубокого обучения от AlexNet (2012 г.) до AlphaZero (2017 г.), и обнаружил, что объем требуемых вычислений увеличился в 300 000 раз, а линия тренда на время удвоения составила 3,4 месяца. [112] [113]

Программное обеспечение [ править ]

Программные пакеты, содержащие различные алгоритмы машинного обучения, включают следующее:

Бесплатное программное обеспечение с открытым исходным кодом[ редактировать ]

  • Кафе
  • CNTK
  • Deeplearning4j
  • DeepSpeed
  • ELKI
  • Infer.NET
  • Керас
  • LightGBM
  • Mahout
  • Молоток
  • ML.NET
  • mlpack
  • MXNet
  • Нейронная лаборатория
  • Октава
  • OpenNN
  • апельсин
  • панды (программное обеспечение)
  • PyTorch
  • ROOT (TMVA с ROOT)
  • scikit-learn
  • Сёгун
  • Spark MLlib
  • SystemML
  • TensorFlow
  • Факел / PyTorch
  • Weka / MOA
  • XGBoost
  • Юрека

Проприетарное программное обеспечение с бесплатными версиями и версиями с открытым исходным кодом [ править ]

  • KNIME
  • RapidMiner

Проприетарное программное обеспечение [ править ]

  • Машинное обучение Amazon
  • Angoss KnowledgeSTUDIO
  • Машинное обучение Azure
  • Аясди
  • IBM Watson Studio
  • Google Prediction API
  • IBM SPSS Modeler
  • KXEN Modeler
  • LIONsolver
  • Mathematica
  • MATLAB
  • Нейронный дизайнер
  • NeuroSolutions
  • Oracle Data Mining
  • Облачная служба Oracle AI Platform
  • PolyAnalyst
  • RCASE
  • SAS Enterprise Майнер
  • ПоследовательностьL
  • Splunk
  • Статистический майнер данных

Журналы [ править ]

  • Журнал исследований в области машинного обучения
  • Машинное обучение
  • Природа Машинный интеллект
  • Нейронные вычисления

Конференции [ править ]

  • Ассоциация компьютерной лингвистики ( ACL )
  • Европейская конференция по машинному обучению и принципам и практике обнаружения знаний в базах данных ( ECML PKDD )
  • Международная конференция по машинному обучению ( ICML )
  • Международная конференция по обучающим представительствам ( ICLR )
  • Международная конференция по интеллектуальным роботам и системам ( IROS )
  • Конференция по открытию знаний и интеллектуальному анализу данных ( KDD )
  • Конференция по системам обработки нейронной информации ( NeurIPS )

См. Также [ править ]

  • Автоматизированное машинное обучение  - процесс автоматизации применения машинного обучения.
  • Большие данные  - информационные активы, характеризующиеся большим объемом, скоростью и разнообразием.
  • Дифференцируемое программирование  - парадигма программирования
  • Список важных публикаций по машинному обучению  - статья со списком Викимедиа
  • Список наборов данных для исследований в области машинного обучения  - статья со списком Викимедиа

Ссылки [ править ]

  1. ^ Митчелл, Том (1997). Машинное обучение . Нью-Йорк: Макгроу Хилл. ISBN 0-07-042807-7. OCLC  36417892 .
  2. ^ Определение «без явного программирования» часто приписывают Артуру Сэмюэлю , который ввел термин «машинное обучение» в 1959 году, но эта фраза не дословно встречается в этой публикации и может быть перефразированием , появившимся позже. Confer "Перефразируя Артура Самуэля (1959), возникает вопрос: как компьютеры могут научиться решать проблемы, не будучи явно запрограммированными?" в Koza, John R .; Bennett, Forrest H .; Андре, Дэвид; Кин, Мартин А. (1996). Автоматизированное проектирование топологии и размера аналоговых электрических цепей с использованием генетического программирования . Искусственный интеллект в дизайне-96. Спрингер, Дордрехт. С. 151–170. DOI : 10.1007 / 978-94-009-0279-4_9 .
  3. ^ a b c Бишоп, CM (2006), Распознавание образов и машинное обучение , Springer, ISBN 978-0-387-31073-2
  4. ^ Машинное обучение и распознавание образов «можно рассматривать как две стороны одной области». [3] : vii
  5. ^ Фридман, Джером Х. (1998). «Интеллектуальный анализ данных и статистика: какая связь?». Вычислительная техника и статистика . 29 (1): 3–9.
  6. ^ а б в Этхем Алпайдин (2020). Введение в машинное обучение (четвертое изд.). Массачусетский технологический институт . С. xix, 1–3, 13–18. ISBN 978-0262043793.
  7. ^ Павел Браздил, Кристоф Жиро Карриер, Карлос Соареш, Рикардо Вилалта (2009). Metalearning: приложения для интеллектуального анализа данных (четвертое изд.). Springer Science + Business Media . С. 10–14, пасс . ISBN 978-3540732624.CS1 maint: uses authors parameter (link)
  8. ^ Самуэль, Артур (1959). «Некоторые исследования машинного обучения с использованием игры в шашки». Журнал исследований и разработок IBM . 3 (3): 210–229. CiteSeerX 10.1.1.368.2254 . DOI : 10.1147 / rd.33.0210 . 
  9. ^ Р. Кохави и Ф. Провост, "Словарь терминов", Машинное обучение, т. 30, нет. 2–3, с. 271–274, 1998.
  10. Перейти ↑ Nilsson N. Learning Machines, McGraw Hill, 1965.
  11. ^ Дуда, Р., Харт П. Распознавание образов и анализ сцены, Wiley Interscience, 1973
  12. ^ С. Бозиновски "Учебное пространство: концепция представления для классификации адаптивных шаблонов" Технический отчет COINS № 81-28, Департамент компьютерных и информационных наук, Массачусетский университет в Амхерсте, Массачусетс, 1981. https: //web.cs.umass .edu / Publication / docs / 1981 / UM-CS-1981-028.pdf
  13. ^ a b Митчелл, Т. (1997). Машинное обучение . Макгроу Хилл. п. 2. ISBN 978-0-07-042807-2.
  14. ^ Харнады, Stevan (2008), "аннотация Игра: На Тьюринг (1950) по вычислениям, Машина и разведкам" , в Эпштейн, Роберт; Питерс, Грейс (ред.), Справочник по тесту Тьюринга: философские и методологические вопросы в поисках мыслящего компьютера , Kluwer, стр. 23–66, ISBN. 9781402067082
  15. ^ «Введение в AI Часть 1» . Эдцион . 2020-12-08 . Проверено 9 декабря 2020 .
  16. ^ a b "ЭМПИРИЧЕСКОЕ НАУЧНОЕ ИССЛЕДОВАНИЕ БИОИНФОРМАТИКИ В МАШИННОМ ОБУЧЕНИИ - Журнал" . Проверено 28 октября 2020 года . Cite journal requires |journal= (help)
  17. ^ "rasbt / stat453-deep-learning-ss20" (PDF) . GitHub .
  18. ^ Сарл, Уоррен (1994). «Нейронные сети и статистические модели». CiteSeerX 10.1.1.27.699 . 
  19. ^ a b c d Рассел, Стюарт ; Норвиг, Питер (2003) [1995]. Искусственный интеллект: современный подход (2-е изд.). Прентис Холл. ISBN 978-0137903955.
  20. ^ a b Лэнгли, Пэт (2011). «Меняющаяся наука о машинном обучении» . Машинное обучение . 82 (3): 275–279. DOI : 10.1007 / s10994-011-5242-у .
  21. ^ Garbade, д - р Майкл Дж (14 сентября 2018). «Устранение путаницы: ИИ против машинного обучения против различий в глубоком обучении» . Средний . Проверено 28 октября 2020 года .
  22. ^ «ИИ против машинного обучения против глубокого обучения против нейронных сетей: в чем разница?» . www.ibm.com . Проверено 28 октября 2020 года .
  23. ^ «Глава 1: Введение в машинное обучение и глубокое обучение» . Доктор Себастьян Рашка . 5 августа 2020 . Проверено 28 октября 2020 года .
  24. ^ Август 2011 г., Dovel Technologies в (15 мая 2018 г.). «Не все машинное обучение - это искусственный интеллект» . CTOvision.com . Проверено 28 октября 2020 года .
  25. ^ «AI Today Podcast # 30: Интервью с профессором Массачусетского технологического института Луисом Перес-Бревой - противоположные взгляды на AI и ML» . Cognilytica . 28 марта 2018 . Проверено 28 октября 2020 года .
  26. ^ "rasbt / stat453-deep-learning-ss20" (PDF) . GitHub . Проверено 28 октября 2020 года .
  27. Перл, Иудея; Маккензи, Дана. Книга почему: новая наука о причине и следствии (изд. 2018 г.). Основные книги. ISBN 9780465097609. Проверено 28 октября 2020 года .
  28. ^ Poole, Макворт & Гебель 1998 , стр. 1 .
  29. ^ Russell & Норвиг 2003 , стр. 55.
  30. ^ Определение ИИ как исследования интеллектуальных агентов : * Poole, Mackworth & Goebel (1998) , где представлена ​​версия, используемая в этой статье. Эти авторы используют термин «вычислительный интеллект» как синоним искусственного интеллекта. [28] * Russell & Norvig (2003) (которые предпочитают термин «рациональный агент») и пишут: «Представление о целостном агенте сейчас широко распространено в этой области». [29] * Нильссон 1998 * Легг и Хаттер 2007
  31. ^ Ле Ру, Николя; Бенхио, Йошуа; Фитцгиббон, Эндрю (2012). «Улучшение + методов + первого + и + + второго порядка + путем + моделирования + неопределенности & pg = PA403« Улучшение методов + первого и второго порядка + путем моделирования неопределенности » . In Sra, Suvrit; Nowozin, Sebastian; Wright, Stephen J. (eds. ). Оптимизация для машинного обучения . MIT Press. стр. 404. ISBN 9780262016469.
  32. ^ Bzdok, Данило; Альтман, Наоми ; Кшивинский, Мартин (2018). «Статистика против машинного обучения» . Методы природы . 15 (4): 233–234. DOI : 10.1038 / nmeth.4642 . PMC 6082636 . PMID 30100822 .  
  33. ^ a b Майкл И. Джордан (10 сентября 2014 г.). «статистика и машинное обучение» . Reddit . Проверено 1 октября 2014 .
  34. ^ Библиотека Корнельского университета. «Брейман: статистическое моделирование: две культуры (с комментариями и репликой автора)» . Проверено 8 августа 2015 года .
  35. Гарет Джеймс; Даниэла Виттен; Тревор Хасти; Роберт Тибширани (2013). Введение в статистическое обучение . Springer. п. vii.
  36. ^ Мохри, Мехрияр ; Ростамизаде, Афшин; Талвалкар, Амит (2012). Основы машинного обучения . США, Массачусетс: MIT Press. ISBN 9780262018258.
  37. ^ Alpaydin, Ethem (2010). Введение в машинное обучение . Лондон: MIT Press. ISBN 978-0-262-01243-0. Проверено 4 февраля 2017 года .
  38. ^ Рассел, Стюарт Дж .; Норвиг, Питер (2010). Искусственный интеллект: современный подход (Третье изд.). Прентис Холл. ISBN 9780136042594.
  39. ^ Мохри, Мехрияр; Ростамизаде, Афшин; Талвалкар, Амит (2012). Основы машинного обучения . MIT Press. ISBN 9780262018258.
  40. ^ Alpaydin, Ethem (2010). Введение в машинное обучение . MIT Press. п. 9. ISBN 978-0-262-01243-0.
  41. ^ Джордан, Майкл I .; Епископ, Кристофер М. (2004). "Нейронные сети". В Аллен Б. Такер (ред.). Справочник по информатике, второе издание (раздел VII: Интеллектуальные системы) . Бока-Ратон, Флорида: Chapman & Hall / CRC Press LLC. ISBN 978-1-58488-360-9.
  42. ^ Алекс Ратнер; Стивен Бах; Парома Варма; Крис. «Слабое наблюдение: новая парадигма программирования для машинного обучения» . hazyresearch.github.io . ссылаясь на работы многих других членов Hazy Research . Проверено 6 июня 2019 .
  43. ^ ван Оттерло, М .; Виринг, М. (2012). Обучение с подкреплением и марковские процессы принятия решений . Обучение с подкреплением . Адаптация, обучение и оптимизация. 12 . С. 3–42. DOI : 10.1007 / 978-3-642-27645-3_1 . ISBN 978-3-642-27644-6.
  44. ^ Bozinovski, S. (1982). «Самообучающаяся система с использованием вторичного подкрепления». В Trappl, Роберт (ред.). Кибернетика и системные исследования: материалы шестого европейского совещания по кибернетике и системным исследованиям. Северная Голландия. С. 397–402. ISBN 978-0-444-86488-8 . 
  45. ^ Bozinovski, Stevo (2014) «Моделирование механизмов когнитивно-эмоциональное взаимодействие в искусственных нейронных сетях, с 1981 года» Процедуры информатики с. 255-263
  46. ^ Bozinovski, S. (2001) «самообучающиеся средства:.теория коннекшионистских эмоцийоснове суждения поперечин значения» Кибернетика и системы 32 (6) 637-667.
  47. ^ Y. Bengio; А. Курвиль; П. Винсент (2013). «Репрезентативное обучение: обзор и новые перспективы». IEEE Transactions по анализу шаблонов и машинному анализу . 35 (8): 1798–1828. arXiv : 1206,5538 . DOI : 10.1109 / tpami.2013.50 . PMID 23787338 . S2CID 393948 .  
  48. ^ Nathan Srebro; Джейсон Д.М. Ренни; Томми С. Яаккола (2004). Факторизация матрицы максимальной маржи . НИПС .
  49. ^ Коутс, Адам; Ли, Хонглак; Нг, Эндрю Ю. (2011). Анализ однослойных сетей в неконтролируемом обучении функций (PDF) . Междунар. Конф. по искусственному интеллекту и статистике (AISTATS). Архивировано из оригинального (PDF) 13 августа 2017 года . Проверено 25 ноября 2018 .
  50. ^ Csurka, Габриэлла; Танец, Кристофер С .; Fan, Lixin; Вилламовски, Ютта; Брей, Седрик (2004). Визуальная категоризация с помощью пакетов ключевых точек (PDF) . Семинар ECCV по статистическому обучению в компьютерном зрении.
  51. ^ Даниэль Джурафски; Джеймс Х. Мартин (2009). Обработка речи и языка . Pearson Education International. С. 145–146.
  52. ^ Лу, Хайпин; Plataniotis, KN; Венецанопулос, АН (2011). «Обзор мультилинейного обучения подпространству тензорных данных» (PDF) . Распознавание образов . 44 (7): 1540–1551. DOI : 10.1016 / j.patcog.2011.01.004 .
  53. ^ Йошуа Бенджио (2009). Изучение глубинных архитектур для искусственного интеллекта . Теперь Publishers Inc., стр. 1–3. ISBN 978-1-60198-294-0.
  54. ^ Tillmann, AM (2015). «О вычислительной неразрешимости точного и приближенного изучения словаря». Письма об обработке сигналов IEEE . 22 (1): 45–49. arXiv : 1405.6664 . Bibcode : 2015ISPL ... 22 ... 45T . DOI : 10,1109 / LSP.2014.2345761 . S2CID 13342762 . 
  55. ^ Арон, М, М Elad и А Bruckstein. 2006. « K-SVD: алгоритм для разработки переполненных словарей для разреженного представления ». Обработка сигналов, транзакции IEEE на 54 (11): 4311–4322
  56. ^ Зимек, Артур; Шуберт, Эрих (2017), «Обнаружение выбросов», Энциклопедия систем баз данных , Springer, Нью-Йорк, стр. 1–5, DOI : 10.1007 / 978-1-4899-7993-3_80719-1 , ISBN 9781489979933
  57. ^ Ходж, VJ; Остин, Дж. (2004). «Обзор методологий обнаружения выбросов» (PDF) . Обзор искусственного интеллекта . 22 (2): 85–126. CiteSeerX 10.1.1.318.4023 . DOI : 10.1007 / s10462-004-4304-у . S2CID 59941878 .   
  58. ^ Dokas, Павел; Эртоз, Левент; Кумар, Випин; Лазаревич, Александар; Шривастава, Джайдип; Тан, Пан-Нин (2002). «Интеллектуальный анализ данных для обнаружения сетевых вторжений» (PDF) . Труды Семинар NSF по интеллектуальному анализу данных следующего поколения .
  59. ^ Chandola, V .; Banerjee, A .; Кумар, В. (2009). «Обнаружение аномалий: исследование». ACM Computing Surveys . 41 (3): 1–58. DOI : 10.1145 / 1541880.1541882 . S2CID 207172599 . 
  60. ^ Пятецкий-Шапиро, Грегори (1991), Открытие, анализ и представление строгих правил , в Пятецком-Шапиро, Григорий; и Фроули, Уильям Дж .; ред., « Обнаружение знаний в базах данных» , AAAI / MIT Press, Кембридж, Массачусетс.
  61. ^ Бассель, Джордж В .; Глааб, Энрико; Маркес, Джульетта; Холдсворт, Майкл Дж .; Бакардит, Жауме (01.09.2011). «Функциональное построение сети в арабидопсисе с использованием машинного обучения на основе правил на крупномасштабных наборах данных» . Растительная клетка . 23 (9): 3101–3116. DOI : 10.1105 / tpc.111.088153 . ISSN 1532-298X . PMC 3203449 . PMID 21896882 .   
  62. ^ Agrawal, R .; Имелинский, Т .; Свами, А. (1993). «Правила ассоциации интеллектуального анализа данных между наборами элементов в больших базах данных». Материалы международной конференции ACM SIGMOD 1993 года по управлению данными - SIGMOD '93 . п. 207. CiteSeerX 10.1.1.40.6984 . DOI : 10.1145 / 170035.170072 . ISBN  978-0897915922. S2CID  490415 .
  63. ^ Урбанович, Райан Дж .; Мур, Джейсон Х. (22 сентября 2009 г.). «Обучающие системы классификаторов: полное введение, обзор и дорожная карта» . Журнал искусственной эволюции и приложений . 2009 : 1–25. DOI : 10.1155 / 2009/736398 . ISSN 1687-6229 . 
  64. ^ Плоткин Г.Д. Автоматические методы индуктивного вывода , докторская диссертация, Эдинбургский университет, 1970.
  65. ^ Шапиро, Эхуд Ю. Индуктивный вывод теорий из фактов , Отчет об исследовании 192, Йельский университет, факультет компьютерных наук, 1981. Перепечатано в J.-L. Лассез, Г. Плоткин (редакторы), Computational Logic, MIT Press, Кембридж, Массачусетс, 1991, стр. 199–254.
  66. Перейти ↑ Shapiro, Ehud Y. (1983). Алгоритмическая отладка программ . Кембридж, Массачусетс: MIT Press. ISBN 0-262-19218-7 
  67. ^ Шапиро, Эхуд Ю. " Модель системы вывода ". Труды 7-й международной совместной конференции по искусственному интеллекту - Том 2. Morgan Kaufmann Publishers Inc., 1981.
  68. ^ Honglak Ли, Роджер Grosse, Раджеш Ранганат, Андрей Юрьевич Ng. « Сверточные сети глубокого убеждения для масштабируемого неконтролируемого обучения иерархических представлений » Труды 26-й ежегодной международной конференции по машинному обучению, 2009 г.
  69. ^ Кортес, Коринна ; Вапник, Владимир Н. (1995). «Поддержка-вектор сети» . Машинное обучение . 20 (3): 273–297. DOI : 10.1007 / BF00994018 .
  70. ^ Стивенсон, Кристофер. «Учебник: Полиномиальная регрессия в Excel» . facultystaff.richmond.edu . Проверено 22 января 2017 года .
  71. ^ Голдберг, Дэвид Э .; Голландия, Джон Х. (1988). «Генетические алгоритмы и машинное обучение» (PDF) . Машинное обучение . 3 (2): 95–99. DOI : 10.1007 / bf00113892 . S2CID 35506513 .  
  72. ^ Michie, D .; Шпигельхальтер, диджей; Тейлор, CC (1994). «Машинное обучение, нейронная и статистическая классификация». Серия Эллиса Хорвуда по искусственному интеллекту . Bibcode : 1994mlns.book ..... M .
  73. ^ Чжан, Цзюнь; Чжань, Чжи-хуэй; Линь, Инь; Чен, Ни; Гун Юэ-цзяо; Чжун, Цзин-хуэй; Чанг, Генри SH; Ли, Юнь; Ши, Ю-хуэй (2011). «Эволюционные вычисления и машинное обучение: обзор». Журнал "Вычислительный интеллект" . 6 (4): 68–75. DOI : 10.1109 / mci.2011.942584 . S2CID 6760276 . 
  74. ^ «Федеративное обучение: совместное машинное обучение без централизованных данных обучения» . Блог Google AI . Проверено 8 июня 2019 .
  75. ^ Машинное обучение включено в учебную программу CFA (обсуждение идет сверху вниз); см .: Кэтлин ДеРоуз и Кристоф Ле Ланно (2020). «Машинное обучение» .
  76. ^ "Домашняя страница БелКора" research.att.com
  77. ^ «Технический блог Netflix: Рекомендации Netflix: за пределами 5 звезд (Часть 1)» . 2012-04-06. Архивировано из оригинального 31 мая 2016 года . Проверено 8 августа 2015 года .
  78. Скотт Паттерсон (13 июля 2010 г.). «Позволить машинам решать» . The Wall Street Journal . Проверено 24 июня 2018 .
  79. Винод Хосла (10 января 2012 г.). «Нужны ли нам врачи или алгоритмы?» . Tech Crunch.
  80. ^ Когда алгоритм машинного обучения изучал картины изобразительного искусства, он видел то, чего историки искусства никогда не замечали , блог The Physics at ArXiv
  81. ^ Винсент, Джеймс (2019-04-10). «Первый учебник, созданный с помощью ИИ, показывает, в чем на самом деле хороши писатели-роботы» . Грань . Проверено 5 мая 2019 .
  82. ^ «Почему модели машинного обучения часто не обучаются: QuickTake Q&A» . Bloomberg.com . 2016-11-10. Архивировано из оригинала на 2017-03-20 . Проверено 10 апреля 2017 .
  83. ^ «Первая волна корпоративного ИИ обречена на провал» . Harvard Business Review . 2017-04-18 . Проверено 20 августа 2018 .
  84. ^ «Почему эйфория AI обречена на провал» . VentureBeat . 2016-09-18 . Проверено 20 августа 2018 .
  85. ^ «9 причин, по которым ваш проект машинного обучения потерпит неудачу» . www.kdnuggets.com . Проверено 20 августа 2018 .
  86. ^ «Почему беспилотный автомобиль Убера убил пешехода» . Экономист . Проверено 20 августа 2018 .
  87. ^ «IBM Watson рекомендовал« небезопасные и неправильные »методы лечения рака - STAT» . СТАТ . 2018-07-25 . Проверено 21 августа 2018 .
  88. ^ Эрнандес, Даниэла; Гринвальд, Тед (11.08.2018). «У IBM есть дилемма Ватсона» . Wall Street Journal . ISSN 0099-9660 . Проверено 21 августа 2018 . 
  89. ^ Редди, Шивани М .; Патель, Шейла; Вейрих, Меган; Фентон, Джошуа; Вишванатан, Мира (2020). «Сравнение традиционного подхода к систематическому обзору с обзором обзоров и полуавтоматизацией в качестве стратегий обновления данных» . Систематические обзоры . 9 (1): 243. DOI : 10,1186 / s13643-020-01450-2 . ISSN 2046-4053 . PMC 7574591 . PMID 33076975 .   
  90. ^ Гарсия, Меган (2016). «Расист в машине». Журнал мировой политики . 33 (4): 111–117. DOI : 10.1215 / 07402775-3813015 . ISSN 0740-2775 . S2CID 151595343 .  
  91. ^ Калискан, Айлин; Брайсон, Джоанна Дж .; Нараянан, Арвинд (2017-04-14). «Семантика, полученная автоматически из языковых корпусов, содержит человеческие предубеждения». Наука . 356 (6334): 183–186. arXiv : 1608.07187 . Bibcode : 2017Sci ... 356..183C . DOI : 10.1126 / science.aal4230 . ISSN 0036-8075 . PMID 28408601 . S2CID 23163324 .   
  92. ^ Ван, Синань; Дасгупта, Санджой (2016), Ли, ДД; Sugiyama, M .; Люксбург, УФ; Гайон, И. (ред.), «Алгоритм поиска ближайшего соседа L1 посредством монотонного встраивания» (PDF) , Успехи в системах обработки нейронной информации 29 , Curran Associates, Inc., стр. 983–991 , получено в 2018-08 гг. 20
  93. ^ Джулия Ангвин; Джефф Ларсон; Лорен Киршнер; Сурья Матту (23 мая 2016 г.). «Машинный уклон» . ProPublica . Проверено 20 августа 2018 .
  94. ^ «Мнение | Когда алгоритм помогает отправить вас в тюрьму» . Нью-Йорк Таймс . Проверено 20 августа 2018 .
  95. ^ "Google приносит свои извинения за расистскую ошибку" . BBC News . 2015-07-01 . Проверено 20 августа 2018 .
  96. ^ «Google« исправил »свой расистский алгоритм, удалив горилл из своей технологии маркировки изображений» . Грань . Проверено 20 августа 2018 .
  97. ^ "Мнение | Проблема белого парня искусственного интеллекта" . Нью-Йорк Таймс . Проверено 20 августа 2018 .
  98. ^ Мец, Рэйчел. «Почему Тэй, чат-бот Microsoft для подростков, наговорил много ужасных вещей в Интернете» . Обзор технологий Массачусетского технологического института . Проверено 20 августа 2018 .
  99. ^ Simonite, Том. «Microsoft говорит, что ее расистский чат-бот показывает, что ИИ недостаточно адаптируется, чтобы помочь большинству предприятий» . Обзор технологий Массачусетского технологического института . Проверено 20 августа 2018 .
  100. ^ Hempel, Jessi (2018-11-13). «Стремление Фэй-Фэй Ли сделать машины лучше для человечества» . Проводной . ISSN 1059-1028 . Проверено 17 февраля 2019 . 
  101. ^ Kohavi, Рон (1995). «Исследование перекрестной проверки и начальной загрузки для оценки точности и выбора модели» (PDF) . Международная совместная конференция по искусственному интеллекту .
  102. Понтиус, Роберт Гилмор; Си, Канпин (2014). «Общая рабочая характеристика для измерения диагностической способности для нескольких пороговых значений». Международный журнал географической информатики . 28 (3): 570–583. DOI : 10.1080 / 13658816.2013.862623 . S2CID 29204880 . 
  103. ^ Бостром, Ник (2011). «Этика искусственного интеллекта» (PDF) . Архивировано из оригинального (PDF) 4 марта 2016 года . Проверено 11 апреля +2016 .
  104. ^ Edionwe, Tolulope. «Борьба с расистскими алгоритмами» . Наброски . Проверено 17 ноября 2017 года .
  105. ^ Джеффрис, Адрианна. «Машинное обучение расистски, потому что расистский Интернет» . Наброски . Проверено 17 ноября 2017 года .
  106. ^ Бостром, Ник; Юдковский, Элиэзер (2011). «ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА» (PDF) . Ник Бостром .
  107. ^ MOR Пратес, РНС Авелар, LC - Лэмб (11 марта 2019). «Оценка гендерных предубеждений в машинном переводе - пример использования Google Translate». arXiv : 1809.02208 [ cs.CY ].CS1 maint: uses authors parameter (link)
  108. Нараянан, Арвинд (24 августа 2016 г.). «Язык обязательно содержит человеческие предубеждения, как и машины, обученные языковым корпусам» . Свобода возиться .
  109. ^ Char, DS; Шах, штат Нью-Хэмпшир; Магнус, Д. (2018). «Внедрение машинного обучения в здравоохранении - решение этических проблем» . Медицинский журнал Новой Англии . 378 (11): 981–983. DOI : 10.1056 / nejmp1714229 . PMC 5962261 . PMID 29539284 .  
  110. ^ Исследования, AI (23 октября 2015 г.). «Глубокие нейронные сети для акустического моделирования в распознавании речи» . airesearch.com . Проверено 23 октября 2015 года .
  111. ^ «Графические процессоры продолжают доминировать на рынке ускорителей искусственного интеллекта» . Информационная неделя . Декабрь 2019 . Проверено 11 июня 2020 .
  112. ^ Рэй, Тирнан (2019). «ИИ меняет всю природу вычислений» . ZDNet . Проверено 11 июня 2020 .
  113. ^ «AI и вычисления» . OpenAI . 16 мая 2018 . Проверено 11 июня 2020 .

Дальнейшее чтение [ править ]

  • Нильс Дж. Нильссон, Введение в машинное обучение .
  • Тревор Хасти , Роберт Тибширани и Джером Х. Фридман (2001). Элементы статистического обучения , Springer. ISBN 0-387-95284-5 . 
  • Педро Домингос (сентябрь 2015 г.), Мастер-алгоритм , Основные книги, ISBN 978-0-465-06570-7 
  • Ян Х. Виттен и Эйбе Франк (2011). Интеллектуальный анализ данных: практические инструменты и методы машинного обучения Морган Кауфманн, 664 стр., ISBN 978-0-12-374856-0 . 
  • Этхем Алпайдин (2004). Введение в машинное обучение , MIT Press, ISBN 978-0-262-01243-0 . 
  • Дэвид Дж . К. Маккей . Теория информации, логический вывод и алгоритмы обучения Кембридж: Cambridge University Press, 2003. ISBN 0-521-64298-1 
  • Ричард О. Дуда , Питер Э. Харт , Дэвид Г. Сторк (2001) Классификация образцов (2-е издание), Wiley, New York, ISBN 0-471-05669-3 . 
  • Кристофер Бишоп (1995). Нейронные сети для распознавания образов , Oxford University Press. ISBN 0-19-853864-2 . 
  • Стюарт Рассел и Питер Норвиг, (2009). Искусственный интеллект - современный подход . Пирсон, ISBN 9789332543515 . 
  • Рэй Соломонофф , Машина индуктивного вывода , IRE Convention Record, раздел по теории информации, часть 2, стр. 56–62, 1957.
  • Рэй Соломонофф , машина индуктивного вывода Распространенный в частном порядке отчет с Дартмутской летней исследовательской конференции по ИИ в 1956 году .

Внешние ссылки [ править ]

  • Международное общество машинного обучения
  • mloss - это академическая база данных программного обеспечения для машинного обучения с открытым исходным кодом.
  • Ускоренный курс машинного обучения от Google . Это бесплатный курс по машинному обучению с использованием TensorFlow .