Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Искусственная нейронная сеть - это взаимосвязанная группа узлов, вдохновленная упрощением нейронов в мозге . Здесь каждый круговой узел представляет собой искусственный нейрон, а стрелка представляет собой соединение между выходом одного искусственного нейрона и входом другого.

Искусственные нейронные сети ( ИНС ), обычно называемые просто нейронными сетями ( НС ), представляют собой вычислительные системы, смутно вдохновленные биологическими нейронными сетями, которые составляют мозг животных . [1]

ИНС основана на наборе связанных блоков или узлов, называемых искусственными нейронами , которые в общих чертах моделируют нейроны в биологическом мозге. Каждое соединение, как синапсы в биологическом мозге, может передавать сигнал другим нейронам. Искусственный нейрон, который получает сигнал, затем обрабатывает его и может сигнализировать подключенным к нему нейронам. «Сигнал» в соединении - это действительное число , и выходной сигнал каждого нейрона вычисляется некоторой нелинейной функцией суммы его входов. Связи называются ребрами . Нейроны и ребра обычно имеют вескоторый корректируется по мере обучения. Вес увеличивает или уменьшает силу сигнала в соединении. Нейроны могут иметь такой порог, что сигнал отправляется только в том случае, если совокупный сигнал пересекает этот порог. Обычно нейроны объединены в слои. Разные слои могут выполнять разные преобразования на своих входах. Сигналы проходят от первого слоя (входной) к последнему (выходному), возможно, после многократного прохождения слоев.

Обучение [ править ]

Нейронные сети обучаются (или обучаются) на примерах обработки, каждый из которых содержит известные «входные данные» и «результат», формируя между ними взвешенные по вероятности ассоциации, которые хранятся в структуре данных самой сети. Обучение нейронной сети из данного примера обычно проводится путем определения разницы между обработанным выводом сети (часто предсказанием) и целевым выводом. Это ошибка. Затем сеть корректирует свои взвешенные ассоциации в соответствии с правилом обучения и с использованием этого значения ошибки. Последовательные корректировки приведут к тому, что нейронная сеть будет выдавать результат, который становится все более похожим на целевой результат. После достаточного количества этих корректировок обучение может быть прекращено по определенным критериям.Это называется обучением с учителем..

Такие системы «учатся» выполнять задачи, рассматривая примеры, как правило, не запрограммированные с помощью правил для конкретных задач. Например, при распознавании изображений они могут научиться определять изображения, содержащие кошек, путем анализа примеров изображений, которые были вручную помечены как «кошка» или «без кошек», и использования результатов для идентификации кошек на других изображениях. Они делают это без каких-либо предварительных знаний о кошках, например, о том, что у них мех, хвосты, усы и кошачьи лица. Вместо этого они автоматически генерируют идентифицирующие характеристики из примеров, которые они обрабатывают.

История [ править ]

Уоррен Маккалок и Уолтер Питтс [2] (1943) открыли эту тему, создав вычислительную модель для нейронных сетей. [3] В конце 1940-х годов Д.О. Хебб [4] создал гипотезу обучения, основанную на механизме нейронной пластичности, которая стала известна как обучение Хебба . Фарли и Уэсли А. Кларк [5] (1954) сначала использовали вычислительные машины, тогда называемые «калькуляторами», для моделирования сети Хебба. Розенблатт [6] (1958) создал перцептрон . [7] Первые функциональные многослойные сети были опубликованы Ивахненко.и Лапа в 1965 г. как групповой метод обработки данных . [8] [9] [10] Основы непрерывного обратного распространения ошибки [8] [11] [12] [13] были выведены в контексте теории управления Келли [14] в 1960 году и Брайсоном в 1961 году, [15] используя принципы динамического программирования .

В 1970 году Сеппо Линнаинмаа опубликовал общий метод автоматического дифференцирования (AD) дискретных связанных сетей вложенных дифференцируемых функций. [16] [17] В 1973 году Дрейфус использовал обратное распространение ошибок, чтобы адаптировать параметры контроллеров пропорционально градиентам ошибок. [18] Алгоритм обратного распространения ошибки Werbos (1975) позволил на практике обучить многоуровневым сетям. В 1982 году он применил AD-метод Линнайнмаа к нейронным сетям, получив широкое распространение. [11] [19] После этого исследования прекратились после Мински и Паперта (1969),[20], которые обнаружили, что базовые перцептроны неспособны обрабатывать схему исключающего ИЛИ и что компьютерам не хватает мощности для обработки полезных нейронных сетей.

Развитие очень крупномасштабной интеграции (СБИС) металл-оксид-полупроводник (МОП) в виде технологии комплементарных МОП (КМОП) позволило увеличить количество МОП- транзисторов в цифровой электронике . Это обеспечило большую вычислительную мощность для разработки практических искусственных нейронных сетей в 1980-х годах. [21]

В 1986 году Рамелхарт , Хинтон и Уильямс показали, что обратное распространение обучается интересным внутренним представлениям слов как векторов признаков при обучении предсказанию следующего слова в последовательности. [22]

В 1992 году было введено max-pooling, чтобы помочь с наименьшей инвариантностью к сдвигу и устойчивостью к деформации, чтобы облегчить распознавание 3D-объектов . [23] [24] [25] Шмидхубер принял многоуровневую иерархию сетей (1992), предварительно обучая один уровень за один раз путем неконтролируемого обучения и тонко настраиваясь с помощью обратного распространения ошибки . [26]

Джеффри Хинтон и др. (2006) предложили изучить высокоуровневое представление с использованием последовательных слоев двоичных или действительных латентных переменных с помощью ограниченной машины Больцмана [27] для моделирования каждого слоя. В 2012 году Нг и Дин создали сеть, которая научилась распознавать концепции более высокого уровня, такие как кошки, только путем просмотра немаркированных изображений. [28] Неконтролируемое предварительное обучение и увеличенная вычислительная мощность с помощью графических процессоров и распределенных вычислений позволили использовать более крупные сети, особенно в задачах распознавания изображений и визуального распознавания, которые стали известны как « глубокое обучение ». [29]

Чиресан и его коллеги (2010) [30] показали, что, несмотря на проблему исчезающего градиента, графические процессоры делают возможным обратное распространение для многослойных нейронных сетей с прямой связью. [31] В период с 2009 по 2012 год ИНС начали выигрывать призы в конкурсах ИНС, приближаясь к человеческому уровню при выполнении различных задач, первоначально в области распознавания образов и машинного обучения . [32] [33] Например, двунаправленный и многомерный длинные кратковременная память (LSTM) [34] [35] [36] [37] из Gravesи другие. выиграл три конкурса по распознаванию связного почерка в 2009 году, не зная заранее, какие из трех языков нужно выучить. [36] [35]

Чиресан и его коллеги создали первые распознаватели образов для достижения конкурентоспособных / сверхчеловеческих характеристик [38] на таких тестах, как распознавание дорожных знаков (IJCNN 2012).

Модели [ править ]

Нейрон и миелинизированный аксон с потоком сигналов от входов дендритов к выходам на терминалах аксонов

ИНС начинались как попытка использовать архитектуру человеческого мозга для выполнения задач, с которыми обычные алгоритмы не имели большого успеха. Вскоре они переориентировались на улучшение эмпирических результатов, в основном отказавшись от попыток остаться верными своим биологическим предшественникам. Нейроны связаны друг с другом по разным схемам, чтобы выходные данные одних нейронов становились входными данными для других. Сеть образует направленный , взвешенный граф . [39]

Искусственная нейронная сеть состоит из набора смоделированных нейронов. Каждый нейрон представляет собой узел, который связан с другими узлами посредством связей, которые соответствуют биологическим связям аксон-синапс-дендрит. У каждой ссылки есть вес, который определяет силу влияния одного узла на другой. [40]

Компоненты ИНС [ править ]

Нейроны [ править ]

ИНС состоят из искусственных нейронов, которые концептуально происходят из биологических нейронов . Каждый искусственный нейрон имеет входы и выдает один выходной сигнал, который может быть отправлен на несколько других нейронов. Входными данными могут быть значения характеристик выборки внешних данных, таких как изображения или документы, или они могут быть выходами других нейронов. Выходы конечных выходных нейронов нейронной сети выполняют такую ​​задачу, как распознавание объекта на изображении.

Для того, чтобы найти выход нейрона, первый взять взвешенную сумму всех входов, взвешенную по весам этих соединений от входов к нейрону. К этой сумме мы добавляем смещение . Эту взвешенную сумму иногда называют активацией . Затем эта взвешенная сумма проходит через (обычно нелинейную) функцию активации для получения выходных данных. Первоначальные входные данные - это внешние данные, такие как изображения и документы. Конечные результаты выполняют задачу, например, распознают объект на изображении. [41]

Соединения и веса [ править ]

Сеть состоит из соединений, каждое соединение обеспечивает выход одного нейрона в качестве входа для другого нейрона. Каждому соединению присваивается вес, который отражает его относительную важность. [39] У данного нейрона может быть несколько входных и выходных соединений. [42]

Функция распространения [ править ]

Функция распространения вычисляет входные данные нейрона из выходов его предшественников нейронов и их соединений в виде взвешенной суммы. [39] смещение термин может быть добавлен в результате распространения. [43]

Организация [ править ]

Нейроны обычно организованы в несколько уровней, особенно в глубоком обучении . Нейроны одного слоя соединяются только с нейронами непосредственно предшествующего и непосредственно следующего слоев. Слой, который получает внешние данные, является входным слоем . Слой, который дает окончательный результат, - это выходной слой . Между ними ноль или более скрытых слоев . Также используются однослойные и неслойные сети. Между двумя уровнями возможны несколько схем соединения. Они могут быть полностью связаны , при этом каждый нейрон одного слоя соединяется с каждым нейроном следующего слоя. Они могут объединяться, где группа нейронов в одном слое соединяется с одним нейроном в следующем слое, тем самым уменьшая количество нейронов в этом слое. [44] Нейроны только с такими связями образуют ориентированный ациклический граф и известны как сети прямого распространения . [45] С другой стороны, сети, которые позволяют соединения между нейронами в одном или предыдущих слоях, известны как рекуррентные сети . [46]

Гиперпараметр [ править ]

Гиперпараметр - это постоянный параметр , значение которого устанавливается до начала процесса обучения. Значения параметров выводятся путем обучения. Примеры гиперпараметров включают скорость обучения , количество скрытых слоев и размер пакета. [47] Значения некоторых гиперпараметров могут зависеть от значений других гиперпараметров. Например, размер некоторых слоев может зависеть от общего количества слоев.

Обучение [ править ]

Обучение - это адаптация сети для лучшего решения задачи с учетом выборочных наблюдений. Обучение включает в себя настройку весов (и необязательных пороговых значений) сети для повышения точности результата. Это достигается за счет минимизации наблюдаемых ошибок. Обучение завершено, когда изучение дополнительных наблюдений не снижает процент ошибок. Даже после обучения частота ошибок обычно не достигает 0. Если после обучения частота ошибок слишком высока, сеть обычно необходимо перепроектировать. Практически это достигается путем определения функции затрат, которая периодически оценивается во время обучения. Пока его объем производства продолжает снижаться, обучение продолжается. Стоимость часто определяется как статистиказначение которого можно только приблизительно определить. На самом деле выходными данными являются числа, поэтому, когда ошибка мала, разница между результатом (почти наверняка кошка) и правильным ответом (кошка) невелика. Обучение пытается уменьшить общую разницу между наблюдениями. [39] Большинство обучающих моделей можно рассматривать как прямое приложение теории оптимизации и статистической оценки .

Скорость обучения [ править ]

Скорость обучения определяет размер корректирующих шагов, которые модель предпринимает для корректировки ошибок в каждом наблюдении. Высокая скорость обучения сокращает время обучения, но с меньшей конечной точностью, в то время как более низкая скорость обучения занимает больше времени, но с потенциалом для большей точности. Оптимизация, такая как Quickprop , в первую очередь нацелена на ускорение минимизации ошибок, в то время как другие улучшения в основном направлены на повышение надежности. Чтобы избежать колебаний внутри сети, таких как чередование весов соединений, и улучшить скорость сходимости, уточнения используют адаптивную скорость обучения, которая увеличивается или уменьшается по мере необходимости. [48]Концепция импульса позволяет взвешивать баланс между градиентом и предыдущим изменением, так что корректировка веса в некоторой степени зависит от предыдущего изменения. Импульс, близкий к 0, подчеркивает градиент, а значение, близкое к 1, подчеркивает последнее изменение.

Функция стоимости [ править ]

В то время как можно определить функцию стоимости специальной , часто выбор определяется желаемыми свойствами работы функции (например, выпуклость ) или потому , что она возникает из модели (например , в вероятностной модели модели апостериорная вероятность может быть использована в качестве обратного Стоимость).

Обратное распространение [ править ]

Обратное распространение - это метод, используемый для корректировки весов соединений для компенсации каждой ошибки, обнаруженной во время обучения. Сумма ошибки эффективно распределяется между соединениями. Технически backprop вычисляет градиент (производную) функции стоимости, связанной с данным состоянием, по отношению к весам. Обновления весов могут быть выполнены с помощью стохастического градиентного спуска или других методов, таких как Extreme Learning Machines , [49] «безопорные» сети, [50] обучение без возврата, [51] «невесомые» сети, [52] [53 ] ] и неконнекционистские нейронные сети .

Парадигмы обучения [ править ]

Три основных обучение парадигмы контролируемое обучение , бесконтрольное обучение и обучение с подкреплением . Каждый из них соответствует определенной учебной задаче.

Обучение с учителем [ править ]

В обучении с учителем используется набор парных входов и желаемых выходов. Задача обучения состоит в том, чтобы произвести желаемый результат для каждого ввода. В этом случае функция стоимости связана с устранением неправильных вычетов. [54] Обычно используемая стоимость - это среднеквадратичная ошибка , которая пытается минимизировать среднеквадратичную ошибку между выходом сети и желаемым выходом. Задачи, подходящие для обучения с учителем, - это распознавание образов (также известное как классификация) и регрессия (также известная как аппроксимация функций). Обучение с учителем также применимо к последовательным данным (например, для рукописного ввода, распознавания речи и жестов).). Это можно рассматривать как обучение с «учителем» в форме функции, которая обеспечивает постоянную обратную связь о качестве решений, полученных на данный момент.

Обучение без учителя [ править ]

При обучении без учителя входные данные предоставляются вместе с функцией стоимости, некоторой функцией данных и выходными данными сети. Функция стоимости зависит от задачи (предметной области модели) и любых априорных предположений (неявных свойств модели, ее параметров и наблюдаемых переменных). В качестве тривиального примера рассмотрим модель, где - константа, а стоимость . Минимизация этой стоимости дает значение , равное среднему значению данных. Функция стоимости может быть намного сложнее. Его форма зависит от приложения: например, при сжатии он может быть связан с взаимной информацией между и, тогда как в статистическом моделировании это может быть связано с апостериорной вероятностью модели с учетом данных (обратите внимание, что в обоих этих примерах эти величины будут максимизированы, а не минимизированы). Задачи, которые подпадают под парадигму обучения без учителя, относятся к общим задачам оценки ; приложения включают кластеризацию , оценку статистических распределений , сжатие и фильтрацию .

Обучение с подкреплением [ править ]

В таких приложениях, как видеоигры, актер выполняет ряд действий, получая обычно непредсказуемый ответ от окружающей среды после каждого из них. Цель состоит в том, чтобы выиграть игру, т. Е. Получить наиболее положительные (с наименьшей стоимостью) отзывы. В обучении с подкреплением цель состоит в том, чтобы взвесить сеть (разработать политику) для выполнения действий, которые минимизируют долгосрочные (ожидаемые совокупные) затраты. В каждый момент времени агент выполняет действие, а среда генерирует наблюдение и мгновенную стоимость в соответствии с некоторыми (обычно неизвестными) правилами. Правила и долгосрочную стоимость обычно можно только оценить. В любой момент агент решает, следует ли исследовать новые действия, чтобы раскрыть свои затраты, или использовать предыдущее обучение, чтобы действовать быстрее.

Формально среда моделируется как марковский процесс принятия решений (MDP) с состояниями и действиями . Поскольку переходы между состояниями неизвестны, вместо них используются распределения вероятностей: распределение мгновенных затрат, распределение наблюдений и распределение переходов , в то время как политика определяется как условное распределение по действиям с учетом наблюдений. Взятые вместе, они определяют цепь Маркова (MC). Цель состоит в том, чтобы найти MC с самой низкой стоимостью.

ИНС служат обучающим компонентом в таких приложениях. [55] [56] Динамическое программирование в сочетании с ИНС (обеспечивающее нейродинамическое программирование) [57] применялось к таким проблемам, как маршрутизация транспортных средств , [58] видеоигры, управление природными ресурсами [59] [60] и медицина [ 61] из-за способности ИНС снижать потери точности даже при уменьшении плотности дискретизации сетки для численной аппроксимации решения задач управления. Задачи, которые подпадают под парадигму обучения с подкреплением, - это задачи управления, игры и другие задачи последовательного принятия решений.

Самообучение [ править ]

Самообучение в нейронных сетях было введено в 1982 году вместе с нейронной сетью, способной к самообучению, под названием Crossbar Adaptive Array (CAA). [62] Это система только с одним входом, ситуацией s и только одним выходом, действием (или поведением) a. У него нет ни внешнего совета, ни внешнего подкрепления из окружающей среды. CAA перекрестным образом вычисляет как решения о действиях, так и эмоциях (чувствах) в связи с возникшими ситуациями. Система управляется взаимодействием познания и эмоций. [63] При заданной матрице памяти W = || w (a, s) || алгоритм самообучения перекладины на каждой итерации выполняет следующие вычисления:

 В ситуации s выполните действие a; Получите последствие ситуации s '; Вычислить эмоцию пребывания в последующей ситуации v (s '); Обновить память перекладины w '(a, s) = w (a, s) + v (s').

Ценность обратного распространения (вторичное подкрепление) - это эмоция по отношению к ситуации последствий. CAA существует в двух средах: одна - это поведенческая среда, в которой она ведет себя, а другая - генетическая среда, откуда она изначально и только один раз получает начальные эмоции, которые могут возникнуть в поведенческой среде. Получив вектор генома (вектор видов) из генетической среды, CAA будет изучать стремление к цели в поведенческой среде, которая содержит как желательные, так и нежелательные ситуации. [64]

Другое [ править ]

В байесовской структуре для минимизации затрат выбирается распределение по набору допустимых моделей. Эволюционные методы , [65] программирование экспрессии генов , [66] моделирование отжига , [67] максимизация ожидания , непараметрические методы и оптимизация роя частиц [68] - это другие алгоритмы обучения. Конвергентная рекурсия - это алгоритм обучения нейронных сетей контроллера артикуляции модели мозжечка (CMAC). [69] [70]

Режимы [ править ]

Доступны два режима обучения: стохастический и пакетный. В стохастическом обучении каждый вход создает корректировку веса. При пакетном обучении веса корректируются на основе пакета входных данных, накапливая ошибки по пакету. Стохастическое обучение вносит «шум» в процесс, используя локальный градиент, рассчитанный на основе одной точки данных; это снижает вероятность застревания сети в локальных минимумах. Однако пакетное обучение обычно дает более быстрый и стабильный спуск к локальному минимуму, поскольку каждое обновление выполняется в направлении средней ошибки пакета. Распространенным компромиссом является использование «мини-партий», небольших партий с выборками в каждой партии, выбранными стохастически из всего набора данных.

Типы [ править ]

ИНС превратились в широкое семейство методов, которые продвинули уровень техники во многих областях. Самые простые типы имеют один или несколько статических компонентов, включая количество единиц, количество слоев, веса единиц и топологию . Динамические типы позволяют одному или нескольким из них развиваться в процессе обучения. Последние намного сложнее, но могут сократить периоды обучения и дать лучшие результаты. Некоторые типы позволяют / требуют, чтобы обучение «контролировалось» оператором, в то время как другие работают независимо. Некоторые типы работают исключительно аппаратно, а другие - чисто программно и работают на компьютерах общего назначения.

Некоторые из основных достижений включают: сверточные нейронные сети , которые оказались особенно успешными при обработке визуальных и других двумерных данных; [71] [72] долговременная кратковременная память позволяет избежать проблемы исчезающего градиента [73] и может обрабатывать сигналы, которые содержат сочетание низкочастотных и высокочастотных компонентов, помогая распознавать речь с большим словарным запасом, [74] [75] преобразование текста в синтез речи, [76] [11] [77] и фотореалистичные говорящие головы; [78] конкурентные сети, такие как порождающие враждебные сети внесколько сетей (различной структуры) конкурируют друг с другом в таких задачах, как выигрыш в игре [79] или обман оппонента относительно подлинности входных данных. [80]

Сетевой дизайн [ править ]

Поиск нейронной архитектуры (NAS) использует машинное обучение для автоматизации проектирования ИНС. Различные подходы к NAS позволили разработать сети, которые хорошо сопоставимы с системами, созданными вручную. Базовый алгоритм поиска состоит в том, чтобы предложить модель кандидата, оценить ее по набору данных и использовать результаты в качестве обратной связи для обучения сети NAS. [81] Доступные системы включают AutoML и AutoKeras. [82]

Проблемы проектирования включают определение количества, типа и связности сетевых уровней, а также размера каждого из них и типа соединения (полное, объединение в пул и т. Д.).

Гиперпараметры также должны быть определены как часть дизайна (они не изучаются), управляя такими вопросами, как количество нейронов в каждом слое, скорость обучения, шаг, шаг, глубина, восприимчивое поле и заполнение (для CNN) и т. Д. [ 83]

Используйте [ редактировать ]

Использование искусственных нейронных сетей требует понимания их характеристик.

  • Выбор модели: это зависит от представления данных и приложения. Чрезмерно сложные модели замедляют обучение.
  • Алгоритм обучения: существует множество компромиссов между алгоритмами обучения. Практически любой алгоритм будет хорошо работать с правильными гиперпараметрами для обучения на конкретном наборе данных. Однако выбор и настройка алгоритма обучения на невидимых данных требует значительных экспериментов.
  • Надежность: если модель, функция стоимости и алгоритм обучения выбраны надлежащим образом, полученная ИНС может стать надежной.

Возможности ИНС подпадают под следующие широкие категории: [ необходима цитата ]

  • Аппроксимация функций или регрессионный анализ , включая прогнозирование временных рядов , аппроксимацию пригодности и моделирование.
  • Классификация , включая распознавание образов и последовательностей, обнаружение новизны и последовательное принятие решений. [84]
  • Обработка данных , включая фильтрацию, кластеризацию, слепое разделение источников и сжатие.
  • Робототехника , в том числе управляющие манипуляторы и протезы .

Приложения [ править ]

Благодаря своей способности воспроизводить и моделировать нелинейные процессы искусственные нейронные сети нашли применение во многих дисциплинах. Области применения включают в себя идентификацию системы и контроль (управление автомобилем, траектория предсказания, [85] управление процессом , рациональное использование природных ресурсов ), квантовая химия , [86] Вообще игры играть , [87] распознавание образов (радиолокационные системы, идентификация лица , классификация сигнала, [88] 3D-реконструкция , [89] распознавание объектов и др.), Распознавание последовательности (жест, речь, рукописный текст).и распознавание печатного текста [90] ), медицинская диагностика , финансы [91] (например, автоматизированные торговые системы ), интеллектуальный анализ данных , визуализация, машинный перевод , фильтрация социальных сетей [92] и фильтрация спама в электронной почте . ИНС использовались для диагностики нескольких типов рака [93] [94] и для отличия линий высокоинвазивных раковых клеток от менее инвазивных линий, используя только информацию о форме клеток. [95] [96]

ИНС использовались для ускорения анализа надежности инфраструктуры, подверженной стихийным бедствиям [97] [98], и для прогнозирования оседания фундаментов. [99] ИНС также использовались для построения модели черного ящика в геофизике : гидрология , [100] [101] моделирование океана и прибрежной инженерной , [102] [103] и геоморфологии . [104] ИНС используются для обеспечения кибербезопасности с целью различения законных действий и злонамеренных. Например, машинное обучение использовалось для классификации вредоносных программ для Android [105]для определения доменов, принадлежащих злоумышленникам, и для обнаружения URL-адресов, представляющих угрозу безопасности. [106] В настоящее время проводятся исследования систем ИНС, предназначенных для тестирования на проникновение, обнаружения ботнетов, [107] мошенничества с кредитными картами [108] и сетевых вторжений.

ИНС были предложены в качестве инструмента для решения уравнений в частных производных в физике [109] [110] и моделирования свойств открытых квантовых систем многих тел . [111] [112] [113] [114] В исследованиях мозга ИНС изучали краткосрочное поведение отдельных нейронов , [115] динамика нейронных цепей возникает из взаимодействий между отдельными нейронами и как поведение может возникать из абстрактных нейронных модулей, которые представляют собой полные подсистемы. Исследования рассматривали долгосрочную и краткосрочную пластичность нейронных систем и их связь с обучением и памятью от отдельного нейрона до системного уровня.

Теоретические свойства [ править ]

Вычислительная мощность [ править ]

Многослойный персептрон является универсальной функцией аппроксиматором, как доказано в теореме универсальной аппроксимации . Однако доказательство неконструктивно в отношении количества требуемых нейронов, топологии сети, весов и параметров обучения.

Конкретные рецидивирующий архитектуры с рациональными значными весами (в отличие от полной точности вещественного числа -значного веса) имеют мощность универсальной машины Тьюринга , [116] , используя конечное число нейронов и стандартных линейных соединений. Кроме того, использование иррациональных значений весов приводит к машине с супер- силой Тьюринга . [117]

Емкость [ править ]

Свойство модели «емкость» соответствует ее способности моделировать любую заданную функцию. Это связано с объемом информации, которая может храниться в сети, и с понятием сложности. Сообществу известны два понятия вместимости. Информационная емкость и размерность ВК. Информационная способность перцептрона интенсивно обсуждается в книге сэра Дэвида Маккея [118], которая обобщает работу Томаса Ковер. [119] Пропускная способность сети стандартных нейронов (не сверточной) может быть определена с помощью четырех правил [120], которые вытекают из понимания нейрона как электрического элемента . Информационная емкость охватывает функции, моделируемые сетью при любых данных в качестве входных. Второе понятие - этоРазмер ВК . VC Dimension использует принципы теории меры и находит максимальную пропускную способность при наилучших возможных обстоятельствах. Это при заданных входных данных в определенной форме. Как отмечено в [118], размер виртуального канала для произвольных входов составляет половину информационной емкости персептрона. Размер VC для произвольных точек иногда называют объемом памяти. [121]

Конвергенция [ править ]

Модели могут не сходиться последовательно в одном решении, во-первых, потому что могут существовать локальные минимумы, в зависимости от функции стоимости и модели. Во-вторых, используемый метод оптимизации может не гарантировать сходимости, когда он начинается далеко от любого локального минимума. В-третьих, для достаточно больших данных или параметров некоторые методы становятся непрактичными.

Поведение конвергенции одних типов архитектур ИНС изучено лучше, чем других. Когда ширина сети приближается к бесконечности, ИНС хорошо описывается расширением Тейлора первого порядка на протяжении всего обучения и, таким образом, наследует поведение сходимости аффинных моделей . [122] [123] Другой пример: когда параметры малы, наблюдается, что ИНС часто соответствуют целевым функциям от низких до высоких частот. [124] [125] [126] [127] Это явление противоположно поведению некоторых хорошо изученных итерационных численных схем, таких как метод Якоби .

Обобщение и статистика [ править ]

Приложения, цель которых - создать систему, которая хорошо обобщается на невидимые примеры, сталкиваются с возможностью перетренированности. Это возникает в запутанных или чрезмерно заданных системах, когда пропускная способность сети значительно превышает необходимые свободные параметры. Два подхода к проблеме перетренированности. Первый - использовать перекрестную проверку и аналогичные методы для проверки наличия перетренированности и выбора гиперпараметров для минимизации ошибки обобщения.

Второй - использовать некоторую форму регуляризации . Эта концепция возникает в вероятностной (байесовской) структуре, где регуляризация может быть выполнена путем выбора большей априорной вероятности по сравнению с более простыми моделями; но также и в статистической теории обучения, где цель состоит в том, чтобы минимизировать более двух величин: «эмпирический риск» и «структурный риск», что примерно соответствует ошибке по обучающей выборке и прогнозируемой ошибке в невидимых данных из-за переобучения.

Доверительный анализ нейронной сети

Контролируемые нейронные сети, которые используют функцию стоимости среднеквадратичной ошибки (MSE), могут использовать формальные статистические методы для определения достоверности обученной модели. MSE на проверочном наборе может использоваться как оценка дисперсии. Затем это значение можно использовать для расчета доверительного интервала выходных данных сети, предполагая нормальное распределение . Проведенный таким образом анализ достоверности статистически достоверен, пока выходное распределение вероятностей остается неизменным, а сеть не изменяется.

При назначении SoftMax функции активации , обобщение логистической функции , на выходном слое нейронной сети (или SoftMax компонента в сети на основе компонентов) для категориальных целевых переменных, выходы могут быть интерпретированы как апостериорные вероятности. Это полезно при классификации, поскольку дает определенную степень уверенности в классификациях.

Функция активации softmax:


Критика [ править ]

Обучение [ править ]

Распространенная критика нейронных сетей, особенно в робототехнике, заключается в том, что они требуют слишком большого обучения для работы в реальном мире. [ необходима цитата ] Возможные решения включают случайное перемешивание обучающих примеров с использованием алгоритма численной оптимизации, который не требует слишком больших шагов при изменении сетевых подключений, следуя примеру, группирование примеров в так называемые мини-пакеты и / или введение рекурсивного наименьшего количества алгоритм квадратов для CMAC . [69]

Теория [ править ]

Основное возражение состоит в том, что ИНС недостаточно отражают функцию нейронов. Обратное распространение - критический шаг, хотя такого механизма не существует в биологических нейронных сетях. [128] Неизвестно, как информация кодируется реальными нейронами. ДАТЧИК нейроны огня потенциалы действия более часто с активацией датчика и мышечных клеток тянуть сильнее , когда связанные с ними двигательные нейроны получают потенциалы действия более часто. [129] За исключением случая передачи информации от сенсорного нейрона к двигательному нейрону, почти ничего не известно о принципах обработки информации биологическими нейронными сетями.

Основное требование ИНС - то, что они воплощают новые и мощные общие принципы обработки информации. Эти принципы плохо определены. Часто утверждается, что они возникают из самой сети. Это позволяет описать простую статистическую ассоциацию (основная функция искусственных нейронных сетей) как обучение или распознавание. Александр Дьюдни отметил, что в результате искусственные нейронные сети обладают «бесполезным» качеством, придающим особую ауру лени и явным отсутствием любопытства по поводу того, насколько хороши эти вычислительные системы. Никакой человеческой руки (или разум) вмешивается; решения находят как по волшебству; и никто, кажется, ничему не научился ". [130]Один из ответов Дьюдни заключается в том, что нейронные сети выполняют множество сложных и разнообразных задач, начиная от автономного управления самолетом [131] и заканчивая обнаружением мошенничества с кредитными картами и освоением игры в го .

Писатель-технолог Роджер Бриджмен прокомментировал:

Нейронные сети, например, находятся на скамье подсудимых не только потому, что они были раскручены до небес (а что нет?), Но и потому, что вы можете создать успешную сеть, не понимая, как она работает: набор чисел, который фиксирует ее поведение, по всей вероятности, будет «непрозрачной, нечитаемой таблицей ... бесполезной как научный ресурс».

Несмотря на его решительное заявление о том, что наука - это не технология, Дьюдни, кажется, здесь называет нейронные сети плохой наукой, когда большинство из тех, кто их разрабатывает, просто пытаются стать хорошими инженерами. Нечитаемую таблицу, которую могла бы прочитать полезная машина, все равно стоило бы иметь. [132]

Биологический мозг использует как мелкие, так и глубокие цепи, как сообщает анатомия мозга [133], демонстрируя широкий спектр инвариантности. Weng [134] утверждал, что мозг самонастраивается в основном в соответствии со статистикой сигналов, и поэтому последовательный каскад не может уловить все основные статистические зависимости.

Оборудование [ править ]

Большие и эффективные нейронные сети требуют значительных вычислительных ресурсов. [135] В то время как в мозгу есть оборудование, адаптированное к задаче обработки сигналов через граф нейронов, моделирование даже упрощенного нейрона на архитектуре фон Неймана может потреблять огромные объемы памяти и хранилища. Кроме того, разработчику часто требуется передавать сигналы через многие из этих соединений и связанных с ними нейронов, что требует огромной мощности и времени процессора .

Шмидхубер отметил, что возрождение нейронных сетей в двадцать первом веке в значительной степени связано с достижениями в области аппаратного обеспечения: с 1991 по 2015 год вычислительная мощность, особенно предоставляемая GPGPU (на графических процессорах ), увеличилась примерно в миллион раз, в результате чего стандартный алгоритм обратного распространения ошибки возможен для обучающих сетей, которые на несколько уровней глубже, чем раньше. [8] Использование ускорителей, таких как ПЛИС и графические процессоры, может сократить время обучения с месяцев до дней. [136] [135]

Нейроморфная инженерия напрямую решает аппаратные трудности, создавая не-фон-Нейманские микросхемы для непосредственной реализации нейронных сетей в схемах. Другой тип микросхемы, оптимизированный для обработки нейронных сетей, называется Tensor Processing Unit или TPU. [137]

Практические контрпримеры [ править ]

Анализировать то, что было изучено с помощью ИНС, намного проще, чем анализировать то, что было изучено биологической нейронной сетью. Кроме того, исследователи, занимающиеся изучением алгоритмов обучения нейронных сетей, постепенно открывают общие принципы, которые позволяют машине обучения быть успешной. Например, локальное и нелокальное обучение, мелкая или глубокая архитектура. [138]

Гибридные подходы [ править ]

Сторонники гибридных моделей (сочетающих нейронные сети и символические подходы) утверждают, что такая смесь может лучше охватить механизмы человеческого разума. [139] [140]

Галерея [ править ]

  • Однослойная искусственная нейронная сеть с прямой связью. Стрелки, идущие от , опущены для ясности. У этой сети p входов и q выходов. В этой системе значение q-го выхода будет рассчитываться как

  • Двухслойная искусственная нейронная сеть с прямой связью.

  • Искусственная нейронная сеть.

  • Граф зависимости ИНС.

  • Однослойная искусственная нейронная сеть с прямой связью с 4 входами, 6 скрытыми и 2 выходами. Заданное состояние положения и направления выводит управляющие значения на основе колеса.

  • Двухуровневая искусственная нейронная сеть с прямой связью с 8 входами, 2x8 скрытыми и 2 выходами. При заданном состоянии положения, направлении и других значениях среды выводятся управляющие значения на основе двигателя.

  • Параллельная конвейерная структура нейронной сети CMAC. Этот алгоритм обучения может сходиться за один шаг.

См. Также [ править ]

  • Пределы большой ширины нейронных сетей
  • Иерархическая временная память
  • 20Q
  • АДАЛИН
  • Теория адаптивного резонанса
  • Искусственная жизнь
  • Ассоциативная память
  • Автоэнкодер
  • BEAM робототехника
  • Биологическая кибернетика
  • Биологически вдохновленные вычисления
  • Проект Голубой мозг
  • Катастрофическое вмешательство
  • Контроллер артикуляции модели мозжечка (CMAC)
  • Когнитивная архитектура
  • Наука о мышлении
  • Сверточная нейронная сеть (CNN)
  • Коннекционистская экспертная система
  • Коннектомика
  • Культивированные нейронные сети
  • Глубокое обучение
  • Дифференцируемое программирование
  • Encog
  • Нечеткая логика
  • Программирование экспрессии генов
  • Генетический алгоритм
  • Генетическое программирование
  • Групповой метод обработки данных
  • Привыкание
  • Адаптивное табулирование на месте
  • Концепции машинного обучения
  • Модели нейронных вычислений
  • Нейроэволюция
  • Нейронное кодирование
  • Нейронный газ
  • Нейронный машинный перевод
  • Программное обеспечение нейронной сети
  • Неврология
  • Идентификация нелинейной системы
  • Оптическая нейронная сеть
  • Параллельные процессы удовлетворения ограничений
  • Параллельная распределенная обработка
  • Сеть радиальных базисных функций
  • Рекуррентные нейронные сети
  • Самоорганизующаяся карта
  • Пиковая нейронная сеть
  • Систолический массив
  • Сеть тензорных продуктов
  • Нейронная сеть с временной задержкой (TDNN)

Ссылки [ править ]

  1. ^ Чен, Юнг-Яо; Линь Юй-Сю; Кунг, Чиа-Цзин; Чунг, Мин-Хан; Йен, И.-Сюань (январь 2019). «Разработка и внедрение интеллектуальных счетчиков электроэнергии на основе облачной аналитики с учетом передового искусственного интеллекта в качестве пограничной аналитики в управлении спросом для умных домов» . Датчики . 19 (9): 2047. DOI : 10,3390 / s19092047 . PMC  6539684 . PMID  31052502 .
  2. ^ Маккаллох, Уоррен; Уолтер Питтс (1943). «Логический расчет идей, присущих нервной деятельности». Вестник математической биофизики . 5 (4): 115–133. DOI : 10.1007 / BF02478259 .
  3. Перейти ↑ Kleene, SC (1956). «Представление событий в нервных сетях и конечных автоматах» . Анналы математических исследований (34). Издательство Принстонского университета. С. 3–41 . Проверено 17 июня 2017 года .
  4. ^ Хебб, Дональд (1949). Организация поведения . Нью-Йорк: Вили. ISBN 978-1-135-63190-1.
  5. ^ Фарли, BG; У. А. Кларк (1954). «Моделирование самоорганизующихся систем с помощью цифрового компьютера». Сделки IRE по теории информации . 4 (4): 76–84. DOI : 10.1109 / TIT.1954.1057468 .
  6. ^ Розенблатт, Ф. (1958). «Персептрон: вероятностная модель для хранения и организации информации в мозге». Психологический обзор . 65 (6): 386–408. CiteSeerX 10.1.1.588.3775 . DOI : 10.1037 / h0042519 . PMID 13602029 .  
  7. ^ Werbos, PJ (1975). За пределами регрессии: новые инструменты для прогнозирования и анализа в поведенческих науках .
  8. ^ a b c Шмидхубер, Дж. (2015). «Глубокое обучение в нейронных сетях: обзор». Нейронные сети . 61 : 85–117. arXiv : 1404,7828 . DOI : 10.1016 / j.neunet.2014.09.003 . PMID 25462637 . S2CID 11715509 .  
  9. Ивахненко, АГ (1973). Кибернетические предсказательные устройства . Информационная корпорация СКК.
  10. ^ Ивахненко, АГ; Григорьевич Лапа, Валентин (1967). Кибернетика и методы прогнозирования . Американский паб Elsevier. Co.
  11. ^ a b c Шмидхубер, Юрген (2015). «Глубокое обучение» . Scholarpedia . 10 (11): 85–117. Bibcode : 2015SchpJ..1032832S . DOI : 10,4249 / scholarpedia.32832 .
  12. Дрейфус, Стюарт Э. (1 сентября 1990 г.). «Искусственные нейронные сети, обратное распространение и процедура градиента Келли-Брайсона». Журнал наведения, управления и динамики . 13 (5): 926–928. Bibcode : 1990JGCD ... 13..926D . DOI : 10.2514 / 3.25422 . ISSN 0731-5090 . 
  13. ^ Mizutani, E .; Дрейфус, ЮВ ; Нисио, К. (2000). «О выводе обратного распространения MLP из формулы градиента оптимального управления Келли-Брайсона и ее применении». Труды международной совместной конференции IEEE-INNS-ENNS по нейронным сетям. IJCNN 2000. Нейронные вычисления: новые вызовы и перспективы нового тысячелетия . IEEE: 167–172, том 2. DOI : 10.1109 / ijcnn.2000.857892 . ISBN 0-7695-0619-4. S2CID  351146 .
  14. ^ Келли, Генри Дж. (1960). «Градиентная теория оптимальных траекторий полета». Журнал ARS . 30 (10): 947–954. DOI : 10.2514 / 8.5282 .
  15. ^ «Градиентный метод для оптимизации процессов многоэтапного распределения». Труды Гарвардского унив. Симпозиум по цифровым компьютерам и их приложениям . Апрель 1961 г.
  16. ^ Linnainmaa, Сеппо (1970). Представление совокупной ошибки округления алгоритма в виде разложения Тейлора локальных ошибок округления (Masters) (на финском языке). Университет Хельсинки. С. 6–7.
  17. ^ Linnainmaa, Сеппо (1976). «Разложение Тейлора накопленной ошибки округления». BIT Численная математика . 16 (2): 146–160. DOI : 10.1007 / bf01931367 . S2CID 122357351 . 
  18. ^ Дрейфус, Стюарт (1973). «Вычислительное решение задач оптимального управления с запаздыванием». IEEE Transactions по автоматическому контролю . 18 (4): 383–385. DOI : 10,1109 / tac.1973.1100330 .
  19. ^ Werbos, Paul (1982). «Применение достижений в нелинейном анализе чувствительности» (PDF) . Системное моделирование и оптимизация . Springer. С. 762–770.
  20. ^ Минский, Марвин; Паперт, Сеймур (1969). Персептроны: введение в вычислительную геометрию . MIT Press. ISBN 978-0-262-63022-1.
  21. ^ Мид, Карвер А .; Исмаил, Мохаммед (8 мая 1989 г.). Аналоговая реализация нейронных систем на СБИС (PDF) . Kluwer International Series в области инженерии и информатики. 80 . Норвелл, Массачусетс: Kluwer Academic Publishers . DOI : 10.1007 / 978-1-4613-1639-8 . ISBN  978-1-4613-1639-8.
  22. Дэвид Э. Рамелхарт, Джеффри Э. Хинтон и Рональд Дж. Уильямс, « Изучение представлений с помощью обратного распространения ошибок », Nature ', 323, страницы 533–536 1986.
  23. ^ J. Вэн, Н. Ахадж и Т. С. Хуанг, « Cresceptron: самоорганизующаяся нейронная сеть , которая растет адаптивно ,» Proc. Международная объединенная конференция по нейронным сетям , Балтимор, Мэриленд, том I, стр. 576–581, июнь 1992 г.
  24. J. Weng, N. Ahuja и TS Huang, " Обучение распознаванию и сегментации трехмерных объектов из двумерных изображений ", Proc. 4-я Международная конф. Компьютерное зрение , Берлин, Германия, стр. 121–128, май 1993 г.
  25. ^ Дж. Венг, Н. Ахуджа и Т.С. Хуанг, « Распознавание обучения и сегментация с использованием Cresceptron », Международный журнал компьютерного зрения , вып. 25, нет. 2. С. 105–139, ноябрь 1997 г.
  26. J. Schmidhuber., « Обучающие сложные, расширенные последовательности с использованием принципа сжатия истории », Neural Computing , 4, pp. 234–242, 1992.
  27. ^ Смоленский, П. (1986). «Обработка информации в динамических системах: основы теории гармонии». . В DE Rumelhart; JL McClelland; Исследовательская группа PDP (ред.). Параллельная распределенная обработка: исследования микроструктуры познания . 1 . С.  194–281 . ISBN 978-0-262-68053-0.
  28. ^ Нг, Эндрю; Дин, Джефф (2012). «Создание высокоуровневых функций с использованием крупномасштабного обучения без учителя». arXiv : 1112.6209 [ cs.LG ].
  29. Ян Гудфеллоу, Йошуа Бенжио и Аарон Курвиль (2016). Глубокое обучение . MIT Press.
  30. ^ Cireşan, Дэн Клаудиу; Мейер, Ули; Гамбарделла, Лука Мария; Шмидхубер, Юрген (21 сентября 2010 г.). «Глубокие, большие, простые нейронные сети для распознавания рукописных цифр». Нейронные вычисления . 22 (12): 3207–3220. arXiv : 1003.0358 . DOI : 10.1162 / neco_a_00052 . ISSN 0899-7667 . PMID 20858131 . S2CID 1918673 .   
  31. ^ Доминик Шерер, Андреас К. Мюллер и Свен Бенке: « Оценка операций объединения в сверточные архитектуры для распознавания объектов », на 20-й Международной конференции по искусственным нейронным сетям (ICANN) , стр. 92–101, 2010 г. doi : 10.1007 / 978 -3-642-15825-4_10 .
  32. ^ 2012 Курцвейл AI Интервью архивации 31 августа 2018 в Wayback Machine с Юргеном Шмидхубером на восемь соревнованиях выиграли его командой Deep Learning 2009-2012
  33. ^ «Как глубокое обучение, вдохновленное биологией, продолжает побеждать в соревнованиях | KurzweilAI» . www.kurzweilai.net . Архивировано из оригинального 31 августа 2018 года . Проверено 16 июня 2017 года .
  34. ^ Грейвс, Алекс; и Шмидхубер, Юрген; Автономное распознавание рукописного ввода с помощью многомерных рекуррентных нейронных сетей , Бенжио, Йошуа; Шурманс, Дейл; Лафферти, Джон; Уильямс, Крис К.И.; и Кулотта, Арон (ред.), « Достижения в системах обработки нейронной информации» 22 (NIPS'22), 7–10 декабря 2009 г., Ванкувер, Британская Колумбия, Фонд нейронных систем обработки информации (NIPS), 2009 г., стр. 545–552.
  35. ^ a b Graves, A .; Liwicki, M .; Fernandez, S .; Bertolami, R .; Bunke, H .; Шмидхубер, Дж. (2009). «Новая система коннекционистов для улучшения неограниченного распознавания рукописного ввода» (PDF) . IEEE Transactions по анализу шаблонов и машинному анализу . 31 (5): 855–868. CiteSeerX 10.1.1.139.4502 . DOI : 10.1109 / tpami.2008.137 . PMID 19299860 . S2CID 14635907 .    
  36. ^ a b Грейвс, Алекс; Шмидхубер, Юрген (2009). Бенхио, Йошуа; Шурманс, Дейл; Лафферти, Джон; Уильямс, Крис редактор-KI; Кулотта, Арон (ред.). «Распознавание рукописного ввода в автономном режиме с помощью многомерных рекуррентных нейронных сетей» . Фонд нейронных систем обработки информации (NIPS) . Curran Associates, Inc: 545–552.
  37. ^ Graves, A .; Liwicki, M .; Fernández, S .; Bertolami, R .; Bunke, H .; Шмидхубер, Дж. (Май 2009 г.). «Новая система коннекционистов для неограниченного распознавания почерка». IEEE Transactions по анализу шаблонов и машинному анализу . 31 (5): 855–868. CiteSeerX 10.1.1.139.4502 . DOI : 10.1109 / tpami.2008.137 . ISSN 0162-8828 . PMID 19299860 . S2CID 14635907 .    
  38. ^ Чиресан, Дан; Meier, U .; Шмидхубер, Дж. (Июнь 2012 г.). Многоколоночные глубокие нейронные сети для классификации изображений . Конференция IEEE 2012 года по компьютерному зрению и распознаванию образов . С. 3642–3649. arXiv : 1202.2745 . Bibcode : 2012arXiv1202.2745C . CiteSeerX 10.1.1.300.3283 . DOI : 10.1109 / cvpr.2012.6248110 . ISBN  978-1-4673-1228-8. S2CID  2161592 .
  39. ^ a b c d Зелл, Андреас (2003). «глава 5.2». Симуляционный нейроналер Нетце [ Моделирование нейронных сетей ] (на немецком языке) (1-е изд.). Эддисон-Уэсли. ISBN 978-3-89319-554-1. OCLC  249017987 .
  40. ^ Искусственный интеллект (3-е изд.). Аддисон-Уэсли Паб. Co., 1992. ISBN. 0-201-53377-4.
  41. ^ "Словарь машинного обучения" . www.cse.unsw.edu.au . Архивировано из оригинального 26 августа 2018 года . Проверено 4 ноября 2009 года .
  42. ^ Abbod, Maysam F (2007). «Применение искусственного интеллекта для лечения урологического рака». Журнал урологии . 178 (4): 1150–1156. DOI : 10.1016 / j.juro.2007.05.122 . PMID 17698099 . 
  43. ^ ДОУСОН, КРИСТИАН В (1998). «Подход искусственной нейронной сети к моделированию дождевых стоков». Журнал гидрологических наук . 43 (1): 47–66. DOI : 10.1080 / 02626669809492102 .
  44. ^ Чиресан, Дан; Ули Мейер; Джонатан Маши; Лука М. Гамбарделла; Юрген Шмидхубер (2011). «Гибкие, высокопроизводительные сверточные нейронные сети для классификации изображений» (PDF) . Труды двадцать второй международной совместной конференции по искусственному интеллекту - Том второй . 2 : 1237–1242 . Проверено 17 ноября 2013 года .
  45. ^ Зелл, Андреас (1994). Simulation Neuronaler Netze [ Моделирование нейронных сетей ] (на немецком языке) (1-е изд.). Эддисон-Уэсли. п. 73. ISBN 3-89319-554-8.
  46. ^ Miljanović, Милош (февраль-март 2012). «Сравнительный анализ нейронных сетей с рекуррентным и конечным импульсным откликом в прогнозировании временных рядов» (PDF) . Индийский журнал компьютеров и инженерии . 3 (1).
  47. Лау, Суки (10 июля 2017 г.). «Обзор сверточной нейронной сети - настройка гиперпараметров» . Средний . Проверено 23 августа 2019 .
  48. ^ Li, Y .; Fu, Y .; Li, H .; Zhang, SW (1 июня 2009 г.). Улучшенный алгоритм обучения нейронной сети обратного распространения с самоадаптивной скоростью обучения . 2009 Международная конференция по вычислительному интеллекту и естественным вычислениям . 1 . С. 73–76. DOI : 10,1109 / CINC.2009.111 . ISBN 978-0-7695-3645-3. S2CID  10557754 .
  49. ^ Хуанг, Гуан-Бинь; Чжу, Цинь-Ю; Сью, Чи-Кхеонг (2006). «Экстремальная обучающая машина: теория и приложения». Нейрокомпьютеры . 70 (1): 489–501. CiteSeerX 10.1.1.217.3692 . DOI : 10.1016 / j.neucom.2005.12.126 . 
  50. ^ Видроу, Бернард; и другие. (2013). «Алгоритм без пропуска: новый алгоритм обучения для многослойных нейронных сетей». Нейронные сети . 37 : 182–188. DOI : 10.1016 / j.neunet.2012.09.020 . PMID 23140797 . 
  51. ^ Оливье, Янн; Шарпи, Гийом (2015). «Обучение рекуррентных сетей без возврата». arXiv : 1507.07680 [ cs.NE ].
  52. ^ ESANN. 2009 г.
  53. Перейти ↑ Hinton, GE (2010). «Практическое руководство по обучению ограниченных машин Больцмана» . Tech. Отчет UTML TR 2010-003 .
  54. ^ Ojha, Varun Kumar; Авраам, Аджит; Снашель, Вацлав (1 апреля 2017 г.). «Метаэвристический дизайн нейронных сетей прямого распространения: обзор двух десятилетий исследований». Инженерные приложения искусственного интеллекта . 60 : 97–116. arXiv : 1705.05584 . Bibcode : 2017arXiv170505584O . DOI : 10.1016 / j.engappai.2017.01.013 . S2CID 27910748 . 
  55. ^ Доминик, S .; Das, R .; Whitley, D .; Андерсон, К. (июль 1991 г.). «Генетическое обучение с подкреплением для нейронных сетей» . IJCNN-91-Сиэтл Международная совместная конференция по нейронным сетям . IJCNN-91-Сиэтл Международная совместная конференция по нейронным сетям. Сиэтл, Вашингтон, США: IEEE. DOI : 10.1109 / IJCNN.1991.155315 . ISBN 0-7803-0164-1.
  56. ^ Хоскинс, JC; Химмельблау, DM (1992). «Управление процессами с помощью искусственных нейронных сетей и обучения с подкреплением». Компьютеры и химическая инженерия . 16 (4): 241–251. DOI : 10.1016 / 0098-1354 (92) 80045-B .
  57. ^ Берцекас, Д.П .; Цициклис, JN (1996). Нейродинамическое программирование . Афина Сайентифик. п. 512. ISBN 978-1-886529-10-6.
  58. ^ Secomandi, Nicola (2000). «Сравнение алгоритмов нейродинамического программирования для задачи маршрутизации транспортных средств со стохастическими требованиями». Компьютеры и исследования операций . 27 (11–12): 1201–1225. CiteSeerX 10.1.1.392.4034 . DOI : 10.1016 / S0305-0548 (99) 00146-X . 
  59. ^ де Риго, D .; Риццоли, AE; Soncini-Sessa, R .; Weber, E .; Зенези, П. (2001). «Нейродинамическое программирование для эффективного управления сетями коллектора». Материалы Международного конгресса по моделированию и имитационному моделированию MODSIM 2001 . MODSIM 2001, Международный конгресс по моделированию и имитационному моделированию . Канберра, Австралия: Общество моделирования и моделирования Австралии и Новой Зеландии. DOI : 10.5281 / zenodo.7481 . ISBN 0-86740-525-2.
  60. ^ Damas, M .; Salmeron, M .; Diaz, A .; Ортега, Дж .; Прието, А .; Оливарес, Г. (2000). «Генетические алгоритмы и нейродинамическое программирование: приложение к водопроводным сетям». Труды Конгресса 2000 г. по эволюционным вычислениям . 2000 Конгресс по эволюционным вычислениям. Ла-Хойя, Калифорния, США: IEEE. DOI : 10,1109 / CEC.2000.870269 . ISBN 0-7803-6375-2.
  61. ^ Дэн, Гэн; Феррис, MC (2008). Нейродинамическое программирование для планирования фракционной лучевой терапии . Оптимизация Springer и ее приложения. 12 . С. 47–70. CiteSeerX 10.1.1.137.8288 . DOI : 10.1007 / 978-0-387-73299-2_3 . ISBN  978-0-387-73298-5.
  62. ^ Bozinovski, S. (1982). «Самообучающаяся система с использованием вторичного подкрепления». В Р. Траппл (ред.) Кибернетика и системные исследования: материалы шестого Европейского совещания по кибернетике и системным исследованиям. Северная Голландия. С. 397–402. ISBN 978-0-444-86488-8 . 
  63. ^ Bozinovski, S. (2014) « Моделирование механизмов когнитивно-эмоциональное взаимодействие в искусственных нейронных сетях, начиная с 1981 года .» Процедуры информатики с. 255-263
  64. ^ Божиновски, Стево; Божиновская, Лиляна (2001). «Самообучающиеся агенты: коннекционистская теория эмоций, основанная на перекрестных оценочных суждениях». Кибернетика и системы . 32 (6): 637–667. DOI : 10.1080 / 01969720118145 . S2CID 8944741 . 
  65. ^ де Риго, D .; Castelletti, A .; Риццоли, AE; Soncini-Sessa, R .; Вебер, Э. (январь 2005 г.). «Методика выборочного улучшения для закрепления нейродинамического программирования в управлении сетью водных ресурсов» . У Павла Зитека (ред.). Материалы 16-го Всемирного конгресса МФБ - IFAC-PapersOnLine . 16-й Всемирный Конгресс МФБ . 16 . Прага, Чешская Республика: IFAC. DOI : 10,3182 / 20050703-6-CZ-1902,02172 . ЛВП : 11311/255236 . ISBN 978-3-902661-75-3. Проверено 30 декабря 2011 года .
  66. Перейти ↑ Ferreira, C. (2006). «Проектирование нейронных сетей с использованием программирования экспрессии генов» (PDF) . В A. Abraham, B. de Baets, M. Köppen, and B. Nickolay, eds., Applied Soft Computing Technologies: The Challenge of Complex, стр. 517–536, Springer-Verlag.
  67. ^ Da, Y .; Сюрун, Г. (июль 2005 г.). Т. Вилльманн (ред.). Усовершенствованная ИНС на основе PSO с имитацией отжига . Новые аспекты нейрокомпьютинга: 11-й Европейский симпозиум по искусственным нейронным сетям . Эльзевир. DOI : 10.1016 / j.neucom.2004.07.002 .
  68. ^ Wu, J .; Чен, Э. (май 2009 г.). Wang, H .; Shen, Y .; Huang, T .; Цзэн, З. (ред.). Новый ансамбль непараметрической регрессии для прогнозирования осадков с использованием метода оптимизации роя частиц в сочетании с искусственной нейронной сетью . 6-й Международный симпозиум по нейронным сетям, ISNN 2009 . Springer. DOI : 10.1007 / 978-3-642-01513-7-6 . ISBN 978-3-642-01215-0.
  69. ^ а б Тин Цинь и др. « Алгоритм обучения CMAC на основе RLS ». Письма о нейронной обработке 19.1 (2004): 49–61.
  70. ^ Тинг Цинь и др. « Непрерывный CMAC-QRLS и его систолический массив ». Письма о нейронной обработке 22.1 (2005): 1–16.
  71. ^ LeCun et al. , «Обратное распространение, применяемое для распознавания рукописного почтового индекса», Нейронные вычисления , 1, стр. 541–551, 1989.
  72. ^ Лекун (2016). Слайды по глубокому обучению в Интернете
  73. ^ Хохрайтер, Зепп ; Шмидхубер, Юрген (1 ноября 1997 г.). «Кратковременная долговременная память». Нейронные вычисления . 9 (8): 1735–1780. DOI : 10.1162 / neco.1997.9.8.1735 . ISSN 0899-7667 . PMID 9377276 . S2CID 1915014 .   
  74. ^ Сак, Хасим; Старший, Андрей; Бофэ, Франсуаза (2014). «Рекуррентные архитектуры нейронных сетей с кратковременной памятью для крупномасштабного акустического моделирования» (PDF) . Архивировано из оригинального (PDF) 24 апреля 2018 года.
  75. ^ Ли, Сянган; У, Сихун (15 октября 2014 г.). «Построение глубоких рекуррентных нейронных сетей на основе кратковременной памяти для распознавания речи с большим словарным запасом». arXiv : 1410.4281 [ cs.CL ].
  76. ^ Fan, Y .; Qian, Y .; Xie, F .; Сунг, ФК (2014). «Синтез TTS с двунаправленными рекуррентными нейронными сетями на основе LSTM» . Материалы ежегодной конференции Международной ассоциации речевой коммуникации, Interspeech : 1964–1968 . Дата обращения 13 июня 2017 .
  77. ^ Дзен, Хейга; Сак, Хасим (2015). «Однонаправленная рекуррентная нейронная сеть с кратковременной памятью и рекуррентным выходным уровнем для синтеза речи с малой задержкой» (PDF) . Google.com . ICASSP. С. 4470–4474.
  78. ^ Фан, Бо; Ван, Лицзюань; Сунг, Фрэнк К .; Се, Лэй (2015). «Говорящая голова с реальным фото и глубоким двунаправленным LSTM» (PDF) . Труды ICASSP .
  79. Сильвер, Дэвид ; Хьюберт, Томас; Шриттвизер, Джулиан; Антоноглоу, Иоаннис; Лай, Мэтью; Гез, Артур; Ланкто, Марк; Сифре, Лоран; Кумаран, Дхаршан ; Грэпель, Тор; Лилликрап, Тимоти; Симонян, Карен; Хассабис, Демис (5 декабря 2017 г.). «Освоение шахмат и сёги путем самостоятельной игры с использованием общего алгоритма обучения с подкреплением». arXiv : 1712.01815 [ cs.AI ].
  80. ^ Goodfellow, Ян; Пуже-Абади, Жан; Мирза, Мехди; Сюй, Бинг; Вард-Фарли, Дэвид; Озаир, Шерджил; Курвиль, Аарон; Бенжио, Йошуа (2014). Генеративные состязательные сети (PDF) . Труды Международной конференции по системам обработки нейронной информации (NIPS 2014). С. 2672–2680.
  81. ^ Зоф, Баррет; Ле, Куок В. (4 ноября 2016 г.). «Поиск нейронной архитектуры с обучением с подкреплением». arXiv : 1611.01578 [ cs.LG ].
  82. ^ "AutoKeras" . autokeras.com . Проверено 21 августа 2019 .
  83. ^ «Клезен, Марк и Барт Де Моор.« Поиск гиперпараметров в машинном обучении ». Препринт arXiv arXiv: 1502.02127 (2015)». arXiv : 1502.02127 . Bibcode : 2015arXiv150202127C .
  84. Турек, Фред Д. (март 2007 г.). «Введение в машинное зрение нейронной сети» . Дизайн систем зрения . 12 (3) . Проверено 5 марта 2013 года .
  85. ^ Zissis, Димитриос (октябрь 2015). «Облачная архитектура, способная воспринимать и прогнозировать поведение нескольких судов» . Прикладные программные вычисления . 35 : 652–661. DOI : 10.1016 / j.asoc.2015.07.002 .
  86. ^ Роман М. Балабин ; Екатерина Ивановна Ломакина (2009). «Нейросетевой подход к данным квантовой химии: точное предсказание энергий теории функционала плотности». J. Chem. Phys. 131 (7): 074104. Bibcode : 2009JChPh.131g4104B . DOI : 10.1063 / 1.3206326 . PMID 19708729 .  
  87. Сильвер, Дэвид; и другие. (2016). «Освоение игры в го с помощью глубоких нейронных сетей и поиска по дереву» (PDF) . Природа . 529 (7587): 484–9. Bibcode : 2016Natur.529..484S . DOI : 10,1038 / природа16961 . PMID 26819042 . S2CID 515925 .   
  88. ^ Сенгупта, Нандини; Сахидулла, штат Мэриленд; Саха, Гоутам (август 2016 г.). «Классификация легочных звуков с использованием статистических характеристик на основе кепстрала». Компьютеры в биологии и медицине . 75 (1): 118–129. DOI : 10.1016 / j.compbiomed.2016.05.013 . PMID 27286184 . 
  89. ^ Чой, Кристофер Б. и др. « 3d-r2n2: единый подход к одно- и многовидовой реконструкции трехмерных объектов ». Европейская конференция по компьютерному зрению. Спрингер, Чам, 2016.
  90. ^ Майтра, DS; Bhattacharya, U .; Паруи, СК (август 2015 г.). «Общий подход на основе CNN к распознаванию рукописных символов в нескольких сценариях» . 2015 13-я Международная конференция по анализу и распознаванию документов (ICDAR) : 1021–1025. DOI : 10.1109 / ICDAR.2015.7333916 .
  91. ^ Французский, Иордания (2016). "CAPM путешественника во времени". Журнал инвестиционных аналитиков . 46 (2): 81–96. DOI : 10.1080 / 10293523.2016.1255469 . S2CID 157962452 . 
  92. ^ Schechner, Сэм (15 июня 2017). «Facebook усиливает ИИ, чтобы блокировать террористическую пропаганду» . Wall Street Journal . ISSN 0099-9660 . Проверено 16 июня 2017 года . 
  93. ^ Ganesan, N (2010). «Применение нейронных сетей в диагностике онкологических заболеваний с использованием демографических данных» . Международный журнал компьютерных приложений . 1 (26): 81–97. Bibcode : 2010IJCA .... 1z..81G . DOI : 10.5120 / 476-783 .
  94. ^ Bottaci, Леонардо (1997). «Искусственные нейронные сети, применяемые для прогнозирования результатов для пациентов с колоректальным раком в отдельных учреждениях» (PDF) . Ланцет . Ланцет. 350 (9076): 469–72. DOI : 10.1016 / S0140-6736 (96) 11196-X . PMID 9274582 . S2CID 18182063 . Архивировано из оригинального (PDF) 23 ноября 2018 года . Проверено 2 мая 2012 года .   
  95. ^ Ализаде, Elaheh; Lyons, Samanthe M; Замок, Иордания M; Прасад, Ашок (2016). «Измерение систематических изменений формы инвазивных раковых клеток с использованием моментов Зернике» . Интегративная биология . 8 (11): 1183–1193. DOI : 10.1039 / C6IB00100A . PMID 27735002 . 
  96. ^ Lyons, Samanthe (2016). «Изменения формы клеток коррелируют с метастатическим потенциалом у мышей» . Биология открытая . 5 (3): 289–299. DOI : 10.1242 / bio.013409 . PMC 4810736 . PMID 26873952 .  
  97. ^ Набиан, Мохаммад Амин; Мейдани, Хади (28 августа 2017 г.). «Глубокое обучение для ускоренного анализа надежности инфраструктурных сетей». Компьютерное проектирование строительства и инфраструктуры . 33 (6): 443–458. arXiv : 1708.08551 . Bibcode : 2017arXiv170808551N . DOI : 10.1111 / mice.12359 . S2CID 36661983 . 
  98. ^ Набиан, Мохаммад Амин; Мейдани, Хади (2018). «Ускорение стохастической оценки связности транспортной сети после землетрясения с помощью суррогатов на основе машинного обучения» . 97-е ежегодное собрание Совета по исследованиям в области транспорта .
  99. ^ Díaz, E .; Бротоны, В .; Томас, Р. (сентябрь 2018 г.). «Использование искусственных нейронных сетей для прогнозирования трехмерной упругой осадки фундаментов на грунтах с наклонным основанием» . Почвы и фундаменты . 58 (6): 1414–1422. DOI : 10.1016 / j.sandf.2018.08.001 . ЛВП : 10045/81208 . ISSN 0038-0806 . 
  100. ^ null null (1 апреля 2000 г.). «Искусственные нейронные сети в гидрологии. I: Предварительные концепции». Журнал гидрологической инженерии . 5 (2): 115–123. CiteSeerX 10.1.1.127.3861 . DOI : 10.1061 / (ASCE) 1084-0699 (2000) 5: 2 (115) . 
  101. ^ null null (1 апреля 2000 г.). "Искусственные нейронные сети в гидрологии. II: Гидрологические приложения". Журнал гидрологической инженерии . 5 (2): 124–137. DOI : 10.1061 / (ASCE) 1084-0699 (2000) 5: 2 (124) .
  102. ^ Перес, DJ; Iuppa, C .; Cavallaro, L .; Cancelliere, A .; Фоти, Э. (1 октября 2015 г.). «Значительное расширение рекордов высоты волны с помощью нейронных сетей и данных повторного анализа ветра». Моделирование океана . 94 : 128–140. Bibcode : 2015OcMod..94..128P . DOI : 10.1016 / j.ocemod.2015.08.002 .
  103. ^ Дваракиш, GS; Ракшит, Шетти; Натесан, Уша (2013). «Обзор приложений нейронной сети в прибрежной инженерии» . Системы искусственного интеллекта и машинное обучение . 5 (7): 324–331.
  104. ^ Эрмини, Леонардо; Катани, Филиппо; Касагли, Никола (1 марта 2005 г.). «Искусственные нейронные сети, применяемые для оценки предрасположенности к оползням». Геоморфология . Геоморфологическая опасность и антропогенное воздействие в горной среде. 66 (1): 327–343. Bibcode : 2005Geomo..66..327E . DOI : 10.1016 / j.geomorph.2004.09.025 .
  105. ^ Nix, R .; Чжан, Дж. (Май 2017 г.). «Классификация Android-приложений и вредоносных программ с использованием глубоких нейронных сетей». Международная совместная конференция по нейронным сетям (IJCNN) 2017 : 1871–1878. DOI : 10.1109 / IJCNN.2017.7966078 . ISBN 978-1-5090-6182-2. S2CID  8838479 .
  106. ^ «Обнаружение вредоносных URL-адресов» . Группа по системам и сетям в UCSD . Архивировано из оригинала 14 июля 2019 года . Проверено 15 февраля 2019 .
  107. ^ Хомаюн, Саджад; Ахмадзаде, Марзие; Хашеми, Саттар; Дехгантанха, Али; Хайями, Рауф (2018), Дехгантанья, Али; Конти, Мауро; Даргахи, Tooska (ред.), "BoTShark: Глубокий подход к обучению для ботнетов обнаружения движения", кибер - угроза разведки , достижения в области информационной безопасности, Springer International Publishing, С. 137-153,. DOI : 10.1007 / 978-3-319- 73951-9_7 , ISBN 978-3-319-73951-9
  108. ^ и (январь 1994 г.). «Обнаружение мошенничества с кредитными картами с помощью нейронной сети». 1994 Труды Двадцать седьмой Гавайской международной конференции по системным наукам . 3 : 621–630. DOI : 10.1109 / HICSS.1994.323314 . ISBN 978-0-8186-5090-1. S2CID  13260377 .
  109. ^ «ИИ разгадал ключевую математическую головоломку для понимания нашего мира» . Обзор технологий Массачусетского технологического института . Проверено 19 ноября 2020 .
  110. ^ "Caltech Open-Sources AI для решения уравнений с частными производными" . InfoQ . Проверено 20 января 2021 года .
  111. Надь, Александра (28 июня 2019 г.). «Вариационный квантовый метод Монте-Карло с нейросетевым анзацем для открытых квантовых систем». Письма с физическим обзором . 122 (25): 250501. arXiv : 1902.09483 . Bibcode : 2019PhRvL.122y0501N . DOI : 10.1103 / PhysRevLett.122.250501 . PMID 31347886 . S2CID 119074378 .  
  112. Йошиока, Нобуюки; Хамазаки, Рюсукэ (28 июня 2019 г.). «Построение нейронных стационарных состояний для открытых квантовых систем многих тел». Physical Review B . 99 (21): 214306. arXiv : 1902.07006 . Bibcode : 2019arXiv190207006Y . DOI : 10.1103 / PhysRevB.99.214306 . S2CID 119470636 . 
  113. ^ Хартманн, Майкл Дж .; Карлео, Джузеппе (28 июня 2019 г.). "Нейросетевой подход к диссипативной квантовой динамике многих тел". Письма с физическим обзором . 122 (25): 250502. arXiv : 1902.05131 . Bibcode : 2019arXiv190205131H . DOI : 10.1103 / PhysRevLett.122.250502 . PMID 31347862 . S2CID 119357494 .  
  114. ^ Вичентини, Филиппо; Биелла, Альберто; Реньо, Николя; Чути, Криштиану (28 июня 2019 г.). "Вариационный нейросетевой анзац для стационарных состояний в открытых квантовых системах". Письма с физическим обзором . 122 (25): 250503. arXiv : 1902.10104 . Bibcode : 2019arXiv190210104V . DOI : 10.1103 / PhysRevLett.122.250503 . PMID 31347877 . S2CID 119504484 .  
  115. Перейти ↑ Forrest MD (апрель 2015 г.). «Моделирование действия алкоголя на детальной модели нейрона Пуркинье и более простой суррогатной модели, которая работает в> 400 раз быстрее» . BMC Neuroscience . 16 (27): 27. DOI : 10,1186 / s12868-015-0162-6 . PMC 4417229 . PMID 25928094 .  
  116. ^ Зигельманн, HT; Зонтаг, ED (1991). «Вычислимость по Тьюрингу с нейронными сетями» (PDF) . Прил. Математика. Lett . 4 (6): 77–80. DOI : 10.1016 / 0893-9659 (91) 90080-F .
  117. ^ Balcázar, Хосе (июль 1997). "Вычислительная мощность нейронных сетей: характеристика сложности Колмогорова". IEEE Transactions по теории информации . 43 (4): 1175–1183. CiteSeerX 10.1.1.411.7782 . DOI : 10.1109 / 18.605580 . 
  118. ^ а б Маккей, Дэвид, JC (2003). Теория информации, выводы и алгоритмы обучения (PDF) . Издательство Кембриджского университета . ISBN  978-0-521-64298-9.
  119. ^ Обложка, Томас (1965). «Геометрические и статистические свойства систем линейных неравенств с приложениями в распознавании образов» (PDF) . Транзакции IEEE на электронных компьютерах . IEEE (3): 326–334. DOI : 10,1109 / PGEC.1965.264137 .
  120. ^ Джеральд, Фридланд (2019). «Воспроизводимость и экспериментальный дизайн для машинного обучения аудио и мультимедийных данных». MM '19: Материалы 27-й Международной конференции ACM по мультимедиа . ACM : 2709–2710. DOI : 10.1145 / 3343031.3350545 . ISBN 978-1-4503-6889-6. S2CID  204837170 .
  121. ^ "Tensorflow Meter" .
  122. ^ Ли, Jaehoon; Сяо, Лехао; Schoenholz, Samuel S .; Бахри, Ясаман; Новак, Роман; Золь-Дикштейн, Яша; Пеннингтон, Джеффри (15 февраля 2018 г.). «Широкие нейронные сети любой глубины развиваются как линейные модели при градиентном спуске». arXiv : 1902.06720 . Cite journal requires |journal= (help)
  123. ^ [1] , Нейронное касательное ядро: сходимость и обобщение в нейронных сетях.
  124. ^ [2] , Поведение при обучении глубокой нейронной сети в частотной области.
  125. ^ [3] , О спектральном смещении нейронных сетей.
  126. ^ [4] , Принцип частоты: анализ Фурье проливает свет на глубокие нейронные сети.
  127. ^ [5] , Теория принципа частоты для общих глубоких нейронных сетей.
  128. ^ Крик, Фрэнсис (1989). «Недавний ажиотаж по поводу нейронных сетей». Природа . 337 (6203): 129–132. Bibcode : 1989Natur.337..129C . DOI : 10.1038 / 337129a0 . PMID 2911347 . S2CID 5892527 .  
  129. ^ Адриан, Эдвард Д. (1926). «Импульсы, производимые сенсорными нервными окончаниями» . Журнал физиологии . 61 (1): 49–72. DOI : 10.1113 / jphysiol.1926.sp002273 . PMC 1514809 . PMID 16993776 .  
  130. ^ Dewdney, AK (1 апреля 1997). Да, у нас нет нейтронов: открывающий глаза тур по перипетиям плохой науки . Вайли. п. 82. ISBN 978-0-471-10806-1.
  131. ^ НАСА - Центр летных исследований Драйдена - Комната новостей: Пресс-релизы: ПРОЕКТ НАСА НЕЙРОННОЙ СЕТИ ПРОХОДИТ ВЕХУ . Nasa.gov. Проверено 20 ноября 2013.
  132. ^ "Защита нейронных сетей Роджером Бриджменом" . Архивировано из оригинального 19 марта 2012 года . Проверено 12 июля 2010 года .
  133. ^ DJ Felleman и DC Van Essen, " Распределенная иерархическая обработка в коре головного мозга приматов ", Cerebral Cortex , 1, стр. 1–47, 1991.
  134. ^ Дж. Венг, « Естественный и искусственный интеллект: Введение в вычислительный мозг », BMI Press, ISBN 978-0-9858757-2-5 , 2012. 
  135. ^ a b Эдвардс, Крис (25 июня 2015 г.). «Растущие боли для глубокого обучения». Коммуникации ACM . 58 (7): 14–16. DOI : 10.1145 / 2771283 . S2CID 11026540 . 
  136. ^ " Обзор ускорителей на основе FPGA для сверточных нейронных сетей ", NCAA, 2018
  137. Cade Metz (18 мая 2016 г.). «Google создал свои собственные чипы для работы своих AI-ботов» . Проводной .
  138. ^ "Масштабирование алгоритмов обучения к {AI} - LISA - Публикации - Aigaion 2.0" . www.iro.umontreal.ca .
  139. Солнце и Книжник (1990)
  140. ^ Тахмасеби; Хезархани (2012). «Гибридный нейросети-нечеткая логико-генетический алгоритм для оценки успеваемости» . Компьютеры и науки о Земле . 42 : 18–27. Bibcode : 2012CG ..... 42 ... 18T . DOI : 10.1016 / j.cageo.2012.02.004 . PMC 4268588 . PMID 25540468 .  

Библиография [ править ]

  • Bhadeshia HKDH (1999). «Нейронные сети в материаловедении» (PDF) . ISIJ International . 39 (10): 966–979. DOI : 10.2355 / isijinternational.39.966 .
  • Епископ, Кристофер М. (1995). Нейронные сети для распознавания образов . Кларендон Пресс. ISBN 978-0-19-853849-3. OCLC  33101074 .
  • Боргельт, Кристиан (2003). Neuro-Fuzzy-Systeme: von den Grundlagen künstlicher Neuronaler Netze zur Kopplung mit Fuzzy-Systemen . Vieweg. ISBN 978-3-528-25265-6. OCLC  76538146 .
  • Цибенко, Г.В. (2006). «Аппроксимация суперпозициями сигмоидальной функции» . В ван Шуппен, Ян Х. (ред.). Математика управления, сигналов и систем . Springer International. С. 303–314. PDF
  • Дьюдни, АК (1997). Да, у нас нет нейтронов: открывающий глаза тур по перипетиям плохой науки . Нью-Йорк: Вили. ISBN 978-0-471-10806-1. OCLC  35558945 .
  • Дуда, Ричард О .; Харт, Питер Эллиот; Аист, Дэвид Г. (2001). Классификация паттернов (2-е изд.). Вайли. ISBN 978-0-471-05669-0. OCLC  41347061 .
  • Egmont-Petersen, M .; de Ridder, D .; Хандельс, Х. (2002). «Обработка изображений с помощью нейронных сетей - обзор». Распознавание образов . 35 (10): 2279–2301. CiteSeerX  10.1.1.21.5444 . DOI : 10.1016 / S0031-3203 (01) 00178-9 .
  • Fahlman, S .; Лебьер, С (1991). «Каскадно-корреляционная архитектура обучения» (PDF) .
    • создан для Национального научного фонда , номер контракта EET-8716324, и Агентства оборонных перспективных исследовательских проектов (DOD), заказ ARPA № 4976 по контракту F33615-87-C-1499.
  • Герни, Кевин (1997). Введение в нейронные сети . UCL Press. ISBN 978-1-85728-673-1. OCLC  37875698 .
  • Хайкин, Саймон С. (1999). Нейронные сети: всеобъемлющая основа . Прентис Холл. ISBN 978-0-13-273350-2. OCLC  38908586 .
  • Hertz, J .; Палмер, Ричард Дж .; Крог, Андерс С. (1991). Введение в теорию нейронных вычислений . Эддисон-Уэсли. ISBN 978-0-201-51560-2. OCLC  21522159 .
  • Теория информации, логические выводы и алгоритмы обучения . Издательство Кембриджского университета. 25 сентября 2003 года Bibcode : 2003itil.book ..... M . ISBN 978-0-521-64298-9. OCLC  52377690 .
  • Крузе, Рудольф; Боргельт, Кристиан; Klawonn, F .; Моуэз, Кристиан; Штайнбрехер, Маттиас; Хелд, Паскаль (2013). Вычислительный интеллект: методическое введение . Springer. ISBN 978-1-4471-5012-1. OCLC  837524179 .
  • Лоуренс, Жанетт (1994). Введение в нейронные сети: дизайн, теория и приложения . Калифорнийское научное программное обеспечение. ISBN 978-1-883157-00-5. OCLC  32179420 .
  • Маккей, Дэвид, JC (2003). Теория информации, выводы и алгоритмы обучения (PDF) . Издательство Кембриджского университета . ISBN 978-0-521-64298-9.
  • Мастерс, Тимоти (1994). Обработка сигналов и изображений с помощью нейронных сетей: справочник по C ++ . Дж. Вили. ISBN 978-0-471-04963-0. OCLC  29877717 .
  • Рипли, Брайан Д. (2007). Распознавание образов и нейронные сети . Издательство Кембриджского университета. ISBN 978-0-521-71770-0.
  • Зигельманн, HT; Зонтаг, Эдуардо Д. (1994). «Аналоговые вычисления через нейронные сети». Теоретическая информатика . 131 (2): 331–360. DOI : 10.1016 / 0304-3975 (94) 90178-3 . S2CID  2456483 .
  • Смит, Мюррей (1993). Нейронные сети для статистического моделирования . Ван Ностранд Рейнхольд. ISBN 978-0-442-01310-3. OCLC  27145760 .
  • Вассерман, Филип Д. (1993). Продвинутые методы нейронных вычислений . Ван Ностранд Рейнхольд. ISBN 978-0-442-00461-3. OCLC  27429729 .
  • Уилсон, Холзи (2018). Искусственный интеллект . Издательство "Серый дом". ISBN 978-1-68217-867-6.

Внешние ссылки [ править ]

  • Зоопарк нейронных сетей - подборка типов нейронных сетей
  • Мозг Стилуэлла - эпизод " Поле разума", в котором показан эксперимент, в котором люди действуют как отдельные нейроны в нейронной сети, которая классифицирует рукописные цифры.