Страница полузащищенная
Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Искусственный интеллект ( ИИ ) - это интеллект, демонстрируемый машинами , в отличие от естественного интеллекта, проявляемого людьми и животными , который включает в себя сознание и эмоциональность. Различие между первой и второй категориями часто выявляется выбранным акронимом. «Сильный» ИИ обычно обозначается как AGI (общий искусственный интеллект), а попытки имитировать «естественный» интеллект называются ABI (искусственный биологический интеллект). Ведущие учебники по ИИ определяют эту область как исследование « интеллектуальных агентов »: любого устройства, которое воспринимает окружающую среду и предпринимает действия, которые увеличивают его шансы на успешное достижение своих целей.[3] В разговорной речи термин «искусственный интеллект» часто используется для описания машин (или компьютеров), которые имитируют «когнитивные» функции, которые люди связывают с человеческим разумом , такие как «обучение» и «решение проблем». [4]

По мере того, как машины становятся все более способными, задачи, которые, как считается, требуют «интеллекта», часто исключаются из определения ИИ, явление, известное как эффект ИИ . [5] Коллизия в теореме Теслера гласит: «ИИ - это то, что еще не было сделано». [6] Например, оптическое распознавание символов часто исключается из вещей, которые считаются искусственным интеллектом, [7] став обычной технологией. [8] Современные возможности машины обычно классифицируются как ИИ включают в себя успешно понимание человеческой речи , [9] конкурировать на самом высоком уровне в стратегических игровых системах (таких как шахматы и Go), [10] автономно работающие автомобили , интеллектуальная маршрутизация в сетях доставки контента и моделирование военных действий . [11]

Искусственный интеллект был основан как академическая дисциплина в 1955 году, и с тех пор он испытал несколько волн оптимизма [12] [13], за которыми последовало разочарование и потеря финансирования (известная как « зима искусственного интеллекта »), [14] [15], за которыми последовали новые подходы, успех и возобновление финансирования. [13] [16] После того, как AlphaGo успешно победила профессионального игрока в го в 2015 году, искусственный интеллект снова привлек всеобщее внимание. [17] На протяжении большей части своей истории исследования ИИ были разделены на подполи, которые часто не взаимодействуют друг с другом. [18]Эти подполи основаны на технических соображениях, таких как конкретные цели (например, « робототехника » или « машинное обучение ») [19], использование определенных инструментов (« логика » или искусственные нейронные сети ) или глубокие философские различия. [22] [23] [24] Подполя также основывались на социальных факторах (определенных учреждениях или работе конкретных исследователей). [18]

Традиционные проблемы (или цели) исследований ИИ включают рассуждение , представление знаний , планирование , обучение , обработку естественного языка , восприятие и способность перемещать и манипулировать объектами. [19] Общая разведка входит в число долгосрочных целей области. [25] Подходы включают статистические методы , вычислительный интеллект и традиционный символический ИИ . В ИИ используется множество инструментов, включая варианты поиска и математической оптимизации , искусственные нейронные сети иметоды, основанные на статистике, вероятности и экономике . Область AI опирается на информатику , информационную инженерию , математику , психологию , лингвистику , философию и многие другие области.

Эта область была основана на предположении, что человеческий интеллект «можно так точно описать, что можно создать машину для его моделирования». [26] Это поднимает философские аргументы относительно разума и этики создания искусственных существ, наделенных интеллектом, подобным человеческому. Эти вопросы исследовались мифами , художественной литературой и философией с древних времен . [31] Некоторые люди также считают, что ИИ представляет опасность для человечества, если он не ослабевает. [32] [33] Другие считают, что ИИ, в отличие от предыдущих технологических революций, создаст риск массовой безработицы . [34]

В двадцать первом веке методы искусственного интеллекта пережили возрождение после одновременного развития компьютерных мощностей , больших объемов данных и теоретических знаний; и методы искусственного интеллекта стали неотъемлемой частью технологической индустрии , помогая решать многие сложные проблемы в области информатики, разработки программного обеспечения и исследования операций . [35] [16]

История

Серебряная дидрахма с Крита, изображающая Талоса , древнего мифического автомата с искусственным интеллектом.

Способные к мысли искусственные существа появились как устройства для повествования в древности [36] и были обычным явлением в художественной литературе, например, в « Франкенштейне» Мэри Шелли или « RUR» Карла Чапека [37]. Эти персонажи и их судьбы подняли сегодня многие из тех же проблем. обсуждается в этике искусственного интеллекта . [31]

Изучение механических или «формальных» рассуждений началось с древних философов и математиков. Изучение математической логики непосредственно привело к Alan Turing «s теории вычислений , который предположил , что машина, путем перестановки символов так просто , как„0“и„1“, может имитировать любой мыслимый акт математической дедукции. Понимание того, что цифровые компьютеры могут моделировать любой процесс формального рассуждения, известно как тезис Черча-Тьюринга . [38] Наряду с одновременными открытиями в нейробиологии , теории информации и кибернетике, это побудило исследователей рассмотреть возможность построения электронного мозга. Тьюринг предложил изменить вопрос с того, является ли машина разумной, на «может ли машина проявлять разумное поведение или нет». [39] Первой работой, которая теперь широко известна как ИИ, была формальная разработка Маккаллача и Питтса 1943 года для "искусственных нейронов", завершенных по Тьюрингу . [40]

Область исследований искусственного интеллекта зародилась на семинаре в Дартмутском колледже в 1956 г. [41], где Джон Маккарти ввел термин «искусственный интеллект», чтобы отличить эту область от кибернетики и избежать влияния кибернетика Норберта Винера . [42] Участники Аллен Ньюэлл ( CMU ), Герберт Саймон (CMU), Джон Маккарти ( MIT ), Марвин Мински (MIT) и Артур Сэмюэл ( IBM ) стали основателями и лидерами исследований в области ИИ. [43]Они и их ученики создали программы, которые пресса назвала «удивительными»: [44] компьютеры изучали стратегии игры в шашки (ок. 1954) [45] (и к 1959 году, как сообщается, играли лучше, чем средний человек) [46], решая слова задачи по алгебре, доказательство логических теорем (« Logic Theorist» , первый запуск c. 1956) и говорение по-английски. [47] К середине 1960-х исследования в США в значительной степени финансировались Министерством обороны [48], и лаборатории были созданы по всему миру. [49] Основатели AI с оптимизмом смотрели в будущее: Герберт Саймонпредсказал, что «в течение двадцати лет машины будут способны выполнять любую работу, которую может выполнять человек». Марвин Мински согласился, написав: «В течение одного поколения ... проблема создания« искусственного интеллекта »будет существенно решена». [12]

Они не осознали сложности некоторых оставшихся задач. Прогресс замедлился, и в 1974 году в ответ на критику сэра Джеймса Лайтхилла [50] и продолжающееся давление Конгресса США с целью финансирования более продуктивных проектов правительства США и Великобритании прекратили исследовательские исследования в области ИИ. Следующие несколько лет позже будут названы « зимой ИИ » [14], период, когда получение финансирования для проектов ИИ было трудным.

В начале 1980 - х годов исследование ИИ был возрожден коммерческий успех экспертных систем , [51] это форма программы ИИ , который имитировал знания и аналитические навыки человеческих экспертов. К 1985 году рынок ИИ превысил миллиард долларов. В то же время компьютерный проект пятого поколения в Японии вдохновил правительства США и Великобритании на восстановление финансирования академических исследований . [13] Однако, начиная с краха рынка машин Лиспа в 1987 году, ИИ снова потерял репутацию, и начался второй, более продолжительный перерыв. [15]

Развитие очень крупномасштабной интеграции (СБИС) металл-оксид-полупроводник (МОП) в виде технологии комплементарных МОП (КМОП) транзисторов позволило разработать практическую технологию искусственных нейронных сетей (ИНС) в 1980-х годах. Публикация вехой в области было 1989 книга Analog VLSI Реализация нейронных систем по Carver А. Мид и Мохаммед Исмаил. [52]

В конце 1990-х и начале 21 века ИИ начал использоваться для логистики, интеллектуального анализа данных , медицинской диагностики и других областей. [35] Успех был обусловлен увеличением вычислительной мощности (см . Закон Мура и количество транзисторов ), большим упором на решение конкретных проблем, новыми связями между ИИ и другими областями (такими как статистика , экономика и математика ), а также приверженностью исследователей делу математические методы и научные стандарты. [53] Deep Blue стал первой компьютерной шахматной системой, победившей действующего чемпиона мира по шахматам Гарри Каспарова 11 мая 1997 года.[54]

В 2011 году в опасности! викторины выставки матч, IBM «s вопросно - ответная система , Уотсон , поражение двух величайших Jeopardy! чемпионы, Брэд Раттер и Кен Дженнингс , со значительным отрывом. [55] Более быстрые компьютеры , алгоритмические улучшения и доступ к большим объемам данных позволили добиться прогресса в области машинного обучения и восприятия; данные голодный глубокие обучения методы начали доминировать точность тесты примерно в 2012 году . [56] Kinect, который обеспечивает трехмерный интерфейс движения тела для Xbox 360 и Xbox One , использует алгоритмы, возникшие в результате длительных исследований ИИ [57], как и интеллектуальные персональные помощники в смартфонах . [58] В марте 2016 года AlphaGo выиграла 4 из 5 игр в го в матче с чемпионом по го Ли Седолом , став первой компьютерной системой для игры в го, которая обыграла профессионального игрока в го без препятствий . [10] [59] В 2017 г. Будущее Go Summit , AlphaGo выиграл матч три игрыс Ke Jie , [60] , который в то время постоянно держал в мире № 1 рейтинг в течение двух лет. [61] [62] Это ознаменовало собой завершение важной вехи в развитии искусственного интеллекта, поскольку го - относительно сложная игра, более сложная, чем шахматы.

По словам Джека Кларка из Bloomberg , 2015 год стал знаковым для искусственного интеллекта: количество программных проектов, использующих ИИ в Google, увеличилось с «спорадического использования» в 2012 году до более чем 2700 проектов. Кларк также представляет фактические данные, указывающие на улучшения ИИ с 2012 года, поддерживаемые более низким уровнем ошибок в задачах обработки изображений. [63] Он связывает это с увеличением числа доступных нейронных сетей из-за роста инфраструктуры облачных вычислений и увеличения исследовательских инструментов и наборов данных. [16]Другие приведенные примеры включают разработку Microsoft системы Skype, которая может автоматически переводить с одного языка на другой, и системы Facebook, которая может описывать изображения слепым людям. [63] В опросе 2017 года каждая пятая компания сообщила, что «включила ИИ в некоторые предложения или процессы». [64] [65] Примерно в 2016 году Китай значительно увеличил объем государственного финансирования; Учитывая большой объем данных и быстро растущие результаты исследований, некоторые наблюдатели полагают, что он может стать «сверхдержавой ИИ». [66] [67] Тем не менее, было признано, что сообщения об искусственном интеллекте имели тенденцию быть преувеличенными. [68] [69] [70]

Основы

Информатика определяет исследования ИИ как изучение « интеллектуальных агентов »: любого устройства, которое воспринимает окружающую среду и предпринимает действия, которые увеличивают его шансы на успешное достижение своих целей. [3] Более подробное определение характеризует ИИ как «способность системы правильно интерпретировать внешние данные, извлекать уроки из таких данных и использовать полученные знания для достижения конкретных целей и задач посредством гибкой адаптации». [71]

Типичный ИИ анализирует окружающую среду и предпринимает действия, которые увеличивают его шансы на успех. [3] Предполагаемая функция полезности (или цель) ИИ может быть простой («1, если ИИ выигрывает игру в го , 0 в противном случае») или сложной («Выполнять действия, математически похожие на те, которые были успешными в прошлом»). Цели могут быть явно определены или вызваны. Если ИИ запрограммирован на « обучение с подкреплением », цели могут быть косвенно вызваны поощрением за одни типы поведения или наказанием других. [a] Альтернативно, эволюционная система может побуждать к достижению целей, используя " функцию приспособленности"«мутировать и предпочтительно копировать системы ИИ с высокими показателями, аналогично тому, как животные эволюционировали, чтобы врожденно стремиться к определенным целям, таким как поиск пищи. [72] Некоторые системы ИИ, такие как« ближайший сосед », вместо разумного по аналогии, не являются обычно задаются цели, за исключением той степени, в которой цели неявно присутствуют в их обучающих данных. [73] Такие системы все еще можно тестировать, если нецелевая система оформлена как система, «целью» которой является успешное выполнение своей узкой задачи классификации. [74]

ИИ часто вращается вокруг использования алгоритмов . Алгоритм - это набор однозначных инструкций, которые может выполнять механический компьютер. [b] Сложный алгоритм часто строится поверх других, более простых алгоритмов. Простым примером алгоритма является следующий (оптимальный для первого игрока) рецепт игры в крестики-нолики : [75]

  1. Если у кого-то есть «угроза» (то есть две подряд), возьмите оставшийся квадрат. Иначе,
  2. если ход «разветвляется», создавая сразу две угрозы, сыграйте этот ход. Иначе,
  3. возьмите центральную площадь, если она свободна. Иначе,
  4. если ваш противник играл в углу, возьмите противоположный угол. Иначе,
  5. возьмите пустой угол, если он существует. Иначе,
  6. возьмите любой пустой квадрат.

Многие алгоритмы ИИ способны учиться на данных; они могут совершенствоваться, изучая новую эвристику (стратегии или «практические правила», которые хорошо работали в прошлом), или могут сами писать другие алгоритмы. Некоторые из «учащихся», описанных ниже, включая байесовские сети, деревья решений и ближайшего соседа, теоретически могут (учитывая бесконечные данные, время и память) научиться приближать любую функцию , включая то, какая комбинация математических функций лучше всего описывает Мир. [ необходима цитата ]Таким образом, эти учащиеся могут получить все возможные знания, рассматривая все возможные гипотезы и сопоставляя их с данными. На практике редко удается рассмотреть все возможности из-за явления « комбинаторного взрыва », когда время, необходимое для решения проблемы, растет экспоненциально. Большая часть исследований ИИ включает в себя выяснение того, как идентифицировать и избегать рассмотрения широкого спектра возможностей, которые вряд ли будут полезны. [76] [77] Например, при просмотре карты и поиске кратчайшего автомобильного маршрута от Денвера до Нью-Йорка на востоке, в большинстве случаев можно не смотреть на любой путь через Сан-Франциско.или другие районы далеко на западе; таким образом, ИИ, владеющий алгоритмом поиска пути, подобным A *, может избежать комбинаторного взрыва, который произошел бы, если бы каждый возможный маршрут был бы тщательно продуман. [78]

Самым ранним (и наиболее простым для понимания) подходом к ИИ был символизм (такой как формальная логика): «Если у здорового взрослого человека жар, то он, возможно, болен гриппом ». Второй, более общий подход - это байесовский вывод : «Если у текущего пациента лихорадка, скорректируйте вероятность того, что у него грипп, таким-то образом». Третий основной подход, чрезвычайно популярный в рутинных бизнес-приложениях ИИ, - это аналогизаторы, такие как SVM и ближайший сосед.: «После изучения записей известных прошлых пациентов, у которых температура, симптомы, возраст и другие факторы в основном совпадают с текущим пациентом, оказалось, что X% этих пациентов болеют гриппом». Четвертый подход сложнее интуитивно понять, но он основан на том, как работают механизмы мозга: подход искусственной нейронной сети использует искусственные нейроны.«который может учиться, сравнивая себя с желаемым результатом и изменяя силу связей между своими внутренними нейронами, чтобы« укрепить »связи, которые казались полезными. Эти четыре основных подхода могут пересекаться друг с другом и с эволюционными системами; например, нейронные сети могут научиться делать выводы, обобщать и проводить аналогии. Некоторые системы неявно или явно используют несколько из этих подходов, наряду со многими другими алгоритмами ИИ и не-ИИ; лучший подход часто отличается в зависимости от проблемы. [79 ] [80]

Алгоритмы обучения работают на том основании, что стратегии, алгоритмы и выводы, которые хорошо работали в прошлом, вероятно, продолжат хорошо работать и в будущем. Эти выводы могут быть очевидными, например, «поскольку солнце вставало каждое утро в течение последних 10 000 дней, оно, вероятно, взойдет и завтра утром». Они могут иметь нюансы, например, «X% семейств имеют географически отдельные виды с цветовыми вариантами, поэтому существует Y% вероятности, что существуют неоткрытые черные лебеди ». Ученики также работают на основе « бритвы Оккама».": Самая простая теория, объясняющая данные, наиболее вероятна. Следовательно, согласно принципу бритвы Оккама, ученик должен быть спроектирован таким образом, чтобы он предпочитал более простые теории сложным теориям, за исключением случаев, когда сложная теория доказана значительно лучше.

Синяя линия может быть примером переобучения линейной функции из-за случайного шума.

Использование плохой, слишком сложной теории, приспособленной для соответствия всем прошлым обучающим данным, называется переобучением . Многие системы пытаются уменьшить переобучение, вознаграждая теорию в соответствии с тем, насколько хорошо она соответствует данным, но наказывая теорию в соответствии с ее сложностью. [81] Помимо классической переобучения, учащиеся также могут разочаровать, «усвоив неправильный урок». Игрушечный пример: классификатор изображений, обученный только изображениям коричневых лошадей и черных кошек, может сделать вывод, что все коричневые пятна, скорее всего, принадлежат лошадям. [82]Пример из реальной жизни состоит в том, что, в отличие от людей, современные классификаторы изображений часто не выносят суждений в первую очередь на основании пространственных отношений между компонентами изображения, и они изучают отношения между пикселями, которые люди не замечают, но которые все же коррелируют с изображениями определенные типы реальных объектов. Изменение этих шаблонов на легитимном изображении может привести к появлению «состязательных» изображений, которые система неправильно классифицирует. [c] [83] [84]

Автономная автомобильная система может использовать нейронную сеть, чтобы определить, какие части изображения кажутся совпадающими с предыдущими обучающими изображениями пешеходов, а затем смоделировать эти области как медленно движущиеся, но несколько непредсказуемые прямоугольные призмы, которых следует избегать.

По сравнению с людьми существующий ИИ лишен некоторых черт человеческого « здравого смысла »; в частности, у людей есть мощные механизмы для рассуждений о « наивной физике », таких как пространство, время и физические взаимодействия. Это позволяет даже маленьким детям легко делать выводы типа «Если я скатываю эту ручку со стола, она упадет на пол». У людей также есть мощный механизм « народной психологии », который помогает им интерпретировать предложения на естественном языке, такие как «члены городского совета отказали демонстрантам в разрешении, потому что они выступали за насилие» (общий ИИ с трудом определяет, защищают ли те, кто якобы насилие - члены совета или демонстранты [85] [86] [87]). Это отсутствие «общих знаний» означает, что ИИ часто совершает ошибки, отличные от ошибок людей, и это может показаться непонятным. Например, существующие беспилотные автомобили не могут рассуждать о местонахождении или намерениях пешеходов точно так же, как это делают люди, и вместо этого должны использовать нечеловеческие способы рассуждений, чтобы избежать аварий. [88] [89] [90]

Вызовы

Когнитивные возможности современных архитектур очень ограничены, они используют только упрощенную версию того, на что действительно способен интеллект. Например, человеческий разум придумал невероятные способы рассуждений и логические объяснения различных событий в жизни. То, что в противном случае было бы простым, может быть сложно решить с помощью вычислений, а не с помощью человеческого разума. Это порождает два класса моделей: структуралистские и функционалистские. Структурные модели стремятся имитировать основные интеллектуальные операции разума, такие как рассуждения и логика. Функциональная модель относится к коррелирующим данным с их вычисленным аналогом. [91]

Общая цель исследования искусственного интеллекта - создать технологию, которая позволяет компьютерам и машинам функционировать разумно. Общая проблема моделирования (или создания) интеллекта была разбита на подзадачи. Они состоят из определенных черт или способностей, которые исследователи ожидают от интеллектуальной системы. Наибольшее внимание привлекли характеристики, описанные ниже. [19]

Рассуждение, решение проблем

Ранние исследователи разработали алгоритмы, имитирующие пошаговые рассуждения, которые люди используют при решении головоломок или логических выводах. [92] К концу 1980-х и 1990-х гг. В исследованиях ИИ были разработаны методы работы с неопределенной или неполной информацией с использованием концепций вероятности и экономики . [93]

Этих алгоритмов оказалось недостаточно для решения больших задач рассуждений, потому что они испытали «комбинаторный взрыв»: они становились экспоненциально медленнее по мере роста проблем. [76] Даже люди редко используют пошаговые выводы, которые могли смоделировать ранние исследования ИИ. Они решают большинство своих проблем, используя быстрые интуитивные суждения. [94]

Представление знаний

Онтология представляет знания как набор понятий в предметной области и отношения между этими понятиями.

Представление знаний [95] и инженерия знаний [96] занимают центральное место в классических исследованиях ИИ. Некоторые «экспертные системы» пытаются собрать явные знания, которыми обладают эксперты в какой-то узкой области. Кроме того, некоторые проекты пытаются собрать «здравые знания», известные обычному человеку, в базу данных, содержащую обширные знания о мире. Среди вещей, которые может содержать исчерпывающая база здравого смысла, следующие: объекты, свойства, категории и отношения между объектами; [97] ситуации, события, состояния и время; [98] причины и следствия; [99] знание о знаниях (то, что мы знаем о том, что знают другие люди); [100]и многие другие, менее изученные области. Представление «того, что существует» - это онтология : набор объектов, отношений, концепций и свойств, формально описанных таким образом, чтобы программные агенты могли их интерпретировать. Их семантика фиксируется в виде концепций логики описания , ролей и индивидов и обычно реализуется как классы, свойства и индивиды на языке веб-онтологий . [101] Наиболее общие онтологии называются верхними онтологиями , которые пытаются обеспечить основу для всех других знаний [102] , выступая в качестве посредников между онтологиями предметной области.которые охватывают конкретные знания о конкретной области знаний (сфере интересов или проблемной области). Такие формальные представления знаний могут использоваться для индексации и поиска на основе содержимого, [103] интерпретации сцены, [104] поддержки клинических решений, [105] открытия знаний (извлечение "интересных" и действенных выводов из больших баз данных), [106] и другие области. [107]

К наиболее сложным проблемам представления знаний относятся:

Обоснование дефолта и проблема квалификации
Многие из вещей, которые люди знают, принимают форму «рабочих предположений». Например, если в разговоре появляется птица, люди обычно представляют себе животное размером с кулак, которое поет и летает. Но все это не относится ко всем птицам. Джон Маккарти определил эту проблему в 1969 году [108] как проблему квалификации: для любого правила здравого смысла, которое исследователи искусственного интеллекта хотят представить, как правило, существует огромное количество исключений. Практически нет ничего просто истинного или ложного в том смысле, который требует абстрактная логика. В рамках исследования искусственного интеллекта было изучено несколько решений этой проблемы. [109]
Широта здравого смысла
Число элементарных фактов, которые знает средний человек, очень велико. Исследовательские проекты, которые пытаются построить полную базу знаний здравого смысла (например, Cyc ), требуют огромного количества кропотливой онтологической инженерии - они должны строиться вручную, по одной сложной концепции за раз. [110]
Подсимволическая форма некоторого здравого смысла
Многое из того, что люди знают, не представлено в виде «фактов» или «утверждений», которые они могли бы выразить устно. Например, шахматный мастер будет избегать определенной шахматной позиции, потому что она «чувствует себя слишком открытой» [111], или искусствовед может взглянуть на статую и понять, что это подделка. [112] Это бессознательные и субсимвольные интуиции или тенденции человеческого мозга. [113] Подобное знание информирует, поддерживает и обеспечивает контекст для символического, сознательного знания. Как и в случае со связанной проблемой субсимволических рассуждений, есть надежда, что локальный ИИ , вычислительный интеллект или статистический ИИ предоставят способы представления этих знаний. [113]

Планирование

Иерархическая система управления представляет собой форму системы управления , в которой множество устройств и программного обеспечения , регулирующего расположено в иерархии.

Интеллектуальные агенты должны уметь ставить цели и достигать их. [114] Им нужен способ визуализировать будущее - представление о состоянии мира и уметь делать прогнозы о том, как их действия изменят его, - и уметь делать выбор, который максимизирует полезность (или «ценность») доступных вариантов. [115]

В классических задачах планирования агент может предполагать, что это единственная система, действующая в мире, позволяющая ему быть уверенным в последствиях своих действий. [116] Однако, если агент - не единственный действующий субъект, тогда требуется, чтобы агент мог рассуждать в условиях неопределенности. Для этого требуется агент, который может не только оценивать свое окружение и делать прогнозы, но также оценивать свои прогнозы и адаптироваться на основе своей оценки. [117]

Многоагентное планирование использует сотрудничество и конкуренцию многих агентов для достижения поставленной цели. Эмерджентное поведение, подобное этому, используется эволюционными алгоритмами и интеллектом роя . [118]

Учусь

Для этого проекта ИИ должен был найти типичные узоры в цветах и ​​мазках живописца эпохи Возрождения Рафаэля . На портрете изображено лицо актрисы Орнеллы Мути , «нарисованное» AI в стиле Рафаэля.

Машинное обучение (ML), фундаментальная концепция исследований искусственного интеллекта с момента зарождения этой области, [d] - это изучение компьютерных алгоритмов, которые автоматически улучшаются благодаря опыту. [e] [121]

Обучение без учителя - это способность находить закономерности в потоке входных данных, не требуя от человека предварительной маркировки входных данных. Обучение с учителем включает в себя как классификацию, так и числовую регрессию , что требует, чтобы человек сначала пометил входные данные. Классификация используется для определения того, к какой категории принадлежит что-либо, и происходит после того, как программа видит несколько примеров вещей из нескольких категорий. Регрессия - это попытка создать функцию, которая описывает взаимосвязь между входами и выходами и предсказывает, как выходы должны изменяться при изменении входов. [121]И классификаторы, и учащиеся регрессии могут рассматриваться как «аппроксиматоры функций», пытающиеся изучить неизвестную (возможно, неявную) функцию; например, классификатор спама можно рассматривать как обучающую функцию, которая преобразует текст электронного письма в одну из двух категорий: «спам» или «не спам». Теория вычислительного обучения может оценивать учащихся по вычислительной сложности , по сложности выборки (сколько данных требуется) или по другим понятиям оптимизации . [122] В обучении с подкреплением [123] агент вознаграждается за хорошие ответы и наказывается за плохие. Агент использует эту последовательность вознаграждений и наказаний, чтобы сформировать стратегию действий в своем проблемном пространстве.

Обработка естественного языка

Дерево разбора представляет собой синтаксическую структуру предложения в соответствии с некоторой формальной грамматикой .

Обработка естественного языка [124] (NLP) позволяет машинам читать и понимать человеческий язык. Достаточно мощная система обработки естественного языка позволила бы создавать пользовательские интерфейсы на естественном языке и получать знания непосредственно из источников, написанных людьми, таких как тексты новостной ленты. Некоторые простые приложения обработки естественного языка включают поиск информации , интеллектуальный анализ текста , ответы на вопросы [125] и машинный перевод . [126]Многие современные подходы используют частоту совпадения слов для построения синтаксических представлений текста. Стратегии «определения ключевых слов» для поиска популярны и масштабируемы, но неуместны; поисковый запрос по запросу «собака» может соответствовать только документам со словом «собака» и пропускать документ со словом «пудель». Стратегии «лексической близости» используют вхождение таких слов, как «случайность», для оценки тональности документа. Современные статистические подходы НЛП могут сочетать все эти стратегии, а также другие, и часто обеспечивают приемлемую точность на уровне страницы или абзаца. Помимо семантического НЛП, конечная цель «повествовательного» НЛП - воплотить полное понимание здравого смысла. [127] К 2019 году , трансформаторархитектуры глубокого обучения могут генерировать связный текст. [128]

Восприятие

Обнаружение функций (на рисунке: обнаружение краев ) помогает ИИ составлять информативные абстрактные структуры из необработанных данных.

Машинное восприятие [129] - это способность использовать входные данные от датчиков (таких как камеры (видимый спектр или инфракрасный), микрофоны, беспроводные сигналы, а также активные лидары , гидролокаторы, радары и тактильные датчики ) для определения аспектов мира. Приложения включают распознавание речи , [130] распознавание лиц и распознавание объектов . [131] Компьютерное зрениеэто способность анализировать визуальный ввод. Такой ввод обычно неоднозначен; гигантский пешеход высотой пятьдесят метров далеко может воспроизводить те же пиксели, что и ближайший пешеход нормального размера, требуя, чтобы ИИ оценивал относительную вероятность и разумность различных интерпретаций, например, используя свою «объектную модель» для оценки этого пятидесятиметровых пешеходов не бывает. [132]

Движение и манипуляции

ИИ широко используется в робототехнике. [133] Усовершенствованные роботы-манипуляторы и другие промышленные роботы , широко используемые на современных предприятиях, могут на собственном опыте научиться эффективно двигаться, несмотря на наличие трения и проскальзывания шестерен. [134] Современный мобильный робот в небольшой, статичной и видимой среде может легко определить свое местоположение и нанести на карту свое окружение; однако динамическая среда, такая как (в эндоскопии ) внутренняя часть дышащего тела пациента, представляет большую проблему. Планирование движенияэто процесс разбиения двигательной задачи на «примитивы», такие как отдельные совместные движения. Такое движение часто подразумевает податливое движение, процесс, при котором движение требует поддержания физического контакта с объектом. [135] [136] [137] Парадокс Моравека обобщает, что низкоуровневые сенсомоторные навыки, которые люди воспринимают как должное, нелегко запрограммировать в роботе; парадокс назван в честь Ганса Моравека , заявившего в 1988 г., что «сравнительно легко заставить компьютеры показывать результаты на уровне взрослых в тестах интеллекта или игре в шашки, и трудно или невозможно дать им навыки годовалого ребенка, когда он приходит к восприятию и подвижности ». [138] [139]Это связано с тем, что, в отличие от шашек, физическая ловкость была прямой мишенью естественного отбора на протяжении миллионов лет. [140]

Социальный интеллект

Кисмет , робот с элементарными социальными навыками [141]

Парадокс Моравека можно распространить на многие формы социального интеллекта. [142] [143] Распределенная мультиагентная координация автономных транспортных средств остается сложной проблемой. [144] Эффективные вычисления - это междисциплинарный зонтик, включающий системы, которые распознают, интерпретируют, обрабатывают или моделируют человеческие аффекты . [145] [146] [147] Умеренные успехи, связанные с аффективными вычислениями, включают текстовый анализ тональности и, в последнее время, мультимодальный анализ эмоций (см. Мультимодальный анализ настроений ), в котором ИИ классифицирует аффекты, отображаемые записанным на видео субъектом. [148]

В конечном итоге социальные навыки и понимание человеческих эмоций и теории игр будут ценными для социального агента. Способность предсказывать действия других, понимая их мотивы и эмоциональное состояние, позволит агенту принимать более правильные решения. Некоторые компьютерные системы имитируют человеческие эмоции и выражения, чтобы казаться более чувствительными к эмоциональной динамике человеческого взаимодействия или иным образом для облегчения взаимодействия человека с компьютером . [149] Точно так же некоторые виртуальные помощники запрограммированы разговаривать или даже шутить; это имеет тенденцию давать наивным пользователям нереалистичное представление о том, насколько разумны существующие компьютерные агенты. [150]

Общий интеллект

Исторически сложилось так, что такие проекты, как база знаний Cyc (1984–) и масштабная японская инициатива компьютерных систем пятого поколения (1982–1992), пытались охватить широту человеческого познания. Эти ранние проекты не смогли избежать ограничений неколичественных моделей символической логики и, оглядываясь назад, сильно недооценили сложность междоменного ИИ. В настоящее время большинство современных исследователей ИИ вместо этого работают над управляемыми «узкими» приложениями ИИ (такими как медицинская диагностика или автомобильная навигация). [151] Многие исследователи предсказывают, что такая «узкая работа ИИ» в различных отдельных областях в конечном итоге будет включена в машину с общим искусственным интеллектом(AGI), сочетающий в себе большинство узких навыков, упомянутых в этой статье, и в какой-то момент даже превосходящий человеческие способности в большинстве или во всех этих областях. [25] [152] Многие достижения имеют общее междоменное значение. Одним из ярких примеров является то, что DeepMind в 2010-х годах разработал «обобщенный искусственный интеллект», который мог самостоятельно изучать множество разнообразных игр Atari , а позже разработал вариант системы, который преуспел в последовательном обучении . [153] [154] [155] Помимо трансферного обучения , [156]гипотетические прорывы в области AGI могут включать в себя разработку рефлексивных архитектур, которые могут участвовать в мета-рассуждениях, основанных на теории принятия решений, и выяснении того, как «извлечь» всеобъемлющую базу знаний из всей неструктурированной сети . [9] Некоторые утверждают, что какой-то (пока еще не открытый) концептуально простой, но математически сложный «главный алгоритм» может привести к AGI. [157] Наконец, несколько «эмерджентных» подходов очень внимательно относятся к моделированию человеческого интеллекта и полагают, что антропоморфные особенности, такие как искусственный мозг или моделирование развития ребенка, могут когда-нибудь достичь критической точки, когда появится общий интеллект. [158][159]

Многие проблемы, описанные в этой статье, могут также потребовать общего интеллекта, если машины должны решать проблемы так же хорошо, как люди. Например, даже конкретные простые задачи, такие как машинный перевод , требуют, чтобы машина читала и записывала на обоих языках ( НЛП ), следовала аргументам автора ( причине ), знала, о чем идет речь ( знания ), и точно воспроизводила оригинал автора. намерение ( социальный интеллект ). Такая задача, как машинный перевод, считается « полной ИИ », потому что все эти проблемы необходимо решать одновременно, чтобы достичь производительности машины на уровне человека.

Подходы

Никакая установленная объединяющая теория или парадигма не руководят исследованиями ИИ. Исследователи расходятся во мнениях по многим вопросам. [f] Вот некоторые из наиболее давних вопросов, которые остались без ответа: должен ли искусственный интеллект имитировать естественный интеллект, изучая психологию или нейробиологию ? Или биология человека так же не имеет отношения к исследованиям искусственного интеллекта, как биология птиц для авиационной техники ? [22] Можно ли описать разумное поведение, используя простые элегантные принципы (такие как логика или оптимизация )? Или обязательно требует решения большого количества не связанных между собой проблем? [23]

Кибернетика и моделирование мозга

В 1940-х и 1950-х годах ряд исследователей исследовали связь между нейробиологией , теорией информации и кибернетикой . Некоторые из них построены машины , которые используются электронные сети проявлять элементарную интеллект, такие как У. Грей Уолтер «s черепах и Johns Hopkins Beast . Многие из этих исследователей собрались на собрания Телеологического общества в Принстонском университете и Клуба отношений в Англии. [161] К 1960 году от этого подхода в значительной степени отказались, хотя его элементы были возрождены в 1980-х годах.

Символический

Когда в середине 1950-х годов стал возможен доступ к цифровым компьютерам, исследования искусственного интеллекта начали изучать возможность того, что человеческий интеллект можно свести к манипуляциям с символами. Исследования проводились в трех учреждениях: Университете Карнеги-Меллона , Стэнфорде и Массачусетском технологическом институте , и, как описано ниже, каждый разработал свой собственный стиль исследования. Джон Хогеланд назвал эти символические подходы к ИИ «старомодным добрым ИИ» или « GOFAI ». [162] В течение 1960-х годов символические подходы достигли большого успеха в моделировании высокоуровневого «мышления» в небольших демонстрационных программах. Подходы, основанные на кибернетике или искусственных нейронных сетяхбыли заброшены или отодвинуты на второй план. [g] Исследователи в 1960-х и 1970-х годах были убеждены, что символические подходы в конечном итоге позволят создать машину с общим искусственным интеллектом, и считали это целью своей области.

Когнитивное моделирование

Экономист Герберт Саймон и Аллен Ньюэлл изучили человеческие навыки решения проблем и попытались формализовать их, и их работа заложила основы области искусственного интеллекта, а также когнитивной науки , исследований операций и науки управления . Их исследовательская группа использовала результаты психологических экспериментов для разработки программ, имитирующих методы, которые люди использовали для решения проблем. Эта традиция, основанная на университете Карнеги-Меллона , в конечном итоге привела к развитию архитектуры Soar в середине 1980-х годов. [163] [164]

На основе логики

В отличие от Саймона и Ньюэлла, Джон Маккарти считал, что машинам не нужно моделировать человеческое мышление, а вместо этого следует пытаться найти суть абстрактного мышления и решения проблем, независимо от того, используют ли люди одни и те же алгоритмы. [22] Его лаборатория в Стэнфорде ( ПАРУС ) сосредоточилась на использовании формальной логики для решения широкого спектра задач, включая представление знаний , планирование и обучение . [165] Логика также была в центре внимания работы в Эдинбургском университете и других странах Европы, что привело к разработке языка программирования Prolog.и наука о логическом программировании . [166]

Антилогичный или неряшливый

Исследователи из Массачусетского технологического института (такие как Марвин Мински и Сеймур Паперт ) [167] обнаружили, что решение сложных проблем со зрением и обработкой естественного языка требует специальных решений - они утверждали, что никакой простой и общий принцип (например, логика ) не сможет охватить все аспекты интеллектуального развития. поведение. Роджер Шенк охарактеризовал их «анти-логические» подходы как « неряшливые » (в отличие от « аккуратных » парадигм в CMU и Стэнфорде). [23] базы знаний здравого смысла (такие как Дуга Ленат «ы Cyc) являются примером «неряшливого» ИИ, поскольку они должны создаваться вручную, по одной сложной концепции за раз. [168]

Основанный на знаниях

Когда примерно в 1970 году стали доступны компьютеры с большой памятью, исследователи всех трех традиций начали встраивать знания в приложения ИИ. [169] Эта «революция знаний» привела к разработке и развертыванию экспертных систем (представленных Эдвардом Фейгенбаумом ), первой действительно успешной формы программного обеспечения ИИ. [51] Ключевым компонентом системной архитектуры для всех экспертных систем является база знаний, в которой хранятся факты и правила, иллюстрирующие ИИ. [170] Революция в области знаний также была вызвана осознанием того, что многие простые приложения ИИ потребуют огромных объемов знаний.

Субсимволический

К 1980-м годам казалось, что прогресс в области символического ИИ остановился, и многие считали, что символические системы никогда не смогут имитировать все процессы человеческого познания, особенно восприятие , робототехнику, обучение и распознавание образов . Ряд исследователей начали изучать «субсимвольные» подходы к конкретным проблемам ИИ. [24] Субсимвольные методы позволяют приблизиться к интеллекту без конкретных репрезентаций знаний.

Воплощенный интеллект

Это включает воплощенный , ситуативный , основанный на поведении и новый ИИ . Исследователи из смежной области робототехники, такие как Родни Брукс , отвергли символический ИИ и сосредоточились на основных инженерных проблемах, которые позволили бы роботам двигаться и выживать. [171] Их работа возродила несимволическую точку зрения первых исследователей кибернетики 1950-х годов и вернула использование теории управления в ИИ. Это совпало с развитием тезиса о воплощенном разуме в смежной области когнитивной науки.: идея о том, что аспекты тела (такие как движение, восприятие и визуализация) необходимы для более высокого интеллекта.

В рамках развивающей робототехники разрабатываются подходы к развивающему обучению, чтобы позволить роботам накапливать репертуар новых навыков посредством автономного самоисследования, социального взаимодействия с учителями-людьми и использования механизмов руководства (активное обучение, созревание, моторная синергия и т. Д.). [172] [173] [174] [175]

Вычислительный интеллект и мягкие вычисления

Интерес к нейронным сетям и « коннекционизму » возродил Дэвид Румелхарт и другие в середине 1980-х годов. [176] Искусственные нейронные сети являются примером мягких вычислений - они являются решениями проблем, которые не могут быть решены с полной логической достоверностью и для которых часто достаточно приблизительного решения. Другие подходы мягких вычислений к ИИ включают нечеткие системы , теорию систем Грея , эволюционные вычисления и многие статистические инструменты. Применение мягких вычислений в искусственном интеллекте коллективно изучается развивающейся дисциплиной вычислительного интеллекта.. [177]

Статистический

Многие традиционные GOFAI увязли в специальных исправлениях для символических вычислений, которые работали на их собственных игрушечных моделях, но не смогли обобщить их на реальные результаты. Однако примерно в 1990-х годах исследователи искусственного интеллекта использовали сложные математические инструменты, такие как скрытые марковские модели (HMM), теорию информации и нормативную байесовскую теорию принятия решений, для сравнения или объединения конкурирующих архитектур. Общий математический язык позволил на высоком уровне сотрудничать с более известными областями (такими как математика , экономика или исследования операций ). [час]По сравнению с GOFAI, новые методы «статистического обучения», такие как HMM и нейронные сети, получали более высокий уровень точности во многих практических областях, таких как интеллектуальный анализ данных , без необходимости получения семантического понимания наборов данных. Рост успеха с реальными данными привел к усилению акцента на сравнении различных подходов с общими тестовыми данными, чтобы увидеть, какой подход работает лучше всего в более широком контексте, чем тот, который предоставляется идиосинкразическими игрушечными моделями; Исследования ИИ становились все более научными . В настоящее время результаты экспериментов часто строго поддаются измерению, а иногда (с трудом) воспроизводятся. [53] [178]Различные методы статистического обучения имеют разные ограничения; например, базовая HMM не может моделировать бесконечное количество возможных комбинаций естественного языка. [179] Критики отмечают, что переход от GOFAI к статистическому обучению часто также является отходом от объяснимого ИИ . В исследованиях AGI некоторые ученые предостерегают от чрезмерной зависимости от статистического обучения и утверждают, что продолжение исследований GOFAI по-прежнему будет необходимо для достижения общего интеллекта. [180] [181]

Интеграция подходов

Парадигма интеллектуального агента
Интеллектуальный агент представляет собой систему , которая воспринимает свою окружающую среду и предпринимает действия , которые максимизируют свои шансы на успех. Простейшие интеллектуальные агенты - это программы, решающие определенные задачи. Более сложные агенты включают людей и человеческие организации (например, фирмы ). Парадигма позволяет исследователям напрямую сравнивать или даже комбинировать различные подходы к изолированным проблемам, задавая вопрос, какой агент лучше всего максимизирует данную «целевую функцию». Агент, который решает конкретную проблему, может использовать любой подход, который работает - некоторые агенты являются символическими и логическими, некоторые - субсимвольными искусственными нейронными сетями, а другие могут использовать новые подходы. Парадигма также дает исследователям общий язык для общения с другими областями, такими кактеория принятия решений и экономика, которые также используют концепции абстрактных агентов. Создание полного агента требует от исследователей решения реальных проблем интеграции; например, поскольку сенсорные системы дают неопределенную информацию об окружающей среде, системы планирования должны уметь работать в условиях неопределенности. Парадигма интеллектуальных агентов получила широкое распространение в 1990-х годах. [182]
Агентные архитектуры и когнитивные архитектуры
Исследователи разработали системы для построения интеллектуальных систем из взаимодействующих интеллектуальных агентов в многоагентной системе . [183] система иерархического управления обеспечивает мост между суб-символическим ИИ на самых низких, реактивных уровнях и традиционный символический ИИ на самом высоком уровне, где смягченные временные ограничения позволяют моделирование планирования и миру. [184] Некоторые когнитивные архитектуры созданы специально для решения узкой проблемы; другие, такие как Soar , предназначены для имитации человеческого познания и обеспечения понимания общего интеллекта. Современные расширения Soar представляют собой гибридные интеллектуальные системы, которые включают как символические, так и субсимвольные компоненты.[91] [185]

Инструменты

Приложения

AI актуален для любой интеллектуальной задачи. [186] Современные методы искусственного интеллекта широко распространены [187], и их слишком много, чтобы перечислять их здесь. Часто, когда техника становится популярной, ее больше не считают искусственным интеллектом; это явление описывается как эффект ИИ . [188]

Яркие примеры ИИ включают автономные транспортные средства (например, дроны и автомобили с автоматическим управлением ), медицинскую диагностику, создание произведений искусства (например, стихов), доказательство математических теорем, игры (например, шахматы или го), поисковые системы (например, Google Search ), онлайн-помощники (такие как Siri ), распознавание изображений на фотографиях, фильтрация спама, прогнозирование задержки рейсов, [189] прогнозирование судебных решений [190], таргетинг интернет-рекламы, [186] [191] [192] и энергетика хранилище [193]

Когда сайты социальных сетей превзошли телевидение в качестве источника новостей для молодежи, а новостные организации все больше полагаются на платформы социальных сетей для распространения, [194] крупные издатели теперь используют технологию искусственного интеллекта (ИИ) для более эффективной публикации историй и создания большего количества публикаций. трафик. [195]

ИИ также может создавать Deepfakes , технологию, изменяющую контент. ZDNet сообщает: «Это представляет собой нечто, чего на самом деле не было». Хотя 88% американцев считают, что Deepfakes может причинить больше вреда, чем пользы, только 47% из них считают, что они могут стать целью. Бум года выборов также открывает общественный дискурс угрозам видео фальсифицированных политических СМИ. [196]

Философия и этика

Есть три философских вопроса, связанных с ИИ [197]

  1. Возможен ли общий искусственный интеллект ; может ли машина решить любую проблему, которую может решить человек с помощью интеллекта, или существуют жесткие ограничения на то, что машина может выполнить.
  2. Опасны ли интеллектуальные машины; как люди могут гарантировать этичное поведение машин и этичное использование.
  3. Может ли машина иметь разум , сознание и психические состояния в том же смысле, что и люди; если машина может быть разумной и, таким образом, заслуживает определенных прав - и если машина может намеренно причинить вред.

Пределы общего искусственного интеллекта

"Вежливое соглашение" Алана Тьюринга
Не нужно решать, может ли машина «думать»; нужно только решить, может ли машина действовать так же разумно, как человек. Такой подход к философским проблемам, связанным с искусственным интеллектом, лежит в основе теста Тьюринга . [198]
Предложение Дартмута
«Каждый аспект обучения или любая другая особенность интеллекта может быть описана с такой точностью, что можно создать машину для его моделирования». Эта гипотеза была напечатана в предложении Дартмутской конференции 1956 г. [199]
Гипотеза системы физических символов Ньюэлла и Саймона
«Физическая система символов имеет необходимые и достаточные средства для общего разумного действия». Ньюэлл и Саймон утверждают, что интеллект состоит из формальных операций над символами. [200] Хуберт Дрейфус утверждает, что, напротив, человеческий опыт зависит от бессознательного инстинкта, а не от сознательного манипулирования символами, и от наличия «ощущения» ситуации, а не от явного символического знания. (См. Критику ИИ Дрейфусом .) [I] [202]
Гёделевские аргументы
Сам Гёдель , [203] Джон Лукас (в 1961 г.) и Роджер Пенроуз (в более подробных аргументах начиная с 1989 г.) выдвинули весьма технические аргументы в пользу того, что математики-люди могут последовательно видеть истинность своих собственных «утверждений Гёделя» и, следовательно, обладают вычислительными способностями за пределами механических машин Тьюринга. [204] Однако некоторые люди не согласны с «гёделевскими аргументами». [205] [206] [207]
Искусственный мозг аргумент
Аргумент, утверждающий, что мозг можно моделировать с помощью машин, и, поскольку мозг демонстрирует интеллект, эти моделируемые мозги также должны проявлять интеллект - следовательно, машины могут быть разумными. Ханс Моравек , Рэй Курцвейл и другие утверждали, что технологически возможно скопировать мозг непосредственно в аппаратное и программное обеспечение, и что такая симуляция будет по существу идентична оригиналу. [158]
Эффект ИИ
Гипотеза, утверждающая, что машины уже разумны, но наблюдатели не смогли ее распознать. Например, когда Deep Blue обыграл Гарри Каспарова в шахматах, машину можно было охарактеризовать как проявление интеллекта. Однако сторонние наблюдатели обычно игнорируют поведение программы искусственного интеллекта, утверждая, что это не «настоящий» интеллект, а «настоящий» интеллект фактически определяется как то, что машины поведения не могут делать.

Этические машины

Машины с интеллектом могут использовать свой интеллект для предотвращения вреда и минимизации рисков; они могут иметь возможность использовать этическое мышление, чтобы лучше выбирать свои действия в этом мире. Таким образом, существует необходимость в разработке политики для разработки политики и регулирования искусственного интеллекта и робототехники. [208] Исследования в этой области включают машинную этику , искусственные моральные агенты , дружественный ИИ, а также ведутся переговоры о создании структуры прав человека . [209]

Джозеф Вайзенбаум в книге « Сила компьютера и человеческий разум» писал, что приложения ИИ по определению не могут успешно имитировать подлинное человеческое сочувствие и что использование технологий ИИ в таких областях, как обслуживание клиентов или психотерапия [j], было глубоко ошибочным. Вайценбаума также беспокоило то, что исследователи ИИ (и некоторые философы) были готовы рассматривать человеческий разум как не более чем компьютерную программу (позиция, теперь известная как вычислительный подход ). По мнению Вайценбаума, эти моменты предполагают, что исследования ИИ обесценивают человеческую жизнь. [211]

Искусственные моральные агенты

Венделл Уоллах представил концепцию искусственных моральных агентов (AMA) в своей книге « Моральные машины» [212]. По мнению Уоллаха, AMA стали частью исследовательского ландшафта искусственного интеллекта, руководствуясь двумя его центральными вопросами, которые он определяет как «хочет ли человечество Компьютеры, принимающие моральные решения » [213] и« Могут ли (Ro) боты действительно быть моральными ». [214] Для Уоллаха вопрос заключается не в том, могут ли машины демонстрировать эквивалент морального поведения, в отличие от ограничений, которые общество может наложить на разработку AMA. [215]

Машинная этика

Сфера машинной этики связана с тем, чтобы дать машинам этические принципы или процедуру для открытия способа решения этических дилемм, с которыми они могут столкнуться, позволяя им действовать этически ответственным образом посредством принятия ими собственных этических решений. [216]Эта область была очерчена на Симпозиуме AAAI по машинной этике осенью 2005 года: «Прошлые исследования, касающиеся взаимосвязи между технологией и этикой, в основном были сосредоточены на ответственном и безответственном использовании технологий людьми, и некоторые люди интересовались тем, как люди должны относиться к машинам. Во всех случаях этическими рассуждениями занимались только люди. Пришло время добавить этическое измерение по крайней мере к некоторым машинам. Признание этических ответвлений поведения машин, а также недавних и потенциальных разработок в машиностроении В отличие от взлома компьютеров, проблем с собственностью программного обеспечения, вопросов конфиденциальности и других тем, которые обычно приписываются компьютерной этике, этика машин связана с поведением машин по отношению к пользователям-людям и другим машинам.Исследования в области машинной этики являются ключом к снятию опасений по поводу автономных систем - можно утверждать, что понятие автономных машин без такого измерения лежит в основе всех опасений, связанных с машинным интеллектом. Кроме того, исследование машинной этики может позволить выявить проблемы с текущими этическими теориями, продвигая наши взгляды на этику ».[217] Машинную этику иногда называют машинной моралью, вычислительной этикой или вычислительной моралью. Множество точек зрения на эту зарождающуюся область можно найти в сборнике «Машинная этика» [216], который был составлен на симпозиуме по машинной этике осенью 2005 года. [217]

Злобный и дружелюбный ИИ

Политолог Чарльз Т. Рубин считает, что ИИ не может быть ни спроектирован, ни гарантирован доброжелательным. [218] Он утверждает, что «любая достаточно развитая доброжелательность неотличима от злобы». Люди не должны предполагать, что машины или роботы будут относиться к нам благосклонно, потому что нет априорной причины полагать, что они будут сочувствовать нашей системе морали, которая развивалась вместе с нашей особой биологией (которую ИИ не разделяет). Гиперинтеллектуальное программное обеспечение не обязательно решит поддерживать дальнейшее существование человечества, и его будет чрезвычайно трудно остановить. Эта тема также недавно стала обсуждаться в академических публикациях как реальный источник рисков для цивилизации, людей и планеты Земля.

Одно из предложений по решению этой проблемы - обеспечить, чтобы первый в целом интеллектуальный ИИ был « Дружественным ИИ » и мог контролировать ИИ, создаваемые впоследствии. Некоторые сомневаются, может ли такая проверка действительно оставаться в силе.

Ведущий исследователь ИИ Родни Брукс пишет: «Я думаю, что было бы ошибкой беспокоиться о том, что мы разрабатываем злонамеренный ИИ в любое время в ближайшие несколько сотен лет. Я думаю, что беспокойство проистекает из фундаментальной ошибки, заключающейся в том, что мы не проводим различия между реальными достижениями последнего времени. в конкретном аспекте ИИ, а также о масштабах и сложности создания разумного волевого интеллекта ». [219]

Беспокойство вызывает летальное автономное оружие . В настоящее время роботов на поле боя исследуют более 50 стран, в том числе США, Китай, Россия и Великобритания. Многие люди, обеспокоенные рисками, связанными с сверхразумным ИИ, также хотят ограничить использование искусственных солдат и дронов. [220]

Машинное сознание, разум и разум

Если система искусственного интеллекта воспроизводит все ключевые аспекты человеческого интеллекта, будет ли эта система также разумной - будет ли у нее разум, обладающий сознательным опытом ? Этот вопрос тесно связан с философской проблемой природы человеческого сознания, которую обычно называют сложной проблемой сознания .

Сознание

Дэвид Чалмерс выделил две проблемы в понимании разума, которые он назвал «трудной» и «легкой» проблемами сознания. [221] Простая проблема - понять, как мозг обрабатывает сигналы, строит планы и контролирует поведение. Сложная проблема состоит в том, чтобы объяснить, как это ощущается или почему это вообще должно ощущаться. Обработку информации человеком легко объяснить, однако субъективный опыт человека объяснить трудно.

Например, подумайте, что происходит, когда человеку показывают образец цвета и он идентифицирует его, говоря, что он красный. Простая задача требует только понимания механизма в мозгу, который позволяет человеку узнать, что образец цвета красный. Сложная проблема в том, что люди знают еще кое-что - они также знают, как выглядит красный цвет . (Учтите, что слепорожденный может знать, что что-то красное, не зная, как выглядит красный.) [K] Все знают, что существует субъективный опыт, потому что они делают это каждый день (например, все зрячие люди знают, как выглядит красный). Сложная проблема состоит в том, чтобы объяснить, как мозг их создает, почему он существует и чем отличается от знаний и других аспектов мозга.

Вычислительность и функционализм

Компьютационализм - это позиция в философии разума , согласно которой человеческий разум или человеческий мозг (или и то, и другое) являются системой обработки информации, а мышление - формой вычислений. [222] Компьютационализм утверждает, что отношения между разумом и телом аналогичны или идентичны отношениям между программным обеспечением и оборудованием и, таким образом, могут быть решением проблемы разума и тела . Эта философская позиция была вдохновлена ​​работой исследователей искусственного интеллекта и когнитивистов в 1960-х годах и первоначально была предложена философами Джерри Фодором и Хилари Патнэм .

Сильная гипотеза ИИ

Философская позиция, которую Джон Сирл назвал «сильным ИИ», гласит: «Соответственно запрограммированный компьютер с правильными входами и выходами, таким образом, будет иметь разум в том же смысле, что и человеческие существа». [l] Сирл противопоставляет это утверждение своим аргументом в пользу китайской комнаты , который просит нас заглянуть внутрь компьютера и попытаться найти, где может быть «разум». [224]

Права роботов

Если можно создать машину, обладающую интеллектом, сможет ли она тоже почувствовать ? Если он может чувствовать, имеет ли он те же права, что и человек? Этот вопрос, теперь известный как « права роботов », в настоящее время рассматривается, например, Калифорнийским институтом будущего , хотя многие критики считают, что обсуждение преждевременно. [225] [226] Некоторые критики трансгуманизма утверждают, что любые гипотетические права роботов лежат в спектре прав животных и прав человека. [227] Эта тема подробно обсуждается в документальном фильме 2010 года Plug & Pray , [228] и во многих научно-фантастических СМИ, таких какStar Trek Next Generation с персонажем командира Дейта , который боролся с разборкой для исследования и хотел «стать человеком», и роботизированные голограммы в «Вояджере».

Суперинтеллект

Есть ли пределы тому, насколько интеллектуальными машинами - или гибридами человека и машины - могут быть? Сверхразум, гиперинтеллект или сверхчеловеческий интеллект - это гипотетический агент, который будет обладать интеллектом, намного превосходящим интеллект самого яркого и одаренного человека. Сверхразум также может относиться к форме или степени интеллекта, которыми обладает такой агент. [152]

Технологическая особенность

Если исследования сильного ИИ позволят создать достаточно интеллектуальное программное обеспечение, оно сможет перепрограммировать и улучшить себя. Улучшенное программное обеспечение могло бы даже лучше улучшаться, приводя к рекурсивному самосовершенствованию . [229] Таким образом, новый интеллект может расти в геометрической прогрессии и значительно превзойти человеческий. Писатель-фантаст Вернор Виндж назвал этот сценарий « сингулярностью ». [230]Технологическая сингулярность - это когда ускорение прогресса в технологиях вызовет неконтролируемый эффект, при котором искусственный интеллект превзойдет человеческие интеллектуальные возможности и контроль, таким образом радикально изменив или даже положив конец цивилизации. Поскольку возможности такого интеллекта могут оказаться невозможными для понимания, технологическая особенность - это явление, за пределами которого события непредсказуемы или даже непостижимы. [230] [152]

Рэй Курцвейл использовал закон Мура (который описывает неуклонное экспоненциальное улучшение цифровых технологий), чтобы вычислить, что настольные компьютеры будут иметь такую ​​же вычислительную мощность, что и человеческий мозг к 2029 году, и предсказал, что сингулярность произойдет в 2045 году [230].

Трансгуманизм

Дизайнер роботов Ханс Моравек , кибернетик Кевин Уорвик и изобретатель Рэй Курцвейл предсказали, что люди и машины в будущем сольются в киборгов, которые будут более способными и мощными, чем любой другой. [231] Эта идея, называемая трансгуманизмом , восходит к Олдосу Хаксли и Роберту Эттингеру .

Эдвард Фредкин утверждает, что «искусственный интеллект - следующий этап эволюции», идея, впервые предложенная Сэмюэлем Батлером « Дарвин среди машин » еще в 1863 году и развитая Джорджем Дайсоном в его одноименной книге в 1998. [232]

Влияние

Долгосрочные экономические эффекты ИИ неизвестны. Опрос экономистов показал разногласия по поводу того, приведет ли растущее использование роботов и ИИ к существенному увеличению долгосрочной безработицы , но в целом они согласны с тем, что это может быть чистой выгодой, если прирост производительности будет перераспределен . [233] В исследовании PricewaterhouseCoopers, проведенном в 2017 году, показано, что Китайская Народная Республика будет экономически наиболее эффективно использовать ИИ с 26,1% ВВП до 2030 года. [234]В официальном документе Европейского союза по искусственному интеллекту, опубликованном в феврале 2020 года, содержится призыв к использованию искусственного интеллекта для получения экономических выгод, включая «улучшение здравоохранения (например, более точную диагностику, более эффективную профилактику заболеваний), повышение эффективности сельского хозяйства, содействие смягчению последствий изменения климата и адаптации к нему, [и] повышение эффективности производственных систем посредством профилактического обслуживания », признавая при этом потенциальные риски. [187]

Отношения между автоматизацией и занятостью усложняются. Хотя автоматизация устраняет старые рабочие места, она также создает новые рабочие места за счет микроэкономических и макроэкономических эффектов. [235] В отличие от предыдущих волн автоматизации, многие рабочие места среднего класса могут быть устранены с помощью искусственного интеллекта; The Economist заявляет, что «беспокойство о том, что ИИ может сделать с рабочими местами белых воротничков то же, что паровая энергия сделала синих воротничков во время промышленной революции», «заслуживает серьезного отношения». [236] Субъективные оценки риска сильно различаются; например, Майкл Осборн и Карл Бенедикт Фрей оценивают, что 47% рабочих мест в США подвержены «высокому риску» потенциальной автоматизации, в то время как в отчете ОЭСР только 9% рабочих мест в США классифицируются как «высокий риск".[237] [238] [239] Рабочие места с высоким уровнем риска варьируются от помощников юриста до поваров быстрого питания, в то время как спрос на рабочие места, вероятно, вырастет для профессий, связанных с уходом, от личного здравоохранения до духовенства. [240] Автор Мартин Форд и другие идут дальше и утверждают, что многие работы рутинны, повторяемы и (для ИИ) предсказуемы; Форд предупреждает, что эти рабочие места могут быть автоматизированы в ближайшие пару десятилетий, и что многие из новых рабочих мест могут быть «недоступны для людей со средними возможностями» даже при переподготовке. Экономисты отмечают, что в прошлом технологии имели тенденцию увеличивать, а не сокращать общую занятость, но признают, что «мы на неизведанной территории» с ИИ. [34]

Потенциальные негативные последствия искусственного интеллекта и автоматизации представляют собой серьезную проблему для Эндрю Янг «s 2020 президентской кампании в Соединенных Штатах. [241]Ираклий Беридзе, руководитель Центра искусственного интеллекта и робототехники при ЮНИКРИ, ООН, заявил, что «я думаю, что опасными приложениями для ИИ, с моей точки зрения, могут быть преступники или крупные террористические организации, использующие его для срыва крупных процессов или просто нанести чистый вред. [Террористы могут причинить вред] посредством цифровой войны, или это может быть комбинация робототехники, дронов, искусственного интеллекта и других вещей, которые могут быть действительно опасными. И, конечно же, другие риски исходят от таких вещей, как потеря рабочих мест. Если огромное количество людей потеряют работу и не найдут решения, это будет чрезвычайно опасно. Такие вещи, как смертоносные автономные системы оружия, должны управляться надлежащим образом - в противном случае существует огромный потенциал неправильного использования ». [242]

Риски узкого ИИ

Широкое использование искусственного интеллекта может иметь непредвиденные последствия , опасные или нежелательные. Ученые из Института будущего жизни , среди прочего, описали некоторые краткосрочные исследовательские цели, чтобы увидеть, как ИИ влияет на экономику, законы и этику, связанные с ИИ, и как минимизировать риски безопасности ИИ. В долгосрочной перспективе ученые предложили продолжить оптимизацию функций, минимизируя возможные риски безопасности, связанные с новыми технологиями. [243]

Некоторые обеспокоены алгоритмической предвзятостью , что программы ИИ могут непреднамеренно стать предвзятыми после обработки данных, которые демонстрируют предвзятость. [244] Алгоритмы уже нашли множество приложений в правовых системах. Примером этого является COMPAS , коммерческая программа, широко используемая судами США для оценки вероятности того, что ответчик станет рецидивистом . ProPublica утверждает, что средний уровень риска рецидивизма для чернокожих обвиняемых, установленный Компасом, значительно выше, чем средний уровень риска, установленный Компасом для белых подсудимых. [245]

Риски общего ИИ

Физик Стивен Хокинг , основатель Microsoft Билл Гейтс , профессор истории Юваль Ноа Харари и основатель SpaceX Илон Маск выразили обеспокоенность по поводу возможности того, что ИИ может эволюционировать до такой степени, что люди не смогут его контролировать, при этом Хокинг предположил, что это может означать конец человеческого рода ". [246] [247] [248] [249]

Развитие полного искусственного интеллекта может означать конец человечества. Как только люди разовьют искусственный интеллект, он будет развиваться сам по себе и со все возрастающей скоростью модернизировать себя. Люди, которые ограничены медленной биологической эволюцией, не могут конкурировать и будут вытеснены.

-  Стивен Хокинг [250]

В своей книге « Суперинтеллект» философ Ник Бостром аргументирует, что искусственный интеллект представляет угрозу для человечества. Он утверждает, что достаточно умный ИИ, если он выбирает действия, основанные на достижении некоторой цели, будет демонстрировать конвергентныетакое поведение, как получение ресурсов или защита от отключения. Если цели этого ИИ не полностью отражают цели человечества - одним из примеров является ИИ, которому приказано вычислить как можно больше цифр числа Пи - он может нанести вред человечеству, чтобы получить больше ресурсов или предотвратить отключение, в конечном итоге для лучшего достижения своей цели. . Бостром также подчеркивает сложность полной передачи человеческих ценностей передовым ИИ. Он использует гипотетический пример того, как ИИ ставит перед собой цель заставить людей улыбнуться, чтобы проиллюстрировать ошибочную попытку. Если бы ИИ в этом сценарии стал суперинтеллектуальным, утверждает Бостром, он мог бы прибегнуть к методам, которые большинство людей сочли бы ужасными, такими как введение «электродов в лицевые мышцы людей, чтобы вызывать постоянные сияющие улыбки».потому что это был бы эффективный способ добиться своей цели - заставить людей улыбаться.[251] В своей книге « Совместимость с людьми» исследователь искусственного интеллекта Стюарт Дж. Рассел разделяет некоторые опасения Бострома, а также предлагает подход к разработке доказательно полезных машин, ориентированный на неуверенность и уважение к людям, [252] : 173 возможно, включающий обучение с обратным подкреплением . [252] : 191–193

Обеспокоенность рисками, связанными с искусственным интеллектом, привела к некоторым громким пожертвованиям и инвестициям. Группа выдающихся технологических титанов, включая Питера Тиля , Amazon Web Services и Маска, выделила 1 миллиард долларов OpenAI , некоммерческой компании, нацеленной на поддержку ответственной разработки ИИ. [253] Мнения экспертов в области искусственного интеллекта неоднозначны, значительная часть которых обеспокоена и не обеспокоена риском, связанным со сверхспособностями ИИ. [254] Другие лидеры технологической индустрии считают, что искусственный интеллект в его нынешнем виде полезен и будет продолжать помогать людям. Генеральный директор Oracle Марк Хердзаявил, что ИИ «фактически создаст больше рабочих мест, а не меньше», поскольку люди будут необходимы для управления системами ИИ. [255] Генеральный директор Facebook Марк Цукерберг считает, что ИИ «откроет огромное количество положительных вещей», таких как лечение болезней и повышение безопасности автономных автомобилей. [256] В январе 2015 года Маск пожертвовал 10 миллионов долларов Институту будущего жизни на финансирование исследований по пониманию процесса принятия решений ИИ. Цель института - «вырастить мудрость, с помощью которой мы управляем» растущей мощью технологий. Маск также финансирует компании, разрабатывающие искусственный интеллект, такие как DeepMind и Vicarious, чтобы «просто следить за тем, что происходит с искусственным интеллектом».[257]Я думаю, что здесь есть потенциально опасный исход ». [258] [259]

Чтобы реализовать опасность неконтролируемого продвинутого ИИ, гипотетический ИИ должен пересилить или превзойти все человечество, что, по мнению меньшинства экспертов, является достаточно далекой возможностью в будущем, чтобы не стоило исследовать. [260] [261] Другие контраргументы вращаются вокруг людей, которые обладают внутренней или конвергентной ценностью с точки зрения искусственного интеллекта. [262]

Регулирование

Регулирование искусственного интеллекта - это разработка политики и законов государственного сектора для продвижения и регулирования искусственного интеллекта (ИИ); [263] [264], следовательно, это связано с более широким регулированием алгоритмов . Нормативно-правовая и политическая среда для ИИ - это новая проблема в юрисдикциях по всему миру, в том числе в Европейском Союзе. [265] Регулирование считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками. [266] [267] Регулирование ИИ с помощью таких механизмов, как контрольные комиссии, также можно рассматривать как социальное средство решения проблемы управления ИИ . [268]

В художественной литературе

Само слово «робот» было придумано Карлом Чапеком в его пьесе 1921 года « RUR» , название которой означает «Универсальные роботы Россума».

Способные к мысли искусственные существа появились как устройства для повествования со времен античности [36] и были постоянной темой в научной фантастике .

Обычный образ в этих работах начался с « Франкенштейна» Мэри Шелли , где человеческое творение становится угрозой для своих хозяев. Сюда входят такие работы, как « 2001: Космическая одиссея» Артура Кларка и Стэнли Кубрика (обе 1968 г.) с HAL 9000 , смертоносным компьютером, отвечающим за космический корабль Discovery One , а также «Терминатор» (1984) и «Матрица» (1999). ). Напротив, редкие лояльные роботы, такие как Горт из «Дня, когда Земля остановилась» (1951) и Бишоп из « Чужих» (1986), менее заметны в массовой культуре. [269]

Айзек Азимов представил три закона робототехники во многих книгах и рассказах, в первую очередь в серии «Multivac» о сверхразумном компьютере с таким же названием. Законы Азимова часто поднимаются во время непрофессиональных дискуссий о машинной этике; [270] Хотя почти все исследователи искусственного интеллекта знакомы с законами Азимова через массовую культуру, они обычно считают эти законы бесполезными по многим причинам, одна из которых - их двусмысленность. [271]

Трансгуманизм (слияние людей и машин) исследуется в манге « Призрак в доспехах» и научно-фантастическом сериале « Дюна» . В 1980-х годах в Японии была нарисована и опубликована серия «Сексуальных роботов» художника Хадзиме Сораямы, изображающая реальную органическую человеческую форму с реалистичной мускулистой металлической кожей, а позже последовала книга «Гиноиды», которая использовалась или оказывала влияние на создателей кино, включая Джорджа Лукаса и других креативы. Сораяма никогда не считал этих органических роботов реальной частью природы, но всегда был неестественным продуктом человеческого разума, фантазией, существующей в уме, даже когда она реализована в реальной форме.

В нескольких работах ИИ используется, чтобы заставить нас ответить на фундаментальный вопрос о том, что делает нас людьми, показывая нам искусственных существ, которые обладают способностью чувствовать и, следовательно, страдать. Это проявляется в Карела Чапека «s руб , фильмы AI Искусственный интеллект и Ex Machina , а также роман ли андроиды Сон Electric Sheep? , Филипп К. Дик . Дик рассматривает идею о том, что наше понимание человеческой субъективности изменено технологиями, созданными с помощью искусственного интеллекта. [272]

Смотрите также

  • AI Rising
  • Проблема управления AI
  • Гонка вооружений искусственного интеллекта
  • Алгоритм выбора поведения
  • Автоматизация бизнес-процессов
  • Рассуждения на основе случая
  • Гражданская наука
  • Эмерджентный алгоритм
  • Женский гендер в технологиях ИИ
  • Глоссарий искусственного интеллекта
  • Регулирование искусственного интеллекта
  • Роботизированная автоматизация процессов
  • Синтетический интеллект
  • Универсальный базовый доход
  • Слабый ИИ

Пояснительные примечания

  1. ^ Акт раздачи вознаграждений может быть формализован или автоматизирован в « функцию вознаграждения ».
  2. ^ Терминология меняется; см. характеристики алгоритмов .
  3. ^ Состязательные уязвимости также могут привести к нелинейным системам или из-за нестандартных возмущений. Некоторые системы настолько хрупкие, что изменение одного пикселя-противника предсказуемо приводит к ошибочной классификации.
  4. Алан Тьюринг обсуждал центральную роль обучения еще в 1950 году в своей классической статье « Вычислительные машины и интеллект ». [119] В 1956 году на первоначальной летней конференции ИИ в Дартмуте Рэй Соломонофф написал доклад о вероятностном машинном обучении без учителя: «Машина индуктивного вывода». [120]
  5. ^ Это формашироко цитируемого определения машинного обучения Тома Митчелла : «Компьютерная программа должна учиться на опыте E в отношении некоторой задачи T и некоторого показателя производительности P, если ее производительность на T, измеренная с помощью P, улучшается. с опытом E. "
  6. ^ Нильс Нильссон пишет: «Проще говоря, в этой области существуют большие разногласия по поводу того, что такое ИИ». [160]
  7. ^ Наиболее ярким примером суб-символического ИИ быть отодвинут на задний план был разрушительной критики персептронов по Марвин Мински и Пейперт в 1969 г. См истории А.И. , зимой А.И. , или Розенблатт . [ необходима цитата ]
  8. ^ Хотя такая «победа аккуратности» может быть следствием того, что область становится более зрелой, AIMA заявляет, что на практикев исследованиях ИИ по-прежнему необходимыкак аккуратный, так и неряшливый подходы.
  9. ^ Дрейфус подверг критике необходимое условиегипотезы физической системы символов , которую он назвал «психологическим допущением»: «Разум можно рассматривать как устройство, оперирующее битами информации в соответствии с формальными правилами». [201]
  10. В начале 1970-х Кеннет Колби представил версию ELIZA Вайценбаума, известную как DOCTOR, которую он продвигал как серьезный терапевтический инструмент. [210]
  11. Это основано намысленном эксперименте «Комната Мэри» , впервые предложенном Фрэнком Джексоном в 1982 году.
  12. ^ Эта версия взята из Searle (1999) , а также цитируется у Dennett 1991 , p. 435. Первоначальная формулировка Сирла заключалась в следующем: «Соответствующим образом запрограммированный компьютер на самом деле является разумом в том смысле, что можно буквально сказать, что компьютеры, получившие правильные программы, понимают и имеют другие когнитивные состояния». [223] Сильный ИИ определяется аналогичным образом Расселом и Норвигом (Russell & Norvig, 2003 , стр. 947): «Утверждение о том, что машины могут действовать разумно (или, что лучше, действовать так, как если бы они были разумными), называется гипотезой« слабого ИИ ». философами, а утверждение, что машины, которые это делают, действительно думают (а не моделируют мышление), называется гипотезой «сильного ИИ» ».

Рекомендации

  1. ^ Пул, Mackworth & Goebel 1998 , стр. 1 .
  2. ^ Russell & Норвиг 2003 , стр. 55.
  3. ^ a b c Определение ИИ как исследования интеллектуальных агентов :
    • Poole, Mackworth & Goebel (1998) , который предоставляет версию, используемую в этой статье. Эти авторы используют термин «вычислительный интеллект» как синоним искусственного интеллекта. [1]
    • Russell & Norvig (2003) (которые предпочитают термин «рациональный агент») и пишут: «Представление о целостном агенте сейчас широко применяется в этой области». [2]
    • Нильссон 1998
    • Легг и Хаттер 2007
  4. ^ Russell & Норвиг 2009 , стр. 2.
  5. ^ МакКордак 2004 , стр. 204
  6. ^ Maloof, Марк. «Искусственный интеллект: введение, стр. 37» (PDF) . georgetown.edu . Архивировано (PDF) из оригинала 25 августа 2018 года.
  7. ^ «Как ИИ делает революционные изменения в управлении талантами и HR-технологиях» . Hackernoon. Архивировано 11 сентября 2019 года . Дата обращения 14 февраля 2020 .
  8. ^ Schank, Роджер С. (1991). «Где ИИ». Журнал AI . Vol. 12 нет. 4. п. 38.
  9. ^ а б Рассел и Норвиг 2009 .
  10. ^ a b "AlphaGo - Google DeepMind" . Архивировано 10 марта 2016 года.
  11. Аллен, Грегори (апрель 2020 г.). "Объединенный центр искусственного интеллекта Министерства обороны - понимание технологии искусственного интеллекта" (PDF) . AI.mil - официальный сайт Объединенного центра искусственного интеллекта Министерства обороны США . Архивировано (PDF) из оригинала 21 апреля 2020 года . Проверено 25 апреля 2020 года .
  12. ^ a b Оптимизм раннего ИИ: * Цитата Герберта Саймона : Саймон 1965 , стр. 96 цитируется по Crevier 1993 , p. 109 . * Цитата Марвина Мински : Минский 1967 , стр. 2 цитируется по Crevier 1993 , p. 109 .
  13. ^ a b c Бум 1980-х: рост экспертных систем , Fifth Generation Project , Alvey , MCC , SCI : * McCorduck 2004 , стр. 426–441 * Crevier 1993 , стр. 161–162,197–203, 211, 240 * Russell И Норвиг 2003 , стр. 24 * NRC 1999 , стр. 210–211 * Newquist 1994 , стр. 235–248
  14. ^ a b Первый А.И. Винтер , Поправка Мэнсфилда , отчет Лайтхилла * Crevier 1993 , стр. 115–117 * Russell & Norvig 2003 , p. 22 * NRC 1999 , стр. 212–213 * Howe 1994 * Newquist 1994 , стр 189–201
  15. ^ a b Вторая зима искусственного интеллекта : * McCorduck 2004 , стр. 430–435 * Crevier 1993 , стр. 209–210 * NRC 1999 , стр. 214–216 * Newquist 1994 , стр. 301–318
  16. ^ a b c ИИ становится чрезвычайно успешным в начале 21 века * Clark 2015b
  17. ^ Haenlein, Майкл; Каплан, Андреас (2019). «Краткая история искусственного интеллекта: прошлое, настоящее и будущее искусственного интеллекта» . Обзор управления Калифорнии . 61 (4): 5–14. DOI : 10.1177 / 0008125619864925 . ISSN 0008-1256 . S2CID 199866730 .  
  18. ^ a b Памела МакКордак (2004 , стр. 424) пишет о «грубом разрушении ИИ в подполях - зрение, естественный язык, теория принятия решений, генетические алгоритмы, робототехника ... и все это с собственным подподполем, - что вряд ли было бы возможным. что-нибудь сказать друг другу ".
  19. ^ a b c Этот список интеллектуальных качеств основан на темах, охватываемых основными учебниками по ИИ, включая: * Russell & Norvig 2003 * Luger & Stubblefield 2004 * Poole, Mackworth & Goebel 1998 * Nilsson 1998
  20. ^ Kolata 1982 .
  21. Перейти ↑ Maker 2006 .
  22. ^ a b c Биологический интеллект против интеллекта в целом:
    • Russell & Norvig 2003 , pp. 2–3 , которые проводят аналогию с авиационной техникой .
    • McCorduck 2004 , pp. 100–101 , который пишет, что существует «две основные ветви искусственного интеллекта: одна направлена ​​на создание разумного поведения независимо от того, как это было реализовано, а другая направлена ​​на моделирование интеллектуальных процессов, встречающихся в природе, особенно человеческих. . "
    • Колата 1982 , статья в Science , в которой описывается безразличие Маккарти к биологическим моделям. Колата цитирует Маккарти: «Это ИИ, поэтому нам все равно, реально ли он психологически». [20] Маккарти недавно подтвердил свою позицию на конференции AI @ 50, где сказал: «Искусственный интеллект по определению не является имитацией человеческого интеллекта». [21]
  23. ^ a b c Чистые и грязные : * McCorduck 2004 , стр. 421–424, 486–489 * Crevier 1993 , стр. 168 * Nilsson 1983 , стр. 10–11
  24. ^ a b Символический и субсимвольный ИИ: * Nilsson (1998 , стр. 7), который использует термин «субсимвольный».
  25. ^ a b Общий интеллект ( сильный ИИ ) обсуждается в популярных введениях в ИИ: * Kurzweil 1999 и Kurzweil 2005
  26. ^ См. Предложение Дартмута в разделе « Философия» ниже.
  27. ^ МакКордак 2004 , стр. 34.
  28. ^ МакКордак 2004 , стр. xviii.
  29. ^ МакКордак 2004 , стр. 3.
  30. ^ McCorduck 2004 , стр. 340-400.
  31. ^ a b Это центральная идея книги Памелы МакКордак « Машины, которые думают» . Она пишет:
    • «Мне нравится думать об искусственном интеллекте как об научном апофеозе почтенной культурной традиции». [27]
    • «Искусственный интеллект в той или иной форме - это идея, которая пронизала западную интеллектуальную историю, мечта, которая срочно нуждается в воплощении». [28]
    • «Наша история полна попыток - сумасшедших, жутких, комичных, серьезных, легендарных и реальных - создать искусственный интеллект, воспроизвести то, что является для нас сущностным, минуя обычные средства. Между мифом и реальностью, наше воображение снабжает то, что наши мастерские не могли, мы давно занимаемся этой странной формой самовоспроизведения ». [29]
    Она прослеживает это желание до его эллинистических корней и называет его побуждением «выковать богов». [30]
  32. ^ «Стивен Хокинг считает, что ИИ может быть последним достижением человечества» . BetaNews . 21 октября 2016 года. Архивировано 28 августа 2017 года.
  33. Перейти ↑ Lombardo P, Boehm I, Nairz K (2020). «RadioComics - Санта-Клаус и будущее радиологии» . Eur J Radiol . 122 (1): 108771. DOI : 10.1016 / j.ejrad.2019.108771 . PMID 31835078 . 
  34. ^ а б Форд, Мартин; Колвин, Джефф (6 сентября 2015 г.). «Смогут ли роботы создать больше рабочих мест, чем уничтожить?» . Хранитель . Архивировано 16 июня 2018 года . Проверено 13 января 2018 .
  35. ^ a b Приложения ИИ, широко используемые за кулисами: * Russell & Norvig 2003 , p. 28 * Курцвейл 2005 , стр. 265 * NRC 1999 , стр. 216–222 * Newquist 1994 , стр. 189–201
  36. ^ a b ИИ в мифе: * McCorduck 2004 , стр. 4–5 * Russell & Norvig 2003 , p. 939
  37. ^ AI в ранней научной фантастике. * McCorduck 2004 , стр. 17–25.
  38. ^ Формальные рассуждения: * Берлински, Дэвид (2000). Появление алгоритма . Книги Харкорта. ISBN 978-0-15-601391-8. OCLC  46890682 . Архивировано 26 июля 2020 года . Проверено 22 августа 2020 .
  39. Тьюринг, Алан (1948), «Машинный интеллект», в Copeland, B. Jack (ed.), The Essential Turing: The Ideas that have the computer age , Oxford: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
  40. ^ Russell & Норвиг 2009 , стр. 16.
  41. ^ Дартмутская конференция : * McCorduck 2004 , pp. 111–136* Crevier 1993 , pp. 47–49, который пишет: «Конференция общепризнана как официальная дата рождения новой науки». * Russell & Norvig 2003 , стр. 17, которые называют конференцию «рождением искусственного интеллекта». * NRC 1999 , стр. 200–201.
  42. ^ Маккарти, Джон (1988). «Обзор вопроса об искусственном интеллекте ». Анналы истории вычислительной техники . 10 (3): 224–229., собранные в McCarthy, John (1996). «10. Обзор вопроса об искусственном интеллекте ». Защита исследований ИИ: сборник эссе и обзоров . CSLI., п. 73, «Одна из причин для изобретения термина« искусственный интеллект »заключалась в том, чтобы избежать ассоциации с« кибернетикой ». Его концентрация на аналоговой обратной связи казалась ошибочной, и я хотел избежать необходимости принимать Норберта (не Роберта) Винера как гуру или спорить с ним ».
  43. ^ Гегемония участников Дартмутской конференции: * Russell & Norvig 2003 , p. 17, которые пишут «в течение следующих 20 лет в этой области будут доминировать эти люди и их студенты». * McCorduck 2004 , стр. 129–130.
  44. ^ Russell & Норвиг 2003 , стр. 18.
  45. Schaeffer J. (2009) Разве Сэмюэл не решил эту игру ?. В: На прыжок вперед. Спрингер, Бостон, Массачусетс
  46. Перейти ↑ Samuel, AL (июль 1959). «Некоторые исследования машинного обучения с использованием игры в шашки». Журнал исследований и разработок IBM . 3 (3): 210–229. CiteSeerX 10.1.1.368.2254 . DOI : 10.1147 / rd.33.0210 . 
  47. ^ " Золотые годы " ИИ (успешные программы символического мышления 1956–1973): * McCorduck 2004 , стр. 243–252*Crevier 1993 , стр. 52–107* Moravec 1988 , p. 9 * Russell & Норвиг 2003 , стр. 18-21Программы описанные Артур Самуэль «программа шашек s для IBM 701 , Daniel Бобров » s СТУДЕНТ , Ньюэлл и Саймон «s Logic Теоретик и Терри Винограда » s SHRDLU .
  48. ^ DARPA вкладывает деньги в неориентированные чистые исследования ИИ в течение 1960-х: * McCorduck 2004 , p. 131* Crevier 1993 , стр. 51, 64–65* NRC 1999 , стр. 204–205
  49. ^ AI в Англии: * Howe 1994
  50. ^ Лайтхилл 1973 .
  51. ^ a b Экспертные системы: * ACM 1998 , I.2.1 * Russell & Norvig 2003 , стр. 22–24 * Luger & Stubblefield 2004 , стр. 227–331 * Nilsson 1998 , гл. 17.4 * McCorduck 2004 , стр. 327–335, 434–435 * Crevier 1993 , стр. 145–62, 197–203 * Newquist 1994 , стр. 155–183
  52. ^ Мид, Карвер А .; Исмаил, Мохаммед (8 мая 1989 г.). Аналоговая реализация нейронных систем на СБИС (PDF) . Международная серия Kluwer в области инженерии и информатики. 80 . Norwell, MA: Kluwer Academic Publishers . DOI : 10.1007 / 978-1-4613-1639-8 . ISBN  978-1-4613-1639-8. Архивировано из оригинального (PDF) 6 ноября 2019 года . Проверено 24 января 2020 года .
  53. ^ a b Теперь предпочтение отдается формальным методам («Победа аккуратных »): * Russell & Norvig 2003 , стр. 25–26 * McCorduck 2004 , стр. 486–487
  54. ^ McCorduck 2004 , стр. 480-483.
  55. ^ Markoff 2011 .
  56. ^ «Спросите экспертов по ИИ: что движет сегодняшним прогрессом в ИИ?» . McKinsey & Company . Архивировано 13 апреля 2018 года . Проверено 13 апреля 2018 года .
  57. ^ Fairhead, Гарри (26 марта 2011) [Update 30 марта 2011]. «Объяснение прорыва в области искусственного интеллекта Kinect» . Я программист . Архивировано 1 февраля 2016 года.
  58. ^ Rowiński, Dan (15 января 2013). «Виртуальные персональные помощники и будущее вашего смартфона [Инфографика]» . Читайте, пишите . Архивировано 22 декабря 2015 года.
  59. ^ «Искусственный интеллект: AlphaGo от Google превосходит мастера го Ли Седола» . BBC News . 12 марта 2016 года. Архивировано 26 августа 2016 года . Дата обращения 1 октября 2016 .
  60. ^ Metz, Кейд (27 мая 2017). «После победы в Китае дизайнеры AlphaGo исследуют новый ИИ» . Проводной . Архивировано 2 июня 2017 года.
  61. ^ «Рейтинг игроков World's Go» . Май 2017. Архивировано 1 апреля 2017 года.
  62. ^ "柯 洁 迎 19 岁 生日 雄踞 人类 世界 排名 第一 已 两年" (на китайском языке). Май 2017. Архивировано 11 августа 2017 года.
  63. ^ а б Кларк 2015б . «После пятидесяти лет тихих достижений в области искусственного интеллекта 2015 год стал знаковым. Компьютеры стали умнее и учатся быстрее, чем когда-либо».
  64. ^ «Изменение бизнеса с помощью искусственного интеллекта» . Обзор управления MIT Sloan . Архивировано 19 мая 2018 года . Дата обращения 2 мая 2018 .
  65. ^ Lorica, Бен (18 декабря 2017). «Состояние внедрения ИИ» . O'Reilly Media . Архивировано 2 мая 2018 года . Дата обращения 2 мая 2018 .
  66. Аллен, Грегори (6 февраля 2019 г.). «Понимание китайской стратегии искусственного интеллекта» . Центр новой американской безопасности . Архивировано 17 марта 2019 года.
  67. ^ «Обзор | Как две сверхдержавы ИИ - США и Китай - сражаются за превосходство в этой области» . Вашингтон Пост . 2 ноября 2018. архивации с оригинала на 4 ноября 2018 года . Проверено 4 ноября 2018 года .
  68. ^ в 10:11, Алистер Даббс, 22 февраля 2019 г. «Искусственный интеллект: вы знаете, что это ненастоящее, да?» . www.theregister.co.uk . Архивировано 21 мая 2020 года . Проверено 22 августа 2020 .
  69. ^ «Хватит называть это искусственным интеллектом» . Архивировано 2 декабря 2019 года . Дата обращения 1 декабря 2019 .
  70. ^ «ИИ не захватывает мир - его еще не существует» . Глобальный веб-сайт GBG . Архивировано 11 августа 2020 года . Проверено 22 августа 2020 .
  71. ^ Каплан, Андреас; Хенлайн, Майкл (1 января 2019 г.). «Siri, Siri, в моей руке: кто самый красивый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты . 62 (1): 15–25. DOI : 10.1016 / j.bushor.2018.08.004 .
  72. Domingos 2015 , Глава 5.
  73. Domingos 2015 , Глава 7.
  74. ^ Линденбаума, М., Маркович, С., & Русаков, Д. (2004). Выборочная выборка для классификаторов ближайшего соседа. Машинное обучение, 54 (2), 125–152.
  75. Domingos 2015 , Глава 1.
  76. ^ a b Несговорчивость, эффективность и комбинаторный взрыв : * Russell & Norvig 2003 , стр. 9, 21–22
  77. Domingos 2015 , Глава 2, Глава 3.
  78. ^ Харт, ЧП; Нильссон, штат Нью-Джерси; Рафаэль, Б. (1972). «Поправка к« Формальной основе для эвристического определения путей минимальной стоимости » ». Информационный бюллетень SIGART (37): 28–29. DOI : 10.1145 / 1056777.1056779 . S2CID 6386648 . 
  79. Domingos 2015 , Глава 2, Глава 4, Глава 6.
  80. ^ «Могут ли компьютеры нейронной сети учиться на собственном опыте, и если да, смогут ли они когда-нибудь стать тем, что мы называем« умными »? . Scientific American . 2018. Архивировано 25 марта 2018 года . Проверено 24 марта 2018 года .
  81. Domingos 2015 , Глава 6, Глава 7.
  82. Перейти ↑ Domingos 2015 , p. 286.
  83. ^ "Изменение одного пикселя дурачит программы AI" . BBC News . 3 ноября 2017. Архивировано 22 марта 2018 года . Проверено 12 марта 2018 .
  84. ^ «У ИИ есть проблема с галлюцинациями, которую трудно исправить» . ПРОВОДНОЙ . 2018. Архивировано 12 марта 2018 года . Проверено 12 марта 2018 .
  85. ^ "Развитие здравого смысла | DiscoverMagazine.com" . Откройте для себя журнал . 2017. Архивировано из оригинала 25 марта 2018 года . Проверено 24 марта 2018 года .
  86. ^ Дэвис, Эрнест; Маркус, Гэри (24 августа 2015 г.). «Здравый смысл и здравый смысл в искусственном интеллекте» . Коммуникации ACM . 58 (9): 92–103. DOI : 10.1145 / 2701413 . S2CID 13583137 . Архивировано 22 августа 2020 года . Проверено 6 апреля 2020 . 
  87. ^ Winograd, Терри (январь 1972). «Понимание естественного языка». Когнитивная психология . 3 (1): 1–191. DOI : 10.1016 / 0010-0285 (72) 90002-3 .
  88. ^ «Не волнуйтесь: беспилотные автомобили не появятся завтра (или в следующем году)» . Автонеделя . 2016. Архивировано 25 марта 2018 года . Проверено 24 марта 2018 года .
  89. Knight, Will (2017). «Бостон может быть известен плохими водителями, но это испытательный полигон для более умного беспилотного автомобиля» . MIT Technology Review . Архивировано 22 августа 2020 года . Проверено 27 марта 2018 года .
  90. ^ Праккен, Генри (31 августа 2017). «О проблеме приведения автономных транспортных средств в соответствие с правилами дорожного движения» . Искусственный интеллект и право . 25 (3): 341–363. DOI : 10.1007 / s10506-017-9210-0 .
  91. ^ a b Лието, Антонио; Лебьер, Кристиан; Ольтрамари, Алессандро (май 2018 г.). «Уровень знаний в когнитивных архитектурах: текущие ограничения и возможные разработки». Исследование когнитивных систем . 48 : 39–55. DOI : 10.1016 / j.cogsys.2017.05.001 . ЛВП : 2318/1665207 . S2CID 206868967 . 
  92. ^ Решение проблем, решение головоломок, игра и дедукция: * Russell & Norvig 2003 , chpt. 3–9, * Poole, Mackworth & Goebel 1998 , гл. 2,3,7,9, * Luger & Stubblefield 2004 , гл. 3,4,6,8, * Нильссон 1998 , гл. 7–12
  93. ^ Неопределенное рассуждение: * Russell & Norvig 2003 , стр. 452–644, * Poole, Mackworth & Goebel 1998 , стр. 345–395, * Luger & Stubblefield 2004 , стр. 333–381, * Nilsson 1998 , chpt. 19
  94. ^ Психологические свидетельства субсимволических рассуждений: * Wason & Shapiro (1966) показали, что люди плохо справляются с полностью абстрактными проблемами, но если проблема переформулируется, чтобы позволить использовать интуитивный социальный интеллект , производительность резко улучшается. (См. Задание Wason на выбор ) * Kahneman, Slovic & Tversky (1982) показали, что люди ужасны в элементарных задачах, связанных с неопределенными рассуждениями. (См. Список когнитивных искажений для нескольких примеров). * Лакофф & Нуньес (2000) уже спорно утверждаличто даже наши навыки в математике зависит от знаний и навыковкоторые приходят из «тела», т.е. сенсомоторных и перцептивных навыков. (ВидетьОткуда пришла математика )
  95. ^ Представление знаний : * ACM 1998 , I.2.4, * Russell & Norvig 2003 , стр. 320–363, * Poole, Mackworth & Goebel 1998 , стр. 23–46, 69–81, 169–196, 235–277, 281–298, 319–345, * Luger & Stubblefield 2004 , стр. 227–243, * Nilsson 1998 , гл. 18
  96. ^ Инженерия знаний : * Russell & Norvig 2003 , стр. 260–266, * Poole, Mackworth & Goebel 1998 , стр. 199–233, * Nilsson 1998 , chpt. ≈17,1–17,4
  97. ^ Представление категорий и отношений: семантические сети , логика описания , наследование (включая фреймы и сценарии ): * Russell & Norvig 2003 , стр. 349–354, * Poole, Mackworth & Goebel 1998 , стр. 174–177, * Luger & Stubblefield 2004 , стр. 248–258, * Nilsson 1998 , гл. 18,3
  98. ^ Представление событий и времени: ситуационное исчисление , событийное исчисление , беглое исчисление (включая решение проблемы фреймов ): * Russell & Norvig 2003 , стр. 328–341, * Poole, Mackworth & Goebel 1998 , pp. 281–298, * Nilsson 1998 , гл. 18,2
  99. ^ Причинное исчисление : * Poole, Mackworth & Goebel 1998 , стр. 335–337
  100. ^ Представление знаний о знании: исчисление убеждений, модальная логика : * Russell & Norvig 2003 , стр. 341–344, * Poole, Mackworth & Goebel 1998 , стр. 275–277
  101. ^ Sikos, Лесли Ф. (июнь 2017). Описание логики в мультимедийных рассуждениях . Чам: Спрингер. DOI : 10.1007 / 978-3-319-54066-5 . ISBN 978-3-319-54066-5. S2CID  3180114 . Архивировано 29 августа 2017 года.
  102. ^ Онтология : * Russell & Norvig 2003 , стр. 320–328
  103. ^ Смоляр, Стивен В .; Чжан, Хунцзян (1994). «Индексирование и поиск видео на основе контента». IEEE Multimedia . 1 (2): 62–72. DOI : 10.1109 / 93.311653 . S2CID 32710913 . 
  104. ^ Нойман, Бернд; Мёллер, Ральф (январь 2008 г.). «Интерпретация сцены с логикой описания». Вычисления изображений и зрения . 26 (1): 82–101. DOI : 10.1016 / j.imavis.2007.08.013 .
  105. ^ Куперман, GJ; Райхли, РМ; Бейли, ТС (1 июля 2006 г.). «Использование коммерческих баз знаний для поддержки принятия клинических решений: возможности, препятствия и рекомендации» . Журнал Американской ассоциации медицинской информатики . 13 (4): 369–371. DOI : 10.1197 / jamia.M2055 . PMC 1513681 . PMID 16622160 .  
  106. ^ Макгарри, КЕН (1 декабря 2005). «Обзор показателей степени интереса к открытию знаний». Обзор инженерии знаний . 20 (1): 39–61. DOI : 10.1017 / S0269888905000408 . S2CID 14987656 . 
  107. ^ Бертини, М; Дель Бимбо, А; Торняй, К. (2006). «Автоматическое аннотирование и семантический поиск видеопоследовательностей с использованием мультимедийных онтологий». MM '06 Материалы 14-й международной конференции ACM по мультимедиа . 14-я международная конференция ACM по мультимедиа. Санта-Барбара: ACM. С. 679–682.
  108. ^ Квалификационная проблема : * McCarthy & Hayes 1969 * Russell & Norvig 2003 [ необходима страница ] В то время как Маккарти в первую очередь интересовался проблемами логического представления действий, Russell & Norvig 2003 применяли этот термин к более общей проблеме рассуждения по умолчанию в обширных сеть предположений, лежащих в основе всего нашего здравого смысла.
  109. ^ Рассуждения по умолчанию и логика по умолчанию , немонотонная логика , ограниченность , допущение о закрытом мире , похищение (Пул и др. Относят похищение к «рассуждениям по умолчанию». Люгер и др. Помещают это в «неопределенные рассуждения»): * Russell & Norvig 2003 , стр. 354–360, * Poole, Mackworth & Goebel 1998 , стр. 248–256, 323–335, * Luger & Stubblefield 2004 , стр. 335–363, * Nilsson 1998 , ~ 18.3.3
  110. ^ Широта здравого смысла: * Russell & Norvig 2003 , p. 21, * Crevier 1993 , pp. 113–114, * Moravec 1988 , p. 13, * Lenat & Guha 1989 (Введение)
  111. ^ Дрейфус и Дрейфус 1986 .
  112. Перейти ↑ Gladwell 2005 .
  113. ^ a b Экспертное знание как воплощенная интуиция: * Dreyfus & Dreyfus 1986 ( Хуберт Дрейфус - философ и критик ИИ, который был одним из первых, кто утверждал, что наиболее полезные человеческие знания закодированы субсимволически. См. критику ИИ Дрейфусом ) * Gladwell 2005 ( Blink Гладуэлла - популярное введение в субсимвольные рассуждения и знания.) * Hawkins & Blakeslee 2005 (Хокинс утверждает, что субсимвольные знания должны быть в центре внимания исследований ИИ).
  114. ^ Планирование : * ACM 1998 , ~ I.2.8, * Russell & Norvig 2003 , стр. 375–459, * Poole, Mackworth & Goebel 1998 , стр. 281–316, * Luger & Stubblefield 2004 , стр. 314–329, * Nilsson 1998 , гл. 10.1–2, 22
  115. ^ Теория информационной ценности : * Russell & Norvig 2003 , стр. 600–604
  116. ^ Классическое планирование: * Russell & Norvig 2003 , pp. 375–430, * Poole, Mackworth & Goebel 1998 , pp. 281–315, * Luger & Stubblefield 2004 , pp. 314–329, * Nilsson 1998 , chpt. 10.1–2, 22
  117. ^ Планирование и действия в недетерминированных областях: условное планирование, мониторинг выполнения, перепланирование и непрерывное планирование: * Russell & Norvig 2003 , стр. 430–449
  118. ^ Планирование Многоагентного и поведение эмерджентное: * Russell & Норвиг 2003 ., Стр 449-455
  119. ^ Тьюринг 1950 .
  120. ^ Соломонов 1956 .
  121. ^ a b Обучение : * ACM 1998 , I.2.6, * Russell & Norvig 2003 , стр. 649–788 , * Poole, Mackworth & Goebel 1998 , стр. 397–438, * Luger & Stubblefield 2004 , стр. 385–542 , * Nilsson 1998 , гл. 3.3, 10.3, 17.5, 20
  122. ^ Иордания, Мичиган; Митчелл, TM (16 июля 2015 г.). «Машинное обучение: тенденции, перспективы и перспективы». Наука . 349 (6245): 255–260. Bibcode : 2015Sci ... 349..255J . DOI : 10.1126 / science.aaa8415 . PMID 26185243 . S2CID 677218 .  
  123. ^ Обучение с подкреплением : * Russell & Norvig 2003 , стр. 763–788* Luger & Stubblefield 2004 , стр. 442–449
  124. ^ Обработка естественного языка : * ACM 1998 , I.2.7 * Russell & Norvig 2003 , стр. 790–831* Poole, Mackworth & Goebel 1998 , стр. 91–104 * Luger & Stubblefield 2004 , стр. 591–632
  125. ^ «Универсальные системы ответов на вопросы: видение в синтезе». Архивировано 1 февраля 2016 г. в Wayback Machine , Миттал и др., IJIIDS, 5 (2), 119–142, 2011 г.
  126. ^ Приложения обработки естественного языка, включая поиск информации (например, анализ текста ) и машинный перевод : * Russell & Norvig 2003 , стр. 840–857, * Luger & Stubblefield 2004 , стр. 623–630
  127. ^ Камбрия, Эрик; Белый, Бебо (май 2014 г.). «Скачкообразные кривые НЛП: обзор исследований по обработке естественного языка [обзорная статья]». Журнал IEEE Computational Intelligence Magazine . 9 (2): 48–57. DOI : 10,1109 / MCI.2014.2307227 . S2CID 206451986 . 
  128. Винсент, Джеймс (7 ноября 2019 г.). «OpenAI опубликовал ИИ, генерирующий текст, который, по его словам, был слишком опасен для использования» . Грань . Архивировано 11 июня 2020 года . Проверено 11 июня 2020 .
  129. Машинное восприятие : * Russell & Norvig 2003 , pp. 537–581, 863–898* Nilsson 1998 , ~ chpt. 6
  130. ^ Распознавание речи : * ACM 1998 , ~ I.2.7 * Russell & Norvig 2003 , стр. 568–578
  131. ^ Признание объекта : * Russell & Норвиг 2003 ., Стр 885-892
  132. ^ Компьютерное зрение : * ACM 1998 , I.2.10 * Russell & Norvig 2003 , стр. 863–898* Nilsson 1998 , chpt. 6
  133. ^ Робототехника : * ACM 1998 , I.2.9, * Russell & Norvig 2003 , стр. 901–942, * Poole, Mackworth & Goebel 1998 , стр. 443–460
  134. ^ Перемещение и конфигурация пространства : * Russell & Norvig 2003 , стр. 916–932
  135. ^ Tecuci 2012 .
  136. ^ Роботизированное картографирование (локализация и т. Д.): * Russell & Norvig 2003 , стр. 908–915
  137. ^ Кадена, Сезар; Карлоне, Лука; Каррильо, Генри; Латиф, Ясир; Скарамуцца, Давиде; Нейра, Хосе; Рид, Ян; Леонард, Джон Дж. (Декабрь 2016 г.). «Прошлое, настоящее и будущее одновременной локализации и картирования: к эпохе надежного восприятия». IEEE Transactions по робототехнике . 32 (6): 1309–1332. arXiv : 1606.05830 . Bibcode : 2016arXiv160605830C . DOI : 10.1109 / TRO.2016.2624754 . S2CID 2596787 . 
  138. Перейти ↑ Moravec 1988 , p. 15.
  139. ^ Chan, С Ping (15 ноября 2015). «Вот что произойдет, когда роботы захватят мир» . Архивировано 24 апреля 2018 года . Проверено 23 апреля 2018 года .
  140. ^ «Мебель ИКЕА и пределы искусственного интеллекта» . Экономист . 2018. Архивировано 24 апреля 2018 года . Проверено 24 апреля 2018 года .
  141. ^ "Кисмет" . Лаборатория искусственного интеллекта Массачусетского технологического института, Humanoid Robotics Group. Архивировано 17 октября 2014 года . Проверено 25 октября 2014 года .
  142. ^ Томпсон, Дерек (2018). «Какие рабочие места возьмут на себя роботы?» . Атлантика . Архивировано 24 апреля 2018 года . Проверено 24 апреля 2018 года .
  143. ^ Scassellati, Brian (2002). «Теория разума для гуманоидного робота». Автономные роботы . 12 (1): 13–24. DOI : 10,1023 / A: 1013298507114 . S2CID 1979315 . 
  144. ^ Цао, Юнкан; Ю, Вену; Рен, Вэй; Чен, Гуаньжун (февраль 2013 г.). «Обзор последних достижений в изучении распределенной многоагентной координации». IEEE Transactions по промышленной информатике . 9 (1): 427–438. arXiv : 1207,3231 . DOI : 10.1109 / TII.2012.2219061 . S2CID 9588126 . 
  145. ^ Thro 1993 .
  146. ^ Эдельсон 1991 .
  147. Перейти ↑ Tao & Tan 2005 .
  148. ^ Пория, Суджанья; Камбрия, Эрик; Баджпай, Раджив; Хуссейн, Амир (сентябрь 2017 г.). «Обзор аффективных вычислений: от одномодального анализа к мультимодальному слиянию». Информационный фьюжн . 37 : 98–125. DOI : 10.1016 / j.inffus.2017.02.003 . hdl : 1893/25490 .
  149. ^ Эмоции и аффективные вычисления : * Minsky 2006
  150. ^ Уоделл, Кава (2018). «Чат-боты вошли в сверхъестественную долину» . Атлантика . Архивировано 24 апреля 2018 года . Проверено 24 апреля 2018 года .
  151. ^ Pennachin, C .; Гертцель, Б. (2007). «Современные подходы к общему искусственному интеллекту». Общий искусственный интеллект . Когнитивные технологии. Берлин, Гейдельберг: Springer. DOI : 10.1007 / 978-3-540-68677-4_1 . ISBN 978-3-540-23733-4.
  152. ^ a b c Робертс, Джейкоб (2016). «Мыслительные машины: поиски искусственного интеллекта» . Дистилляции . Vol. 2 шт. 2. С. 14–23. Архивировано из оригинального 19 августа 2018 года . Проверено 20 марта 2018 года .
  153. ^ "Супергерой искусственного интеллекта: сможет ли этот гений держать его под контролем?" . Хранитель . 16 февраля 2016 года. Архивировано 23 апреля 2018 года . Проверено 26 апреля 2018 года .
  154. ^ Мних, Владимир; Кавукчуоглу, Корай; Сильвер, Дэвид; Русу, Андрей А .; Венесс, Джоэл; Bellemare, Marc G .; Грейвс, Алекс; Ридмиллер, Мартин; Fidjeland, Andreas K .; Островский, Георг; Петерсен, Стиг; Битти, Чарльз; Садик, Амир; Антоноглоу, Иоаннис; Король, Хелен; Кумаран, Дхаршан; Виерстра, Даан; Легг, Шейн; Хассабис, Демис (26 февраля 2015 г.). «Контроль на уровне человека посредством глубокого обучения с подкреплением». Природа . 518 (7540): 529–533. Bibcode : 2015Natur.518..529M . DOI : 10,1038 / природа14236 . PMID 25719670 . S2CID 205242740 .  
  155. ^ Образец, Ян (14 марта 2017 г.). «DeepMind от Google создает программу ИИ, которая может учиться как человек» . Хранитель . Архивировано 26 апреля 2018 года . Проверено 26 апреля 2018 года .
  156. ^ «От неработающего к нейронным сетям» . Экономист . 2016. Архивировано 31 декабря 2016 года . Проверено 26 апреля 2018 года .
  157. ^ Домингос 2015 .
  158. ^ a b Аргументы искусственного мозга : искусственный интеллект требует моделирования работы человеческого мозга * Russell & Norvig 2003 , p. 957 * Crevier 1993 , pp. 271 & 279 Некоторые люди, которые приводят аргументы в той или иной форме: * Moravec 1988 * Kurzweil 2005 , p. 262 * Хокинс и Блейксли, 2005 г. Наиболее крайняя форма этого аргумента (сценарий замены мозга) была выдвинута Кларком Глаймором в середине 1970-х годов и затронута Зеноном Пилишином и Джоном Сирлом в 1980 году.
  159. ^ Герцель, Бен; Лиан, Рутинг; Арел, Итамар; де Гарис, Хьюго; Чен, Шо (декабрь 2010 г.). «Мировой обзор проектов искусственного мозга, Часть II: Биологически вдохновленные когнитивные архитектуры». Нейрокомпьютеры . 74 (1–3): 30–49. DOI : 10.1016 / j.neucom.2010.08.012 .
  160. Перейти ↑ Nilsson 1983 , p. 10.
  161. ^ Непосредственными предшественниками ИИ: * McCorduck 2004 , стр 51-107.* Кревьер 1993 , стр 27-32.* Russell & Норвиг 2003 , стр 15, 940.* Moravec 1988 , стр. 3
  162. ^ Haugeland 1985 , стр. 112-117
  163. ^ Когнитивное моделирование, Ньюэлл и Саймон , AI в CMU (тогда назывался Carnegie Tech ): * McCorduck 2004 , стр. 139–179, 245–250, 322–323 (EPAM)* Crevier 1993 , стр. 145–149
  164. ^ Сор (история): * McCorduck 2004 . С. 450-451* Кревьер 1993 . С. 258-263
  165. ^ Маккарти и исследования AI в SAIL и SRI International : * McCorduck 2004 , стр. 251–259*Crevier 1993
  166. Исследования искусственного интеллекта в Эдинбурге и во Франции, рождение Пролога : * Crevier 1993 , стр. 193–196* Howe 1994
  167. AI в Массачусетском технологическом институте под руководством Марвина Мински в 1960-х: * McCorduck 2004 , стр. 259–305*Crevier 1993 , стр. 83–102, 163–176* Russell & Norvig 2003 , p. 19
  168. ^ Сус : * McCorduck 2004 , стр. 489, который называет это «решительно неряшливым предприятием» * Crevier 1993 , pp. 239–243* Russell & Norvig 2003 , p. 363−365* Ленат и Гуха, 1989
  169. ^ Революция знаний: * McCorduck 2004 , стр. 266–276, 298–300, 314, 421* Russell & Norvig 2003 , стр. 22–23
  170. ^ Фредерик, Хейс-Рот; Уильям, Мюррей; Леонард, Адельман. «Экспертные системы». AccessScience . DOI : 10.1036 / 1097-8542.248550 .
  171. ^ Воплощенные подходы к AI: * McCorduck 2004 , pp. 454–462* Brooks 1990 * Moravec 1988
  172. ^ Weng et al. 2001 .
  173. ^ Lungarella et al. 2003 .
  174. ^ Асада и др. 2009 .
  175. ^ Oudeyer 2010 .
  176. ^ Возрождение коннекционизма : * Кревьер 1993 , стр 214-215.* Russell & Норвиг 2003 , стр. 25
  177. ^ Вычислительный интеллект * IEEE Computational Intelligence Society. Архивировано 9 мая 2008 г. на Wayback Machine.
  178. ^ Хутсон, Мэтью (16 февраля 2018). «Искусственный интеллект переживает кризис воспроизводимости» . Наука . С. 725–726. Bibcode : 2018Sci ... 359..725H . DOI : 10.1126 / science.359.6377.725 . Архивировано 29 апреля 2018 года . Проверено 28 апреля 2018 .
  179. ^ Норвиг 2012 .
  180. ^ Лэнгли 2011 .
  181. ^ Кац 2012 .
  182. ^ Интеллектуальный агент парадигма: * Russell & Норвиг 2003 ., Стр 27, 32-58, 968-972* Poole, Макворт & Гебель 1998 . С. 7-21 * Luger & Stubblefield 2004 . С. 235-240 * Хуттер 2005 , pp. 125–126 Определение, используемое в этой статье, с точки зрения целей, действий, восприятия и окружающей среды, принадлежит Russell & Norvig (2003) . Другие определения также включают знания и обучение в качестве дополнительных критериев.
  183. Агентские архитектуры , гибридные интеллектуальные системы : * Russell & Norvig (2003 , стр. 27, 932, 970–972)* Nilsson (1998 , chpt. 25)
  184. ^ Иерархическая система управления : * Albus 2002
  185. ^ Лието, Антонио; Бхатт, Мехул; Ольтрамари, Алессандро; Вернон, Дэвид (май 2018 г.). «Роль когнитивных архитектур в общем искусственном интеллекте». Исследование когнитивных систем . 48 : 1–3. DOI : 10.1016 / j.cogsys.2017.08.003 . hdl : 2318/1665249 . S2CID 36189683 . 
  186. ^ a b Russell & Norvig 2009 , стр. 1.
  187. ^ a b Белая книга: «Об искусственном интеллекте - европейский подход к совершенству и доверию» (PDF) . Брюссель: Европейская комиссия. 2020. с. 1. Архивировано (PDF) из оригинала 20 февраля 2020 года . Проверено 20 февраля 2020 года .
  188. ^ «ИИ должен превзойти возможности человеческого мозга» . CNN . 9 августа 2006 года. Архивировано 19 февраля 2008 года.
  189. Использование искусственного интеллекта для прогнозирования задержек рейсов. Архивировано 20 ноября 2018 г. в Wayback Machine , Ishti.org.
  190. ^ Н. Алетрас; Д. Царапатсанис; Д. Преотюк-Пьетро; В. Лампос (2016). «Прогнозирование судебных решений Европейского суда по правам человека: перспектива обработки естественного языка» . PeerJ Computer Science . 2 : e93. DOI : 10.7717 / peerj-cs.93 .
  191. ^ «The Economist объясняет: почему фирмы вливаются в искусственный интеллект» . Экономист . 31 марта 2016 года. Архивировано 8 мая 2016 года . Дата обращения 19 мая 2016 .
  192. ^ Лор, Стив (28 февраля 2016). «Обещание искусственного интеллекта раскрывается маленькими шагами» . Нью-Йорк Таймс . Архивировано 29 февраля 2016 года . Проверено 29 февраля +2016 .
  193. ^ Frangoul, Anmar (14 июня 2019). «Калифорнийский бизнес использует ИИ, чтобы изменить наше представление о хранении энергии» . CNBC . Архивировано 25 июля 2020 года . Дата обращения 5 ноября 2019 .
  194. Уэйкфилд, Джейн (15 июня 2016 г.). «Социальные сети« опережают телевидение »как источник новостей для молодежи» . BBC News . Архивировано 24 июня 2016 года.
  195. ^ Смит, Марк (22 июля 2016 г.). «Так вы думаете, что выбрали прочитать эту статью?» . BBC News . Архивировано 25 июля 2016 года.
  196. ^ Браун, Эйлин. «Половина американцев не верят, что новости deepfake могут быть нацелены на них в Интернете» . ZDNet . Архивировано 6 ноября 2019 года . Дата обращения 3 декабря 2019 .
  197. Золя, Андрей (12 апреля 2019 г.). «Подготовка к интервью: 40 вопросов об искусственном интеллекте» . Блог Springboard .
  198. ^ Тест Тьюринга :
    оригинальная публикация Тьюринга : * Тьюринг 1950 Историческое влияние и философские последствия: * Haugeland 1985 , стр. 6–9 * Crevier 1993 , p. 24* McCorduck 2004 , стр. 70–71* Russell & Norvig 2003 , стр. 2–3 и 948
  199. ^ Предложение Дартмута: * McCarthy et al. 1955 г. (первоначальное предложение) * Crevier 1993 , p. 49(историческое значение)
  200. ^ Гипотеза физических систем символов : * Newell & Simon 1976 , p. 116 * McCorduck 2004 , стр. 153* Russell & Norvig 2003 , стр. 18
  201. ^ Дрейфус 1992 , стр. 156.
  202. ^ Критика искусственного интеллекта Дрейфусом : * Dreyfus 1972 , Dreyfus & Dreyfus 1986 * Crevier 1993 , pp. 120–132* McCorduck 2004 , pp. 211–239* Russell & Norvig 2003 , pp. 950–952,
  203. Gödel 1951 : в этой лекции Курт Гёдель использует теорему о неполноте, чтобы прийти к следующей дизъюнкции: (а) человеческий разум не является последовательной конечной машиной, или (б) существуют диофантовы уравнения, для которых он не может решить, существуют ли решения . Гёдель находит (б) неправдоподобным и, таким образом, кажется, полагал, что человеческий разум не эквивалентен конечной машине, т. Е. Его мощность превышала мощность любой конечной машины. Он признал, что это всего лишь предположение, поскольку никто не может опровергнуть (б). И все же он считал дизъюнктивный вывод «определенным фактом».
  204. ^ Математическое возражение: * Russell & Norvig 2003 , p. 949* McCorduck 2004 , стр. 448–449 Высказывание математического возражения: * Лукас 1961 * Пенроуз 1989 Опровержение математического возражения: * Тьюринг 1950 в статье «(2) Математическое возражение» * Хофштадтер 1979 Предыстория: * Gödel 1931, Church 1936, Kleene 1935 г., Тьюринг 1937 г.
  205. ^ Грей Оппи (20 января 2015). «Теоремы Гёделя о неполноте» . Стэнфордская энциклопедия философии . Архивировано 22 апреля 2016 года . Проверено 27 апреля 2016 года . Однако эти геделевские антимеханистские аргументы проблематичны, и существует широкий консенсус в отношении того, что они не работают.
  206. ^ Стюарт Дж. Рассел ; Питер Норвиг (2010). «26.1.2: Философские основы / Слабый ИИ: могут ли машины действовать разумно? / Математическое возражение». Искусственный интеллект: современный подход (3-е изд.). Река Аппер Сэдл, Нью-Джерси: Prentice Hall . ISBN 978-0-13-604259-4. даже если мы допустим, что у компьютеров есть ограничения на то, что они могут доказать, нет никаких доказательств того, что люди защищены от этих ограничений.
  207. ^ Марк Коливан. Введение в философию математики. Cambridge University Press , 2012. Из 2.2.2, «Философское значение результатов Гёделя о неполноте»: «Общепринятая мудрость (с которой я согласен) состоит в том, что аргументы Лукаса-Пенроуза терпят неудачу».
  208. ^ Ипхофен, Рон; Критикос, Михалис (3 января 2019 г.). «Регулирование искусственного интеллекта и робототехники: этика по замыслу в цифровом обществе». Современные социальные науки : 1–15. DOI : 10.1080 / 21582041.2018.1563803 . ISSN 2158-2041 . 
  209. ^ «Этический ИИ изучает рамки прав человека» . Голос Америки . Архивировано 11 ноября 2019 года . Проверено 10 ноября 2019 .
  210. ^ Кревьер 1993 , стр. 132-144.
  211. ^ Вейценбаум рецензия «s из AI: * Weizenbaum 1976 * Кревьер 1993 , стр 132-144.* McCorduck 2004 , стр 356-373.* Russell & Норвиг 2003 , стр. 961Weizenbaum (исследователь А.И.который разработал первую Chatterbot программу, Элиза ) утверждал в 1976 г.что злоупотребление искусственным интеллектом обладает потенциалом девальвировать жизни человека.
  212. Перейти ↑ Wallach, Wendell (2010). Моральные машины . Издательство Оксфордского университета.
  213. Wallach 2010 , pp. 37–54.
  214. Wallach, 2010 , стр. 55–73.
  215. Wallach 2010 , «Введение».
  216. ^ a b Майкл Андерсон и Сьюзан Ли Андерсон (2011), Машинная этика, Cambridge University Press.
  217. ^ а б «Машинная этика» . aaai.org . Архивировано из оригинального 29 ноября 2014 года.
  218. ^ Рубин, Чарльз (весна 2003 г.). «Искусственный интеллект и природа человека» . Новая Атлантида . 1 : 88–100. Архивировано из оригинального 11 июня 2012 года .
  219. Брукс, Родни (10 ноября 2014 г.). «искусственный интеллект - это инструмент, а не угроза» . Архивировано из оригинального 12 ноября 2014 года.
  220. ^ «Стивен Хокинг, Илон Маск и Билл Гейтс предупреждают об искусственном интеллекте» . Наблюдатель . 19 августа 2015 года. Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  221. ^ Чалмерс, Дэвид (1995). «Лицом к проблеме сознания» . Журнал исследований сознания . 2 (3): 200–219. Архивировано 8 марта 2005 года . Проверено 11 октября 2018 года .См. Также эту ссылку. Архивировано 8 апреля 2011 г. на Wayback Machine.
  222. Хорст, Стивен , (2005) «Вычислительная теория разума». Архивировано 11 сентября 2018 года на Wayback Machine в Стэнфордской энциклопедии философии.
  223. Перейти ↑ Searle 1980 , p. 1.
  224. ^ АргументСирла о китайской комнате : * Searle 1980 . Оригинальное представление мысленного эксперимента Сирлом. * Сирл 1999 . Обсуждение: * Russell & Norvig 2003 , стр. 958–960 * McCorduck 2004 , стр. 443–445*Crevier 1993 , стр. 269–271
  225. ^ Права роботов : * Russell & Норвиг 2003 , стр. 964Недоношенность: * Хендерсон 2007 В художественной литературе: * МакКордак (2004 , стр. 190–25)обсуждает Франкенштейна и определяет ключевые этические проблемы как научное высокомерие и страдания монстра, то есть права роботов .
  226. ^ «Роботы могут требовать законных прав» . BBC News . 21 декабря 2006 года. Архивировано 15 октября 2019 года . Проверено 3 февраля 2011 года .
  227. ^ Эванс, Вуди (2015). «Постчеловеческие права: измерения трансчеловеческих миров» . Текнокультура . 12 (2). DOI : 10.5209 / rev_TK.2015.v12.n2.49072 .
  228. ^ машафильм. «Содержание: Plug & Pray Film - Искусственный интеллект - Роботы -» . plugandpray-film.de . Архивировано 12 февраля 2016 года.
  229. ^ Омохундро, Стив (2008). Природа самоулучшающегося искусственного интеллекта . представлен и распространен на Саммите Singularity в 2007 г., Сан-Франциско, Калифорния.
  230. ^ a b c Технологическая особенность : * Vinge 1993 * Kurzweil 2005 * Russell & Norvig 2003 , p. 963
  231. ^ Трансгуманизм : * Moravec 1988 * Kurzweil 2005 * Russell & Norvig 2003 , p. 963
  232. ^ AI как эволюция: * Эдвард Фредкин цитируется в McCorduck (2004 , с. 401). * Батлер 1863 * Дайсон 1998
  233. ^ «Роботы и искусственный интеллект» . www.igmchicago.org . Архивировано 1 мая 2019 года . Дата обращения 3 июля 2019 .
  234. ^ «Определение размера приза: глобальное исследование искусственного интеллекта PwC - использование революции искусственного интеллекта» (PDF) . Дата обращения 11 ноября 2020 .
  235. ^ Э. МакГоги, «Будут ли роботы автоматизировать вашу работу?» Полная занятость, базовый доход и экономическая демократия '(2018) SSRN, часть 2 (3). Архивировано 24 мая 2018 года в Wayback Machine.
  236. ^ «Автоматизация и тревога» . Экономист . 9 мая 2015. Архивировано 12 января 2018 года . Проверено 13 января 2018 .
  237. ^ Лор, Стив (2017). «Роботы возьмут работу, но не так быстро, как некоторые опасаются, - говорится в новом отчете» . Нью-Йорк Таймс . Архивировано 14 января 2018 года . Проверено 13 января 2018 .
  238. Фрей, Карл Бенедикт; Осборн, Майкл А. (1 января 2017 г.). «Будущее занятости: насколько рабочие места подвержены компьютеризации?». Технологическое прогнозирование и социальные изменения . 114 : 254–280. CiteSeerX 10.1.1.395.416 . DOI : 10.1016 / j.techfore.2016.08.019 . ISSN 0040-1625 .  
  239. ^ Арнц, Мелани, Терри Грегори и Ульрих Зиеран. «Риск автоматизации рабочих мест в странах ОЭСР: сравнительный анализ». Рабочие документы ОЭСР по социальным вопросам, вопросам занятости и миграции 189 (2016 г.). п. 33.
  240. ^ Mahdawi, Arwa (26 июня 2017). «Какие рабочие места будут по-прежнему доступны через 20 лет? Прочтите это, чтобы подготовить свое будущее» . Хранитель . Архивировано 14 января 2018 года . Проверено 13 января 2018 .
  241. ^ Саймон, Мэтт (1 апреля 2019 г.). «Президентская ставка Эндрю Яна - это очень 21 век» . Проводной . Архивировано 24 июня 2019 года . Проверено 2 мая 2019 г. - через www.wired.com.
  242. ^ «Пять экспертов рассказывают, что их больше всего пугает в ИИ» . 5 сентября 2018. Архивировано 8 декабря 2019 года . Проверено 8 декабря 2019 .
  243. ^ Рассел, Стюарт., Дэниел Дьюи и Макс Тегмарк. Приоритеты исследований в области надежного и эффективного искусственного интеллекта. Журнал AI 36: 4 (2015). 8 декабря 2016.
  244. ^ «Комментарий: Плохие новости. Искусственный интеллект предвзят» . CNA . 12 января 2019 года. Архивировано 12 января 2019 года . Проверено 19 июня 2020 .
  245. Джефф Ларсон, Джулия Ангвин (23 мая 2016 г.). «Как мы анализировали алгоритм рецидивизма КОМПАС» . ProPublica . Архивировано 29 апреля 2019 года . Проверено 19 июня 2020 .
  246. Роулинсон, Кевин (29 января 2015 г.). «Билл Гейтс из Microsoft настаивает, что ИИ представляет собой угрозу» . BBC News . Архивировано 29 января 2015 года . Проверено 30 января 2015 года .
  247. ^ Holley, Питер (28 января 2015). «Билл Гейтс об опасностях искусственного интеллекта:« Я не понимаю, почему некоторые люди не обеспокоены » » . Вашингтон Пост . ISSN 0190-8286 . Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года . 
  248. Гиббс, Сэмюэл (27 октября 2014 г.). «Илон Маск: искусственный интеллект - наша самая большая угроза существованию» . Хранитель . Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  249. ^ Churm, Филип Эндрю (14 мая 2019). «Юваль Ной Харари говорит о политике, технологиях и миграции» . Евроньюс . Дата обращения 15 ноября 2020 .
  250. ^ Cellan-Джонс, Рори (2 декабря 2014). «Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству» . BBC News . Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  251. ^ Бостром, Ник (2015). «Что произойдет, когда наши компьютеры станут умнее нас?» . TED (конференция) . Архивировано 25 июля 2020 года . Проверено 30 января 2020 года .
  252. ^ a b Рассел, Стюарт (8 октября 2019 г.). Совместимость с человеком: искусственный интеллект и проблема контроля . США: Викинг. ISBN 978-0-525-55861-3. OCLC  1083694322 .
  253. ^ Сообщение, Вашингтон. «Технические титаны, такие как Илон Маск, тратят 1 миллиард долларов, чтобы спасти вас от терминаторов» . Архивировано 7 июня 2016 года.
  254. ^ Мюллер, Винсент С .; Бостром, Ник (2014). «Будущий прогресс в области искусственного интеллекта: опрос среди экспертов» (PDF) . AI имеет значение . 1 (1): 9–11. DOI : 10.1145 / 2639475.2639478 . S2CID 8510016 . Архивировано (PDF) из оригинала 15 января 2016 года.  
  255. ^ «Генеральный директор Oracle Марк Херд не видит причин опасаться ERP AI» . Поиск по ERP . Архивировано 6 мая 2019 года . Дата обращения 6 мая 2019 .
  256. ^ «Марк Цукерберг отвечает на паранойю Элон Маск по поводу AI:„AI собирается ... помочь сохранить наши общины безопасно. » . Business Insider . 25 мая 2018. Архивировано 6 мая 2019 года . Дата обращения 6 мая 2019 .
  257. ^ "Таинственная компания искусственного интеллекта, в которую инвестировал Илон Маск, разрабатывает умные компьютеры, меняющие правила игры" . Tech Insider . Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  258. ^ Кларк 2015a .
  259. ^ «Илон Маск жертвует 10 миллионов долларов своих собственных денег на исследования в области искусственного интеллекта» . Быстрая компания . 15 января 2015 года. Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  260. ^ "Является ли искусственный интеллект реальной угрозой для человечества?" . Бюллетень ученых-атомщиков . 9 августа 2015 года. Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  261. ^ «Дело против роботов-убийц от парня, который работает над искусственным интеллектом» . Fusion.net . Архивировано 4 февраля 2016 года . Проверено 31 января 2016 года .
  262. ^ «Уничтожит ли искусственный интеллект человечество? Вот 5 причин не беспокоиться» . Vox . 22 августа 2014 года. Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  263. ^ Беррихилл, Джейми; Хеанг, Кевин Кок; Клогер, Роб; Макбрайд, Киган (2019). Привет, мир: искусственный интеллект и его использование в государственном секторе (PDF) . Париж: Обсерватория инноваций в государственном секторе ОЭСР. Архивировано 20 декабря 2019 года (PDF) . Дата обращения 9 августа 2020 .
  264. ^ Барфилд, Вудроу; Пагалло, Уго (2018). Справочник по закону искусственного интеллекта . Челтенхэм, Великобритания. ISBN 978-1-78643-904-8. OCLC  1039480085 .
  265. ^ Юридическая библиотека Конгресса (США). Издательский орган, Global Legal Research Directorate. Регулирование искусственного интеллекта в отдельных юрисдикциях . LCCN 2019668143 . OCLC 1110727808 .  
  266. ^ Wirtz, Bernd W .; Weyerer, Jan C .; Гейер, Кэролин (24 июля 2018 г.). «Искусственный интеллект и государственный сектор - приложения и проблемы» . Международный журнал государственного управления . 42 (7): 596–615. DOI : 10.1080 / 01900692.2018.1498103 . ISSN 0190-0692 . S2CID 158829602 . Архивировано 18 августа 2020 года . Проверено 22 августа 2020 .  
  267. ^ Buiten, Мириам С (2019). «На пути к интеллектуальному регулированию искусственного интеллекта» . Европейский журнал регулирования рисков . 10 (1): 41–59. DOI : 10.1017 / err.2019.8 . ISSN 1867-299X . 
  268. ^ Сотала, Кадж; Ямпольский, Роман V (19 декабря 2014 г.). «Ответы на катастрофический риск AGI: обзор» . Physica Scripta . 90 (1): 018001. DOI : 10,1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 . 
  269. ^ Buttazzo, G. (июль 2001). «Искусственное сознание: утопия или реальная возможность?». Компьютер . 34 (7): 24–30. DOI : 10.1109 / 2.933500 .
  270. ^ Андерсон, Сьюзен Ли. «Три закона робототехники Азимова» и машинная метаэтика ». AI и общество, 22,4 (2008): 477–493.
  271. Перейти ↑ McCauley, Lee (2007). «Армагедон AI и три закона робототехники». Этика и информационные технологии . 9 (2): 153–164. CiteSeerX 10.1.1.85.8904 . DOI : 10.1007 / s10676-007-9138-2 . S2CID 37272949 .  
  272. Гальван, Джилл (1 января 1997 г.). "Вхождение в коллектив постчеловека в фильме Филипа К. Дика" Мечтают ли андроиды об электрических овцах? " ". Научно-фантастические исследования . 24 (3): 413–429. JSTOR 4240644 . 

Учебники по ИИ

  • Хаттер, Маркус (2005). Универсальный искусственный интеллект . Берлин: Springer. ISBN 978-3-540-22139-5.
  • Джексон, Филип (1985). Введение в искусственный интеллект (2-е изд.). Дувр. ISBN 978-0-486-24864-6. Архивировано 26 июля 2020 года . Дата обращения 4 марта 2020 .
  • Люгер, Джордж ; Стаблфилд, Уильям (2004). Искусственный интеллект: структуры и стратегии для решения сложных проблем (5-е изд.). Бенджамин / Каммингс. ISBN 978-0-8053-4780-7. Архивировано 26 июля 2020 года . Проверено 17 декабря 2019 .
  • Неаполитанец, Ричард ; Цзян, Ся (2018). Искусственный интеллект: введение в машинное обучение . Чепмен и Холл / CRC. ISBN 978-1-138-50238-3. Архивировано 22 августа 2020 года . Проверено 3 января 2018 .
  • Нильссон, Нильс (1998). Искусственный интеллект: новый синтез . Морган Кауфманн. ISBN 978-1-55860-467-4. Архивировано 26 июля 2020 года . Дата обращения 18 ноября 2019 .
  • Рассел, Стюарт Дж .; Норвиг, Питер (2003), Искусственный интеллект: современный подход (2-е изд.), Верхняя Сэдл-Ривер, Нью-Джерси: Prentice Hall, ISBN 0-13-790395-2.
  • Рассел, Стюарт Дж .; Норвиг, Питер (2009). Искусственный интеллект: современный подход (3-е изд.). Река Аппер Сэдл, Нью-Джерси: Prentice Hall. ISBN 978-0-13-604259-4..
  • Пул, Дэвид ; Макворт, Алан ; Гебель, Рэнди (1998). Вычислительный интеллект: логический подход . Нью-Йорк: Издательство Оксфордского университета. ISBN 978-0-19-510270-3. Архивировано 26 июля 2020 года . Проверено 22 августа 2020 .
  • Уинстон, Патрик Генри (1984). Искусственный интеллект . Ридинг, Массачусетс: Эддисон-Уэсли. ISBN 978-0-201-08259-3. Архивировано 26 июля 2020 года . Проверено 22 августа 2020 .
  • Рич, Элейн (1983). Искусственный интеллект . Макгроу-Хилл. ISBN 978-0-07-052261-9. Архивировано 26 июля 2020 года . Проверено 17 декабря 2019 .
  • Банди, Алан (1980). Искусственный интеллект: вводный курс (2-е изд.). Издательство Эдинбургского университета. ISBN 978-0-85224-410-4.
  • Пул, Дэвид ; Макворт, Алан (2017). Искусственный интеллект: основы вычислительных агентов (2-е изд.). Издательство Кембриджского университета. ISBN 978-1-107-19539-4. Архивировано 7 декабря 2017 года . Проверено 6 декабря +2017 .
  • Ауффарт, Бен (2020). Поваренная книга по искусственному интеллекту с помощью Python: проверенные рецепты применения алгоритмов ИИ и методов глубокого обучения с использованием TensorFlow 2.x и PyTorch 1.6 (1-е изд.). Packt Publishing. ISBN 978-1789133967. Проверено 13 января 2021 года .

История ИИ

  • Кревье, Даниэль (1993), AI: Бурный поиск искусственного интеллекта , Нью-Йорк, Нью-Йорк: BasicBooks, ISBN 0-465-02997-3 .
  • МакКордак, Памела (2004), Машины, которые думают (2-е изд.), Натик, Массачусетс: AK Peters, Ltd., ISBN 1-56881-205-1.
  • Ньюквист, HP (1994). Создатели мозга: гений, эгоизм и жадность в поисках мыслящих машин . Нью-Йорк: Macmillan / SAMS. ISBN 978-0-672-30412-5.
  • Нильссон, Нильс (2009). В поисках искусственного интеллекта: история идей и достижений . Нью-Йорк: Издательство Кембриджского университета. ISBN 978-0-521-12293-1.

Другие источники

  • «Система классификации вычислений ACM: Искусственный интеллект» . ACM . 1998. Архивировано из оригинального 12 октября 2007 года . Проверено 30 августа 2007 года .
  • Альбус, JS (2002). «4-D ​​/ RCS: эталонная модель архитектуры для интеллектуальных беспилотных наземных транспортных средств» (PDF) . В Gerhart, G .; Gunderson, R .; Шумейкер, К. (ред.). Материалы сессии SPIE AeroSense по беспилотным наземным транспортным средствам . Беспилотные наземные транспортные средства IV. 3693 . С. 11–20. Bibcode : 2002SPIE.4715..303A . CiteSeerX  10.1.1.15.14 . DOI : 10.1117 / 12.474462 . S2CID  63339739 . Архивировано из оригинального (PDF) 25 июля 2004 года.
  • Александр, Игорь (1995). Искусственное нейросознание: обновление . Я ХОЧУ. Архивировано из оригинального 2 -го марта 1997 года. BibTex. Архивировано 2 марта 1997 года в Wayback Machine .
  • Asada, M .; Hosoda, K .; Kuniyoshi, Y .; Ishiguro, H .; Инуи, Т .; Yoshikawa, Y .; Огино, М .; Йошида, К. (2009). «Когнитивная развивающая робототехника: обзор». IEEE Transactions по автономному умственному развитию . 1 (1): 12–34. DOI : 10.1109 / tamd.2009.2021702 . S2CID  10168773 .
  • Бах, Йоша (2008). «Семь принципов синтетического интеллекта» . Ин Ван, Пей; Герцель, Бен; Франклин, Стэн (ред.). Общий искусственный интеллект, 2008: Материалы первой конференции AGI . IOS Press. С. 63–74. ISBN 978-1-58603-833-5. Архивировано 8 июля 2016 года . Дата обращения 16 февраля 2016 .
  • Брукс, Родни (1990). «Слоны не играют в шахматы» (PDF) . Робототехника и автономные системы . 6 (1–2): 3–15. CiteSeerX  10.1.1.588.7539 . DOI : 10.1016 / S0921-8890 (05) 80025-9 . Архивировано 9 августа 2007 года (PDF) .
  • Брукс, РА (1991). «Как создавать законченные существа, а не отдельные когнитивные симуляторы». В VanLehn, K. (ред.). Архитектуры для интеллекта . Хиллсдейл, Нью-Джерси: Лоуренс Эрлбаум Ассошиэйтс. С. 225–239. CiteSeerX  10.1.1.52.9510 .
  • Бьюкенен, Брюс Г. (2005). «(Очень) краткая история искусственного интеллекта» (PDF) . Журнал AI : 53–60. Архивировано из оригинального (PDF) 26 сентября 2007 года.
  • Батлер, Сэмюэл (13 июня 1863 г.). «Дарвин среди машин» . Письма в редакцию. Пресса . Крайстчерч, Новая Зеландия. Архивировано 19 сентября 2008 года . Проверено 16 октября 2014 г. - через Веллингтонский университет Виктории.
  • Кларк, Джек (1 июля 2015a). «Поддерживаемая Маском группа исследует риски, стоящие за искусственным интеллектом» . Bloomberg.com . Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  • Кларк, Джек (8 декабря 2015b). «Почему 2015 год стал годом прорыва в области искусственного интеллекта» . Bloomberg.com . Архивировано 23 ноября 2016 года . Проверено 23 ноября +2016 .
  • Деннет, Дэниел (1991). Сознание объяснено . Пингвин Пресс. ISBN 978-0-7139-9037-9.
  • Домингос, Педро (2015). Главный алгоритм: как поиски совершенной обучающей машины переделают наш мир . Основные книги. ISBN 978-0-465-06192-1.
  • Dowe, DL; Hajek, AR (1997). «Вычислительное расширение теста Тьюринга» . Труды 4-й конференции Австралазийского общества когнитивных наук . Архивировано из оригинального 28 июня 2011 года.
  • Дрейфус, Хуберт (1972). Чего не умеют компьютеры . Нью-Йорк: MIT Press. ISBN 978-0-06-011082-6.
  • Дрейфус, Хуберт ; Дрейфус, Стюарт (1986). Разум над машиной: сила человеческой интуиции и опыта в эпоху компьютеров . Оксфорд, Великобритания: Блэквелл. ISBN 978-0-02-908060-3. Архивировано 26 июля 2020 года . Проверено 22 августа 2020 .
  • Дрейфус, Хуберт (1992). Что компьютеры по- прежнему не могут делать . Нью-Йорк: MIT Press. ISBN 978-0-262-54067-4.
  • Дайсон, Джордж (1998). Дарвин среди машин . Allan Lane Science. ISBN 978-0-7382-0030-9. Архивировано 26 июля 2020 года . Проверено 22 августа 2020 .
  • Эдельман, Джеральд (23 ноября 2007 г.). «Джеральд Эдельман - нейронный дарвинизм и устройства на основе мозга» . Говорящие роботы. Архивировано из оригинала 8 октября 2009 года.
  • Эдельсон, Эдвард (1991). Нервная система . Нью-Йорк: Дом Челси. ISBN 978-0-7910-0464-7. Архивировано 26 июля 2020 года . Дата обращения 18 ноября 2019 .
  • Fearn, Николас (2007). Последние ответы на самые старые вопросы: философское приключение с величайшими мыслителями мира . Нью-Йорк: Grove Press. ISBN 978-0-8021-1839-4.
  • Гладуэлл, Малкольм (2005). Моргай . Нью-Йорк: ISBN Little, Brown and Co. 978-0-316-17232-5.
  • Гёдель, Курт (1951). Некоторые основные теоремы об основах математики и их последствия . Лекция Гиббса.У Фефермана, Соломона , изд. (1995). Курт Гёдель: Собрание сочинений, Vol. III: Неопубликованные очерки и лекции . Издательство Оксфордского университета. С. 304–23. ISBN
     978-0-19-514722-3.
  • Гудман, Джоанна (2016). Роботы в законе: как искусственный интеллект трансформирует юридические услуги (1-е изд.). Ark Group. ISBN 978-1-78358-264-8. Архивировано 8 ноября 2016 года . Проверено 7 ноября +2016 .
  • Хогеланд, Джон (1985). Искусственный интеллект: сама идея . Кембридж, Массачусетс: MIT Press. ISBN 978-0-262-08153-5.
  • Хокинс, Джефф ; Блейксли, Сандра (2005). Об интеллекте . Нью-Йорк, Нью-Йорк: Книги Сов. ISBN 978-0-8050-7853-4.
  • Хендерсон, Марк (24 апреля 2007 г.). «Права человека для роботов? Мы увлекаемся» . The Times Online . Лондон. Архивировано 31 мая 2014 года . Дата обращения 31 мая 2014 .
  • Эрнандес-Оралло, Хосе (2000). «За пределами теста Тьюринга». Журнал логики, языка и информации . 9 (4): 447–466. DOI : 10,1023 / A: 1008367325700 . S2CID  14481982 .
  • Hernandez-Orallo, J .; Доу, Д.Л. (2010). «Измерение универсального интеллекта: на пути к проверке интеллекта в любое время». Искусственный интеллект . 174 (18): 1508–1539. CiteSeerX  10.1.1.295.9079 . DOI : 10.1016 / j.artint.2010.09.006 .
  • Хинтон, GE (2007). «Изучение нескольких уровней представления». Тенденции в когнитивных науках . 11 (10): 428–434. DOI : 10.1016 / j.tics.2007.09.004 . PMID  17921042 . S2CID  15066318 .
  • Хофштадтер, Дуглас (1979). Гедель, Эшер, Бах: вечная золотая коса . Нью-Йорк, Нью-Йорк: старинные книги. ISBN 978-0-394-74502-2.
  • Голландия, Джон Х. (1975). Адаптация в естественных и искусственных системах . Пресса Мичиганского университета. ISBN 978-0-262-58111-0. Архивировано 26 июля 2020 года . Проверено 17 декабря 2019 .
  • Хау, Дж. (Ноябрь 1994 г.). «Искусственный интеллект в Эдинбургском университете: перспектива» . Архивировано 15 мая 2007 года . Проверено 30 августа 2007 года .
  • Хаттер, М. (2012). «Одно десятилетие универсального искусственного интеллекта». Теоретические основы общего искусственного интеллекта . Мыслительные машины Атлантиды. 4 . С. 67–88. CiteSeerX  10.1.1.228.8725 . DOI : 10.2991 / 978-94-91216-62-6_5 . ISBN 978-94-91216-61-9. S2CID  8888091 .
  • Канеман, Даниэль ; Slovic, D .; Тверски, Амос (1982). Суждение в условиях неопределенности: эвристика и предубеждения . Наука . 185 . Нью-Йорк: Издательство Кембриджского университета. С. 1124–1131. DOI : 10.1126 / science.185.4157.1124 . ISBN 978-0-521-28414-1. PMID  17835457 . S2CID  143452957 .
  • Каплан, Андреас; Haenlein, Майкл (2019). «Siri, Siri в моей руке, кто самый справедливый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты . 62 : 15–25. DOI : 10.1016 / j.bushor.2018.08.004 .
  • Кац, Ярден (1 ноября 2012 г.). «Ноам Хомский о том, где искусственный интеллект пошел не так» . Атлантика . Архивировано 28 февраля 2019 года . Проверено 26 октября 2014 года .
  • Коза, Джон Р. (1992). Генетическое программирование (О программировании компьютеров посредством естественного отбора) . MIT Press. Bibcode : 1992gppc.book ..... K . ISBN 978-0-262-11170-6.
  • Колата, Г. (1982). «Как компьютеры могут обрести здравый смысл?». Наука . 217 (4566): 1237–1238. Bibcode : 1982Sci ... 217.1237K . DOI : 10.1126 / science.217.4566.1237 . PMID  17837639 .
  • Кумар, Гульшан; Кумар, Кришан (2012). «Использование ансамблей на основе искусственного интеллекта для обнаружения вторжений: обзор» . Прикладной вычислительный интеллект и мягкие вычисления . 2012 : 1–20. DOI : 10.1155 / 2012/850160 .
  • Курцвейл, Рэй (1999). Эпоха духовных машин . Книги пингвинов. ISBN 978-0-670-88217-5.
  • Курцвейл, Рэй (2005). Сингулярность близка . Книги пингвинов. ISBN 978-0-670-03384-3.
  • Лакофф, Джордж ; Нуньес, Рафаэль Э. (2000). Откуда возникла математика: как воплощенный разум воплощает математику в жизнь . Основные книги. ISBN 978-0-465-03771-1.
  • Лэнгли, Пэт (2011). «Меняющаяся наука о машинном обучении» . Машинное обучение . 82 (3): 275–279. DOI : 10.1007 / s10994-011-5242-у .
  • Закон, Дайан (июнь 1994). Серл, Субсимволический функционализм и синтетический интеллект (Технический отчет). Техасский университет в Остине. п. АИ94-222. CiteSeerX  10.1.1.38.8384 .
  • Легг, Шейн; Хаттер, Маркус (15 июня 2007 г.). Сборник определений интеллекта (Технический отчет). IDSIA . arXiv : 0706.3639 . Bibcode : 2007arXiv0706.3639L . 07-07.
  • Ленат, Дуглас ; Гуха, Р.В. (1989). Построение больших систем, основанных на знаниях . Эддисон-Уэсли. ISBN 978-0-201-51752-1.
  • Лайтхилл, Джеймс (1973). «Искусственный интеллект: общий обзор». Искусственный интеллект: бумажный симпозиум . Научно-исследовательский совет.
  • Лукас, Джон (1961). «Умы, машины и Гёдель». В Андерсоне, АР (ред.). Умы и машины . Архивировано 19 августа 2007 года . Проверено 30 августа 2007 года .
  • Lungarella, M .; Metta, G .; Pfeifer, R .; Сандини, Г. (2003). «Развитая робототехника: обзор». Связь науки . 15 (4): 151–190. CiteSeerX  10.1.1.83.7615 . DOI : 10.1080 / 09540090310001655110 . S2CID  1452734 .
  • Создатель, Мэг Хьюстон (2006). «AI @ 50: AI Прошлое, настоящее, будущее» . Дартмутский колледж. Архивировано из оригинала 3 января 2007 года . Проверено 16 октября 2008 года .
  • Марков, Джон (16 февраля 2011 г.). «Компьютер побеждает в 'Jeopardy!': Банально, это не так» . Нью-Йорк Таймс . Архивировано 22 октября 2014 года . Проверено 25 октября 2014 года .
  • Маккарти, Джон ; Минский, Марвин ; Рочестер, Натан ; Шеннон, Клод (1955). «Предложение для Дартмутского летнего исследовательского проекта по искусственному интеллекту» . Архивировано из оригинального 26 августа 2007 года . Проверено 30 августа 2007 года .
  • Маккарти, Джон ; Хейс, П.Дж. (1969). «Некоторые философские проблемы с точки зрения искусственного интеллекта» . Машинный интеллект . 4 : 463–502. CiteSeerX  10.1.1.85.5082 . Архивировано 10 августа 2007 года . Проверено 30 августа 2007 года .
  • Маккарти, Джон (12 ноября 2007 г.). «Что такое искусственный интеллект?» . www-formal.stanford.edu . Архивировано 18 ноября 2015 года.
  • Маккарти, Джон (12 ноября 2007 г.). «Приложения ИИ» . www-formal.stanford.edu . Архивировано 28 августа 2016 года . Проверено 25 сентября 2016 года .
  • Минский, Марвин (1967). Вычисление: конечные и бесконечные машины . Энглвуд Клиффс, Нью-Джерси: Прентис-Холл. ISBN 978-0-13-165449-5. Архивировано 26 июля 2020 года . Дата обращения 18 ноября 2019 .
  • Минский, Марвин (2006). Машина эмоций . Нью-Йорк, Нью-Йорк: Саймон и Шустерль. ISBN 978-0-7432-7663-4.
  • Моравец, Ханс (1988). Дети разума . Издательство Гарвардского университета. ISBN 978-0-674-57616-2. Архивировано 26 июля 2020 года . Дата обращения 18 ноября 2019 .
  • Норвиг, Питер (25 июня 2012 г.). «О Хомском и двух культурах статистического обучения» . Питер Норвиг. Архивировано 19 октября 2014 года.
  • NRC (Национальный исследовательский совет США) (1999). «Разработки в области искусственного интеллекта». Финансирование революции: государственная поддержка компьютерных исследований . Национальная академия прессы.
  • Нидхэм, Джозеф (1986). Наука и цивилизация в Китае: Том 2 . Caves Books Ltd.
  • Ньюэлл, Аллен ; Саймон, HA (1976). «Информатика как эмпирическое исследование: символы и поиск» . Коммуникации ACM . 19 (3): 113–126. DOI : 10.1145 / 360018.360022 ..
  • Нильссон, Нильс (1983). «Искусственный интеллект готовится к 2001 году» (PDF) . Журнал AI . 1 (1). Архивировано (PDF) из оригинала 17 августа 2020 года . Проверено 22 августа 2020 .Послание Президента Ассоциации Развития Искусственного Интеллекта .
  • О'Брайен, Джеймс; Маракас, Джордж (2011). Информационные системы управления (10-е изд.). МакГроу-Хилл / Ирвин. ISBN 978-0-07-337681-3.
  • О'Коннор, Кэтлин Мэлоун (1994). Алхимическое создание жизни (таквин) и другие концепции Бытия в средневековом исламе (Диссертация). Пенсильванский университет. С. 1–435. AAI9503804. Архивировано 5 декабря 2019 года . Проверено 27 августа 2008 г. - через диссертации, доступные на ProQuest.
  • Oudeyer, PY. (2010). «О влиянии робототехники на поведенческие и когнитивные науки: от навигации насекомых до когнитивного развития человека» (PDF) . IEEE Transactions по автономному умственному развитию . 2 (1): 2–16. DOI : 10.1109 / tamd.2009.2039057 . S2CID  6362217 . Архивировано 3 октября 2018 года (PDF) . Проверено 4 июня 2013 года .
  • Пенроуз, Роджер (1989). Новый разум императора: о компьютере, умах и законах физики . Издательство Оксфордского университета . ISBN 978-0-19-851973-7.
  • Poli, R .; Лэнгдон, ВБ; Макфи, Н.Ф. (2008). Полевое руководство по генетическому программированию . Lulu.com. ISBN 978-1-4092-0073-4. Архивировано 8 августа 2015 года . Проверено 21 апреля 2008 г. с сайта gp-field-guide.org.uk.
  • Раджани, Сандип (2011). «Искусственный интеллект - человек или машина» (PDF) . Международный журнал информационных технологий и управления знаниями . 4 (1): 173–176. Архивировано из оригинального (PDF) 18 января 2013 года.
  • Рональд, EMA и Сиппер, М. Интеллекта недостаточно: о социализации говорящих машин, Minds and Machines Архивировано 25 июля 2020 года в Wayback Machine , т. 11, вып. 4. С. 567–576, ноябрь 2001 г.
  • Рональд, EMA и Сиппер, М. Какая польза от болтуна Тьюринга? Архивировано 25 июля 2020 года в Wayback Machine , Communications of the ACM, vol. 43, нет. 10, стр. 21–23, октябрь 2000 г.
  • «Наука» . Август 1982 года. Архивировано 25 июля 2020 года . Дата обращения 16 февраля 2016 .
  • Сирл, Джон (1980). «Умы, мозги и программы» (PDF) . Поведенческие науки и науки о мозге . 3 (3): 417–457. DOI : 10.1017 / S0140525X00005756 . Архивировано 17 марта 2019 года (PDF) . Проверено 22 августа 2020 .
  • Сирл, Джон (1999). Разум, язык и общество . Нью-Йорк, Нью-Йорк: Основные книги. ISBN 978-0-465-04521-1. OCLC  231867665 . Архивировано 26 июля 2020 года . Проверено 22 августа 2020 .
  • Шапиро, Стюарт С. (1992). "Искусственный интеллект". В Шапиро, Стюарт С. (ред.). Энциклопедия искусственного интеллекта (PDF) (2-е изд.). Нью-Йорк: Джон Вили. С. 54–57. ISBN 978-0-471-50306-4. Архивировано (PDF) из оригинала 1 февраля 2016 года . Проверено 29 мая 2009 года .
  • Саймон, HA (1965). Форма автоматизации для мужчин и управления . Нью-Йорк: Харпер и Роу. Архивировано 26 июля 2020 года . Дата обращения 18 ноября 2019 .
  • Skillings, Джонатан (3 июля 2006 г.). «Заставить машины думать, как мы» . cnet . Архивировано 16 ноября 2011 года . Проверено 3 февраля 2011 года .
  • Соломонов, Рэй (1956). Машина индуктивного вывода (PDF) . Дартмутская летняя исследовательская конференция по искусственному интеллекту. Архивировано 26 апреля 2011 года (PDF) . Проверено 22 марта 2011 г. - через std.com, сканированная копия оригинала в формате pdf.Позже опубликовано как Solomonoff, Ray (1957). «Машина индуктивного вывода». IRE Convention Record . Раздел по теории информации, часть 2. С. 56–62.
  • Тао, Цзяньхуа; Тан, Тиениу (2005). Аффективные вычисления и интеллектуальное взаимодействие . Аффективные вычисления: обзор. LNCS 3784. Springer. С. 981–995. DOI : 10.1007 / 11573548 .
  • Текучи, Георге (март – апрель 2012 г.). "Искусственный интеллект". Междисциплинарные обзоры Wiley: вычислительная статистика . 4 (2): 168–180. DOI : 10.1002 / wics.200 .
  • Тро, Эллен (1993). Робототехника: брак компьютеров и машин . Нью-Йорк: факты в файле. ISBN 978-0-8160-2628-9. Архивировано 26 июля 2020 года . Проверено 22 августа 2020 .
  • Тьюринг, Алан (октябрь 1950 г.), «Вычислительные машины и интеллект», Mind , LIX (236): 433–460, DOI : 10.1093 / mind / LIX.236.433 , ISSN  0026-4423.
  • ван дер Вальт, Кристиан; Бернар, Этьен (2006). «Характеристики данных, определяющие работу классификатора» (PDF) . Архивировано из оригинального (PDF) 25 марта 2009 года . Проверено 5 августа 2009 года .
  • Виндж, Вернор (1993). «Грядущая технологическая сингулярность: как выжить в постчеловеческую эру» . Видение 21: Междисциплинарная наука и инженерия в эпоху киберпространства : 11. Bibcode : 1993vise.nasa ... 11V . Архивировано из оригинала на 1 января 2007 года . Проверено 14 ноября 2011 года .
  • Уэйсон, ПК ; Шапиро, Д. (1966). «Рассуждение» . В Фосс, Б.М. (ред.). Новые горизонты в психологии . Хармондсворт: Пингвин. Архивировано 26 июля 2020 года . Дата обращения 18 ноября 2019 .
  • Вайценбаум, Джозеф (1976). Компьютерная мощь и человеческий разум . Сан-Франциско: WH Freeman & Company. ISBN 978-0-7167-0464-5.
  • Weng, J .; Макклелланд; Pentland, A .; Sporns, O .; Stockman, I .; Sur, M .; Телен, Э. (2001). «Автономное умственное развитие роботов и животных» (PDF) . Наука . 291 (5504): 599–600. DOI : 10.1126 / science.291.5504.599 . PMID  11229402 . S2CID  54131797 . Архивировано 4 сентября 2013 года (PDF) . Проверено 4 июня 2013 г. - через msu.edu.

дальнейшее чтение

  • Автор DH, «Почему все еще так много рабочих мест? История и будущее автоматизации рабочих мест »(2015) 29 (3) Journal of Economic Perspectives 3.
  • Боден, Маргарет , Разум как машина , Oxford University Press , 2006.
  • Кукер, Кеннет , «Готовы к роботам? Как думать о будущем искусственного интеллекта», Foreign Affairs , vol. 98, нет. 4 (июль / август 2019 г.), стр. 192–98. Джордж Дайсон , историк вычислительной техники, пишет (в том, что можно было бы назвать «законом Дайсона»), что «любая система, достаточно простая, чтобы ее можно было понять, не будет достаточно сложной, чтобы вести себя разумно, в то время как любая система, достаточно сложная, чтобы вести себя разумно, будет слишком сложной, чтобы понимать." (стр. 197). Ученый-компьютерщик Алекс Пентланд пишет: «Современные алгоритмы машинного обучения искусственного интеллекта , по своей сути, очень просты и глупы. Они работают, но работают с помощью грубой силы». (стр.198).
  • Домингос, Педро , «Наши цифровые двойники: ИИ будет служить нашему виду, а не контролировать его», Scientific American , vol. 319, нет. 3 (сентябрь 2018 г.), стр. 88–93.
  • Гопник, Элисон , «Сделать ИИ более человечным: искусственный интеллект возродил жизнь, начав использовать то, что мы знаем о том, как учатся дети», Scientific American , vol. 316, нет. 6 (июнь 2017 г.), стр. 60–65.
  • Джонстон, Джон (2008) Очарование машинной жизни: кибернетика, искусственная жизнь и новый ИИ , MIT Press.
  • Кох, Кристоф , «Пруст среди машин», Scientific American , vol. 321, нет. 6 (декабрь 2019 г.), стр. 46–49. Кристоф Кох сомневается в возможности «умных» машин достичь сознания , потому что «даже самые сложные моделирование мозга вряд ли вызовет сознательные чувства ». (стр. 48) Согласно Коху, «Могут ли машины стать разумными [важно] по этическим причинам. Если компьютеры познают жизнь своими собственными чувствами, они перестают быть просто средством достижения цели, определяемой их полезностью ... люди. Согласно GNW [ Глобальное нейронное рабочее пространствотеория], они превращаются из простых объектов в субъектов ... с точки зрения ... Как только когнитивные способности компьютеров станут соперничать с человеческими, их импульс отстаивания юридических и политических прав станет непреодолимым - право не быть удалены, чтобы не стереть их воспоминания, не страдать от боли и деградации. Альтернатива, воплощенная в IIT [Integrated Information Theory], состоит в том, что компьютеры останутся только сверхсложными механизмами, призрачными пустыми оболочками, лишенными того, что мы ценим больше всего: чувства самой жизни »(стр. 49).
  • Маркус, Гэри , «Я человек ?: Исследователям нужны новые способы отличить искусственный интеллект от естественного», Scientific American , vol. 316, нет. 3 (март 2017 г.), стр. 58–63. Камнем преткновения для ИИ была неспособность надежного разрешения неоднозначности . Примером может служить «проблема устранения неоднозначности местоимения»: машина не имеет возможности определить, к кому или к какому местоимению относится предложение. (стр.61)
  • Э. МакГоги, «Будут ли роботы автоматизировать вашу работу?» Полная занятость, базовый доход и экономическая демократия '' (2018) SSRN, часть 2 (3). Архивировано 24 мая 2018 года в Wayback Machine .
  • Джордж Массер , « Искусственное воображение : как машины могут научиться творчеству и здравому смыслу , среди других человеческих качеств», Scientific American , vol. 320, нет. 5 (май 2019 г.), стр. 58–63.
  • Майерс, Кортни Бойд изд. (2009). «Отчет AI». Архивировано 29 июля 2017 года в Wayback Machine . Forbes, июнь 2009 г.
  • Рафаэль, Бертрам (1976). Думающий компьютер . WHFreeman and Company. ISBN 978-0-7167-0723-3. Архивировано 26 июля 2020 года . Проверено 22 августа 2020 .
  • Шарр, Пол, "Убийственные приложения: настоящие опасности гонки вооружений искусственного интеллекта", Foreign Affairs , vol. 98, нет. 3 (май / июнь 2019 г.), стр. 135–44. «Сегодняшние технологии искусственного интеллекта мощны, но ненадежны. Системы на основе правил не могут справиться с обстоятельствами, которых не ожидали их программисты. Системы обучения ограничены данными, на которых они обучались. Сбои искусственного интеллекта уже привели к трагедии. Расширенные функции автопилота в автомобилях, хотя в некоторых случаях они хорошо себя зарекомендовали, без предупреждения загоняли машины в грузовики, бетонные заграждения и припаркованные автомобили. В неправильной ситуации системы ИИ мгновенно переходят от супер-умных к сверхмощным. Когда враг пытается манипулировать и взламывать ИИ системы, риски еще больше ". (стр.140).
  • Серенко, Александр (2010). «Разработка рейтинга журналов AI на основе подхода выявленных предпочтений» (PDF) . Журнал информетрики . 4 (4): 447–459. DOI : 10.1016 / j.joi.2010.04.001 . Архивировано 4 октября 2013 года (PDF) . Проверено 24 августа 2013 года .
  • Серенко, Александр; Майкл Дохан (2011). «Сравнение методов ранжирования журналов по результатам опроса экспертов и цитируемости: пример из области искусственного интеллекта» (PDF) . Журнал информетрики . 5 (4): 629–649. DOI : 10.1016 / j.joi.2011.06.002 . Архивировано 4 октября 2013 года (PDF) . Проверено 12 сентября 2013 года .
  • Сан, Р. и Букман, Л. (ред.), Вычислительные архитектуры: интеграция нейронных и символьных процессов . Kluwer Academic Publishers, Нидхэм, Массачусетс. 1994 г.
  • Том Симонит (29 декабря 2014 г.). «2014 в области вычислительной техники: прорывы в области искусственного интеллекта» . MIT Technology Review .
  • Туз, Адам , "Демократия и ее недовольство", The New York Review of Books , vol. LXVI, нет. 10 (6 июня 2019 г.), стр. 52–53, 56–57. «Демократия не имеет четкого ответа на бездумное действие бюрократической и технологической власти . Мы действительно можем быть свидетелями ее расширения в форме искусственного интеллекта и робототехники. Точно так же после десятилетий ужасных предупреждений экологическая проблема остается в основном нерешенной ... Бюрократический перебор и экологическая катастрофа - это как раз те виды медленно протекающих экзистенциальных проблем, с которыми демократии очень плохо справляются ... Наконец, существует современная угроза: корпорации и продвигаемые ими технологии ». (стр. 56–57.)

внешняя ссылка

  • «Искусственный интеллект» . Интернет-энциклопедия философии .
  • Томасон, Ричмонд. «Логика и искусственный интеллект» . В Залте, Эдвард Н. (ред.). Стэнфордская энциклопедия философии .
  • Искусственный интеллект , дискуссия на BBC Radio 4 с Джоном Агаром, Элисон Адам и Игорем Александром ( в наше время , 8 декабря 2005 г.)