Page semi-protected
Из Википедии, бесплатной энциклопедии
  (Перенаправлено из AI )
Перейти к навигации Перейти к поиску

Искусственный интеллект ( ИИ ) - это интеллект, демонстрируемый машинами , в отличие от естественного интеллекта, проявляемого людьми и животными , который включает сознание и эмоциональность. Различие между первой и второй категориями часто проявляется в выбранной аббревиатуре. «Сильный» ИИ обычно обозначается как общий искусственный интеллект (AGI), а попытки имитировать «естественный» интеллект называются искусственным биологическим интеллектом (ABI). Ведущие учебники по ИИ определяют эту область как исследование « интеллектуальных агентов».": любое устройство, которое воспринимает окружающую среду и предпринимает действия, которые максимизируют его шансы на успешное достижение своих целей. [3] В разговорной речи термин« искусственный интеллект »часто используется для описания машин, которые имитируют« когнитивные »функции, которые люди связывают с человеком. ум , такие как «обучение» и «решение проблем». [4]

По мере того, как машины становятся все более способными, задачи, которые, как считается, требуют «интеллекта», часто исключаются из определения ИИ, явление, известное как эффект ИИ . [5] Замечательная шутка в теореме Теслера гласит: «ИИ - это то, что еще не было сделано». [6] Например, оптическое распознавание символов часто исключается из вещей, которые считаются искусственным интеллектом, [7] став обычной технологией. [8] Современные возможности машины обычно классифицируются как ИИ включают в себя успешно понимание человеческой речи , [9] конкурировать на самом высоком уровне в стратегических игровых системах (таких как шахматы и Go), [10] , а также несовершенной-информационные игры , как покер , [11] Самостоятельное вождение автомобиля , интеллектуальная маршрутизация в контентной сети доставки , и военные моделирования . [12]

Искусственный интеллект был основан как академическая дисциплина в 1955 году и с тех пор испытал несколько волн оптимизма [13] [14], за которыми последовало разочарование и потеря финансирования (известная как « зима искусственного интеллекта »), [15] [16], за которыми последовали новые подходы, успех и возобновление финансирования. [14] [17] После того, как AlphaGo успешно победила профессионального игрока в го в 2015 году, искусственный интеллект снова привлек всеобщее внимание. [18] На протяжении большей части своей истории исследования ИИ были разделены на подобласти, которые часто не взаимодействуют друг с другом. [19]Эти подполя основаны на технических соображениях, таких как конкретные цели (например, « робототехника » или « машинное обучение ») [20], использование определенных инструментов (« логика » или искусственные нейронные сети ) или глубокие философские различия. [23] [24] [25] Подполя также основывались на социальных факторах (определенных учреждениях или работе конкретных исследователей). [19]

Традиционные проблемы (или цели) исследований ИИ включают рассуждение , представление знаний , планирование , обучение , обработку естественного языка , восприятие и способность перемещать объекты и манипулировать ими. [20] AGI является одной из долгосрочных целей отрасли. [26] Подходы включают статистические методы , вычислительный интеллект и традиционный символический ИИ . В ИИ используется множество инструментов, включая варианты поиска и математической оптимизации, искусственные нейронные сети и методы, основанные на статистике, вероятности и экономике. Область ИИ опирается наинформатика , информационная инженерия , математика , психология , лингвистика , философия и многие другие области.

Эта область была основана на предположении, что человеческий интеллект «можно так точно описать, что можно создать машину для его моделирования». [27] Это поднимает философские аргументы относительно разума и этики создания искусственных существ, наделенных интеллектом, подобным человеческому. Эти вопросы исследовались мифами , художественной литературой и философией с древних времен . [32] Некоторые люди также считают ИИ опасностью для человечества, если он не ослабевает. [33] [34] Другие считают, что ИИ, в отличие от предыдущих технологических революций, создаст риск массовой безработицы . [35]

В двадцать первом веке методы искусственного интеллекта пережили возрождение после одновременного развития компьютерных мощностей , больших объемов данных и теоретических знаний; и методы искусственного интеллекта стали неотъемлемой частью технологической индустрии , помогая решать многие сложные проблемы в области информатики, разработки программного обеспечения и исследования операций . [36] [17]

История

Серебряная дидрахма с Крита, изображающая Талоса , древнего мифического автомата с искусственным интеллектом.

Способные к мысли искусственные существа появились как устройства для повествования в древности [37] и были обычным явлением в художественной литературе, например, в « Франкенштейне» Мэри Шелли или « RUR» Карла Чапека [38]. Эти персонажи и их судьбы подняли сегодня многие из тех же проблем. обсуждается в этике искусственного интеллекта . [32]

Изучение механических или «формальных» рассуждений началось с древних философов и математиков. Изучение математической логики непосредственно привело к Alan Turing «s теории вычислений , который предположил , что машина, путем перестановки символов так просто , как„0“и„1“, может имитировать любой мыслимый акт математической дедукции. Понимание того, что цифровые компьютеры могут моделировать любой процесс формального рассуждения, известно как тезис Черча-Тьюринга . [39] Наряду с одновременными открытиями в нейробиологии , теории информации и кибернетике, это побудило исследователей рассмотреть возможность создания электронного мозга. Тьюринг предложил изменить вопрос с того, была ли машина разумной, на «может ли машина демонстрировать разумное поведение». [40] Первой работой, которая теперь общепризнана как ИИ, была формальная разработка Маккаллача и Питтса 1943 года для полных по Тьюрингу «искусственных нейронов». [41]

Область исследований искусственного интеллекта зародилась на семинаре в Дартмутском колледже в 1956 году [42], где Джон Маккарти ввел термин «искусственный интеллект», чтобы отличить эту область от кибернетики и избежать влияния кибернетика Норберта Винера . [43] Участники Аллен Ньюэлл ( CMU ), Герберт Саймон (CMU), Джон Маккарти ( MIT ), Марвин Мински (MIT) и Артур Сэмюэл ( IBM ) стали основателями и лидерами исследований в области ИИ. [44]Они и их ученики создали программы, которые пресса назвала «удивительными»: [45] компьютеры изучали стратегии игры в шашки (c. 1954) [46] (и к 1959 году, как сообщалось, играли лучше, чем средний человек) [47], решая слова задачи по алгебре, доказательство логических теорем (« Logic Theorist» , первый запуск c. 1956) и говорение по-английски. [48] К середине 1960-х исследования в США в значительной степени финансировались Министерством обороны [49], и лаборатории были созданы по всему миру. [50] Основатели AI с оптимизмом смотрели в будущее: Герберт Саймонпредсказал, что «в течение двадцати лет машины будут способны выполнять любую работу, которую может выполнять человек». Марвин Мински согласился, написав: «В течение одного поколения ... проблема создания« искусственного интеллекта »будет существенно решена». [13]

Они не осознавали сложности некоторых оставшихся задач. Прогресс замедлился, и в 1974 году в ответ на критику сэра Джеймса Лайтхилла [51] и продолжающееся давление Конгресса США с целью финансирования более продуктивных проектов правительства США и Великобритании прекратили исследовательские исследования в области ИИ. Следующие несколько лет позже будут названы « зимой искусственного интеллекта » [15], период, когда получение финансирования для проектов искусственного интеллекта было трудным.

В начале 1980 - х годов исследование ИИ был возрожден коммерческий успех экспертных систем , [52] это форма программы ИИ , который имитировал знания и аналитические навыки человеческих экспертов. К 1985 году рынок ИИ превысил миллиард долларов. В то же время компьютерный проект пятого поколения в Японии вдохновил правительства США и Великобритании на восстановление финансирования академических исследований . [14] Однако, начиная с краха рынка машин Лиспа в 1987 году, ИИ снова потерял репутацию, и начался второй, более продолжительный перерыв. [16]

Развитие очень крупномасштабной интеграции (СБИС) металл-оксид-полупроводник (МОП) в форме технологии комплементарных МОП (КМОП) транзисторов позволило разработать практическую технологию искусственных нейронных сетей (ИНС) в 1980-х годах. Публикация вехой в области было 1989 книга Analog VLSI Реализация нейронных систем по Carver А. Мид и Мохаммед Исмаил. [53]

В конце 1990-х - начале 21 века ИИ начал использоваться для логистики, интеллектуального анализа данных , медицинской диагностики и других областей. [36] Успех был обусловлен увеличением вычислительной мощности (см . Закон Мура и количество транзисторов ), большим упором на решение конкретных проблем, новыми связями между ИИ и другими областями (такими как статистика , экономика и математика ), а также стремлением исследователей к математические методы и научные стандарты. [54] Deep Blue стала первой компьютерной шахматной системой, победившей действующего чемпиона мира по шахматам Гарри Каспарова 11 мая 1997 года.[55]

В 2011 году в опасности! викторины выставки матч, IBM «s вопросно - ответная система , Уотсон , поражение двух величайших Jeopardy! чемпионы Брэд Раттер и Кен Дженнингс со значительным отрывом. [56] Более быстрые компьютеры , алгоритмические улучшения и доступ к большим объемам данных позволили добиться прогресса в машинном обучении и восприятии; данные голодный глубокие обучения методы начали доминировать точность тесты примерно в 2012 году . [57] Kinect, который обеспечивает трехмерный интерфейс движения тела для Xbox 360 и Xbox One , использует алгоритмы, появившиеся в результате длительных исследований искусственного интеллекта [58], как и интеллектуальные персональные помощники в смартфонах . [59] В марте 2016 года AlphaGo выиграла 4 из 5 игр в го в матче с чемпионом по го Ли Седолом , став первой компьютерной системой для игры в го, которая обыграла профессионального игрока в го без препятствий . [10] [60] В 2017 году будущее Go Summit , AlphaGo выиграл матч три игрыс Ke Jie , [61] , который в то время постоянно держал в мире № 1 рейтинг в течение двух лет. [62] [63] Deep Blue «s Мюррей Кэмпбелл назвал победу AlphaGo„Конец эпохи ... настольные игры более или менее сделаны [64] , и это время , чтобы двигаться дальше.“ [65] Это ознаменовало собой завершение важной вехи в развитии искусственного интеллекта, поскольку го - относительно сложная игра, более сложная, чем шахматы. Позднее AlphaGo была улучшена, распространена на другие игры, такие как шахматы, с AlphaZero ; [66] и MuZero [67], чтобы играть в разные видеоигры., которые ранее обрабатывались отдельно [68] в дополнение к настольным играм. Другие программы обрабатывают игры с несовершенной информацией ; например, для покера сверхчеловеческого уровня, Pluribus (покерный бот) [69] и Cepheus (покерный бот) . [11] См .: Общие игры .

По словам Джека Кларка из Bloomberg , 2015 год стал знаковым для искусственного интеллекта: количество программных проектов, использующих ИИ в Google, увеличилось с «спорадического использования» в 2012 году до более чем 2700 проектов. Кларк также представляет фактические данные, указывающие на улучшения ИИ с 2012 года, поддерживаемые более низким уровнем ошибок в задачах обработки изображений. [70] Он объясняет это увеличением числа доступных нейронных сетей из-за роста инфраструктуры облачных вычислений и увеличения исследовательских инструментов и наборов данных. [17]Другие процитированные примеры включают разработку Microsoft системы Skype, которая может автоматически переводить с одного языка на другой, и системы Facebook, которая может описывать изображения слепым людям. [70] В опросе 2017 года каждая пятая компания сообщила, что «включила ИИ в некоторые предложения или процессы». [71] [72] Примерно в 2016 году Китай значительно увеличил объем государственного финансирования; Учитывая большой объем данных и быстро растущие результаты исследований, некоторые наблюдатели полагают, что он может стать «сверхдержавой искусственного интеллекта». [73] [74]

К 2020 году системы обработки естественного языка, такие как огромная GPT-3 (на тот момент крупнейшая искусственная нейронная сеть), соответствовали производительности человека по ранее существовавшим тестам, хотя и без того, чтобы система достигла здравого понимания содержания тестов. [75] DeepMind AlphaFold 2 (2020) продемонстрировал способность определять трехмерную структуру белка за часы, а не за месяцы. Распознавание лиц продвинулось до того места, где при некоторых обстоятельствах некоторые системы заявляют, что точность их составляет 99%. [76]

Основы

Информатика определяет исследования ИИ как изучение « интеллектуальных агентов »: любого устройства, которое воспринимает окружающую среду и предпринимает действия, которые увеличивают его шансы на успешное достижение своих целей. [3] Более подробное определение характеризует ИИ как «способность системы правильно интерпретировать внешние данные, учиться на них и использовать полученные знания для достижения конкретных целей и задач посредством гибкой адаптации». [77]

Типичный ИИ анализирует свое окружение и предпринимает действия, которые увеличивают его шансы на успех. [3] Предполагаемая функция полезности (или цель) ИИ может быть простой («1, если ИИ выигрывает игру в го , 0 в противном случае») или сложной («Выполнять действия, математически похожие на те, которые были успешными в прошлом»). Цели могут быть четко определены или вызваны. Если ИИ запрограммирован на « обучение с подкреплением », цели могут быть неявно вызваны поощрением одних типов поведения или наказанием других. [a] Альтернативно, эволюционная система может побуждать к достижению целей, используя « функцию приспособленности»«мутировать и предпочтительно копировать системы ИИ с высокими показателями, аналогично тому, как животные эволюционировали, врожденно стремясь к определенным целям, таким как поиск пищи. [78] Некоторые системы ИИ, такие как« ближайший сосед », вместо того, чтобы рассуждать по аналогии, не являются обычно задаются цели, за исключением той степени, в которой цели неявно присутствуют в их обучающих данных. [79] Такие системы все еще можно тестировать, если нецелевая система оформлена как система, «целью» которой является успешное выполнение ее узкой задачи классификации. [80]

ИИ часто вращается вокруг использования алгоритмов . Алгоритм - это набор однозначных инструкций, которые может выполнять механический компьютер. [b] Сложный алгоритм часто строится поверх других, более простых алгоритмов. Простым примером алгоритма является следующий (оптимальный для первого игрока) рецепт игры в крестики-нолики : [81]

  1. Если у кого-то есть «угроза» (то есть две подряд), возьмите оставшийся квадрат. Иначе,
  2. если ход «разветвляется», создавая сразу две угрозы, сыграйте этот ход. Иначе,
  3. возьмите центральную площадь, если она свободна. Иначе,
  4. если ваш противник играл в углу, возьмите противоположный угол. Иначе,
  5. возьмите пустой угол, если он существует. Иначе,
  6. возьмите любой пустой квадрат.

Многие алгоритмы ИИ способны учиться на данных; они могут совершенствоваться, изучая новую эвристику (стратегии или «практические правила», которые хорошо работали в прошлом), или могут сами писать другие алгоритмы. Некоторые из «учащихся», описанных ниже, включая байесовские сети, деревья решений и ближайшего соседа, теоретически могут (учитывая бесконечные данные, время и память) научиться приближать любую функцию , включая то, какая комбинация математических функций лучше всего описывает Мир. [ необходима цитата ]Таким образом, эти учащиеся могли получить все возможные знания, рассматривая все возможные гипотезы и сопоставляя их с данными. На практике редко удается рассмотреть все возможности из-за явления « комбинаторного взрыва », когда время, необходимое для решения проблемы, растет экспоненциально. Большая часть исследований искусственного интеллекта включает в себя выяснение того, как идентифицировать и избегать рассмотрения широкого спектра возможностей, которые вряд ли будут полезны. [82] [83] Например, при просмотре карты и поиске кратчайшего автомобильного маршрута от Денвера до Нью-Йорка на востоке, в большинстве случаев можно не смотреть на любой путь через Сан-Франциско.или другие районы далеко на западе; таким образом, ИИ, владеющий алгоритмом поиска пути, таким как A *, может избежать комбинаторного взрыва, который произошел бы, если бы каждый возможный маршрут должен был быть тщательно продуман. [84]

Самым ранним (и наиболее легким для понимания) подходом к ИИ был символизм (такой как формальная логика): «Если у здорового взрослого человека жар, то он, возможно, болен гриппом ». Второй, более общий подход - это байесовский вывод : «Если у текущего пациента лихорадка, скорректируйте вероятность того, что у него грипп, таким-то образом». Третий основной подход, чрезвычайно популярный в рутинных бизнес-приложениях ИИ, - это аналогизаторы, такие как SVM и метод ближайшего соседа.: «После изучения записей известных прошлых пациентов, у которых температура, симптомы, возраст и другие факторы в основном совпадают с текущим пациентом, оказалось, что X% этих пациентов болеют гриппом». Четвертый подход сложнее интуитивно понять, но он основан на том, как работают механизмы мозга: подход искусственной нейронной сети использует искусственные нейроны.«который может учиться, сравнивая себя с желаемым результатом и изменяя силу связей между своими внутренними нейронами, чтобы« укрепить »связи, которые казались полезными. Эти четыре основных подхода могут пересекаться друг с другом и с эволюционными системами; например, нейронные сети могут научиться делать выводы, обобщать и проводить аналогии. Некоторые системы неявно или явно используют несколько из этих подходов, наряду со многими другими алгоритмами ИИ и не-ИИ; лучший подход часто отличается в зависимости от проблемы [85]. ] [86]

Алгоритмы обучения работают на том основании, что стратегии, алгоритмы и выводы, которые хорошо работали в прошлом, вероятно, продолжат хорошо работать и в будущем. Эти выводы могут быть очевидными, например, «поскольку солнце вставало каждое утро в течение последних 10 000 дней, оно, вероятно, взойдет и завтра утром». Они могут иметь нюансы, например: «X% семейств имеют географически отдельные виды с цветовыми вариантами, поэтому существует Y% вероятности, что существуют неоткрытые черные лебеди ». Ученики также работают на основе « бритвы Оккама».": Самая простая теория, объясняющая данные, является наиболее вероятной. Следовательно, согласно принципу бритвы Оккама, ученик должен быть спроектирован таким образом, чтобы он предпочитал более простые теории сложным теориям, за исключением случаев, когда сложная теория доказана значительно лучше.

Синяя линия может быть примером переобучения линейной функции из-за случайного шума.

Использование плохой, слишком сложной теории, приспособленной для соответствия всем прошлым обучающим данным, называется переобучением . Многие системы пытаются уменьшить переобучение, вознаграждая теорию в соответствии с тем, насколько хорошо она соответствует данным, но наказывая теорию в соответствии с ее сложностью. [87] Помимо классической переобучения, учащиеся также могут разочаровать, «усвоив неправильный урок». Игрушечный пример: классификатор изображений, обученный только изображениям коричневых лошадей и черных кошек, может сделать вывод, что все коричневые пятна, скорее всего, принадлежат лошадям. [88]Пример из реальной жизни состоит в том, что, в отличие от людей, современные классификаторы изображений часто не делают в первую очередь суждений о пространственных отношениях между компонентами изображения, и они изучают отношения между пикселями, которые люди не замечают, но которые все же коррелируют с изображениями изображений. определенные типы реальных объектов. Изменение этих шаблонов на легитимном изображении может привести к появлению «состязательных» изображений, которые система неправильно классифицирует. [c] [89] [90]

Автономная автомобильная система может использовать нейронную сеть, чтобы определить, какие части изображения кажутся совпадающими с предыдущими тренировочными изображениями пешеходов, а затем моделировать эти области как медленно движущиеся, но несколько непредсказуемые прямоугольные призмы, которых следует избегать.

По сравнению с людьми существующий ИИ лишен некоторых черт человеческого « здравого смысла »; в частности, у людей есть мощные механизмы рассуждений о « наивной физике », таких как пространство, время и физические взаимодействия. Это позволяет даже маленьким детям легко делать выводы типа «Если я скатываю эту ручку со стола, она упадет на пол». У людей также есть мощный механизм « народной психологии », который помогает им интерпретировать предложения на естественном языке, такие как «члены городского совета отказали демонстрантам в разрешении, потому что они выступали за насилие» (общий ИИ с трудом определяет, защищают ли те, кто якобы насилие - члены совета или демонстранты [91] [92] [93]). Это отсутствие «общих знаний» означает, что ИИ часто совершает ошибки, отличные от ошибок людей, и это может показаться непонятным. Например, существующие беспилотные автомобили не могут рассуждать о местонахождении или намерениях пешеходов точно так же, как люди, и вместо этого должны использовать нечеловеческие способы рассуждения, чтобы избежать несчастных случаев. [94] [95] [96]

Вызовы

Когнитивные возможности современных архитектур очень ограничены, и используется только упрощенная версия того, на что действительно способен интеллект. Например, человеческий разум придумал способы рассуждать сверх меры и логические объяснения различных событий в жизни. То, что в противном случае было бы простым, может быть сложно решить с помощью вычислений, а не с помощью человеческого разума. Это порождает два класса моделей: структуралистские и функционалистские. Структурные модели нацелены на имитацию основных интеллектуальных операций разума, таких как рассуждение и логика. Функциональная модель относится к коррелирующим данным с их вычисляемым аналогом. [97]

Общая цель исследования искусственного интеллекта - создать технологию, которая позволяет компьютерам и машинам функционировать разумно. Общая проблема моделирования (или создания) интеллекта была разбита на подзадачи. Они состоят из определенных черт или способностей, которые исследователи ожидают от интеллектуальной системы. Наибольшее внимание привлекли характеристики, описанные ниже. [20]

Рассуждение, решение проблем

Ранние исследователи разработали алгоритмы, имитирующие пошаговые рассуждения, которые люди используют при решении головоломок или логических выводах. [98] К концу 1980-х и 1990-х годах в исследованиях искусственного интеллекта были разработаны методы работы с неопределенной или неполной информацией с использованием концепций вероятности и экономики . [99]

Этих алгоритмов оказалось недостаточно для решения больших задач рассуждения, потому что они испытали «комбинаторный взрыв»: они становились экспоненциально медленнее по мере того, как проблемы росли. [82] Даже люди редко используют пошаговые выводы, которые могли смоделировать ранние исследования ИИ. Они решают большинство своих проблем, используя быстрые, интуитивные суждения. [100]

Представление знаний

Онтология представляет знания как набор понятий в предметной области и отношения между этими понятиями.

Представление знаний [101] и инженерия знаний [102] занимают центральное место в классических исследованиях искусственного интеллекта. Некоторые «экспертные системы» пытаются собрать явные знания, которыми обладают эксперты в какой-то узкой области. Кроме того, некоторые проекты пытаются собрать «здравые знания», известные обычному человеку, в базу данных, содержащую обширные знания о мире. Среди вещей, которые может содержать исчерпывающая база здравого смысла, следующие: объекты, свойства, категории и отношения между объектами; [103] ситуации, события, состояния и время; [104] причины и следствия; [105] знание о знаниях (то, что мы знаем о том, что знают другие люди); [106]и многие другие, менее изученные области. Представление «того, что существует» - это онтология : набор объектов, отношений, концепций и свойств, формально описанных так, чтобы программные агенты могли их интерпретировать. Их семантика фиксируется в виде концепций логики описания , ролей и индивидов и обычно реализуется как классы, свойства и индивиды на языке веб-онтологий . [107] Наиболее общие онтологии называются верхними онтологиями , которые пытаются обеспечить основу для всех других знаний [108] , выступая в качестве посредников между онтологиями предметной области.которые охватывают конкретные знания о конкретной области знаний (области интересов или проблемной области). Такие формальные представления знаний могут использоваться в индексировании и поиске на основе содержимого, [109] интерпретации сцены, [110] поддержке клинических решений, [111] открытии знаний (извлечение "интересных" и действенных выводов из больших баз данных), [112] и другие области. [113]

К наиболее сложным проблемам представления знаний относятся:

Обоснование дефолта и проблема квалификации
Многие из вещей, которые люди знают, принимают форму «рабочих предположений». Например, если в разговоре появляется птица, люди обычно представляют себе животное размером с кулак, которое поет и летает. Но все это не относится ко всем птицам. Джон Маккарти определил эту проблему в 1969 году [114] как проблему квалификации: для любого правила здравого смысла, которое исследователи ИИ стараются представить, как правило, существует огромное количество исключений. Практически нет ничего просто истинного или ложного в том смысле, в котором этого требует абстрактная логика. В ходе исследования искусственного интеллекта был изучен ряд решений этой проблемы. [115]
Широта здравого смысла
Число элементарных фактов, которые знает средний человек, очень велико. Исследовательские проекты, которые пытаются построить полную базу знаний здравого смысла (например, Cyc ), требуют огромного количества кропотливой онтологической инженерии - они должны быть построены вручную, по одной сложной концепции за раз. [116]
Подсимволическая форма некоторого здравого смысла
Многое из того, что люди знают, не представлено в виде «фактов» или «утверждений», которые они могли бы выразить устно. Например, шахматный мастер будет избегать определенной шахматной позиции, потому что она «чувствует себя слишком открытой» [117], или искусствовед может взглянуть на статую и понять, что это подделка. [118] Это бессознательные и подсимволические интуиции или тенденции человеческого мозга. [119] Подобное знание информирует, поддерживает и обеспечивает контекст для символического, сознательного знания. Как и в случае со связанной проблемой субсимволических рассуждений, есть надежда, что локальный ИИ , вычислительный интеллект или статистический ИИ предоставят способы представления этих знаний. [119]

Планирование

Иерархическая система управления представляет собой форму системы управления , в которой множество устройств и программного обеспечения , регулирующего расположено в иерархии.

Интеллектуальные агенты должны уметь ставить цели и достигать их. [120] Им нужен способ визуализировать будущее - представление о состоянии мира и уметь делать прогнозы о том, как их действия изменят его, - и уметь делать выбор, который максимизирует полезность (или «ценность») доступных вариантов. [121]

В классических задачах планирования агент может предположить, что это единственная система, действующая в мире, позволяющая агенту быть уверенным в последствиях своих действий. [122] Однако, если агент не является единственным действующим лицом, тогда требуется, чтобы агент мог рассуждать в условиях неопределенности. Для этого нужен агент, который может не только оценивать свое окружение и делать прогнозы, но также оценивать свои прогнозы и адаптироваться на основе своей оценки. [123]

Многоагентное планирование использует сотрудничество и конкуренцию многих агентов для достижения поставленной цели. Такое эмерджентное поведение используется эволюционными алгоритмами и интеллектом роя . [124]

Обучение

Для этого проекта ИИ должен был найти типичные узоры в цветах и ​​мазках живописца эпохи Возрождения Рафаэля . На портрете изображено лицо актрисы Орнеллы Мути , «нарисованное» AI в стиле Рафаэля.

Машинное обучение (ML) - фундаментальная концепция исследований искусственного интеллекта с момента зарождения этой области [d] - это изучение компьютерных алгоритмов, которые автоматически улучшаются благодаря опыту. [e] [127]

Обучение без учителя - это способность находить закономерности в потоке входных данных, не требуя от человека предварительной маркировки входных данных. Контролируемое обучение включает в себя как классификацию, так и числовую регрессию , что требует от человека сначала пометить входные данные. Классификация используется, чтобы определить, к какой категории что-то принадлежит, и происходит после того, как программа видит несколько примеров вещей из нескольких категорий. Регрессия - это попытка создать функцию, которая описывает взаимосвязь между входами и выходами и предсказывает, как выходы должны изменяться по мере изменения входных данных. [127]И классификаторы, и учащиеся регрессии могут рассматриваться как «аппроксиматоры функций», пытающиеся изучить неизвестную (возможно, неявную) функцию; например, классификатор спама можно рассматривать как обучающую функцию, которая сопоставляет текст электронного письма с одной из двух категорий: «спам» или «не спам». Теория вычислительного обучения может оценивать учащихся по вычислительной сложности , по сложности выборки (сколько данных требуется) или по другим понятиям оптимизации . [128] В обучении с подкреплением [129] агент награждается за хорошие ответы и наказывается за плохие. Агент использует эту последовательность вознаграждений и наказаний, чтобы сформировать стратегию действий в своем проблемном пространстве.

Обработка естественного языка

Дерево разбора представляет собой синтаксическую структуру предложения в соответствии с некоторой формальной грамматикой .

Обработка естественного языка [130] (NLP) позволяет машинам читать и понимать человеческий язык. Достаточно мощная система обработки естественного языка позволила бы создавать пользовательские интерфейсы на естественном языке и получать знания непосредственно из источников, написанных людьми, таких как тексты новостной ленты. Некоторые простые приложения обработки естественного языка включают поиск информации , интеллектуальный анализ текста , ответы на вопросы [131] и машинный перевод . [132]Многие современные подходы используют частоту совпадения слов для построения синтаксических представлений текста. Стратегии "определения ключевых слов" для поиска популярны и масштабируемы, но неуместны; поисковый запрос "собака" может соответствовать только документам со словом "собака" и пропускать документ со словом "пудель". Стратегии «лексической близости» используют вхождение таких слов, как «случайность», для оценки тональности документа. Современные статистические подходы НЛП могут комбинировать все эти стратегии, а также другие, и часто обеспечивают приемлемую точность на уровне страницы или абзаца. Помимо семантического НЛП, конечная цель «повествовательного» НЛП - воплотить полное понимание здравого смысла. [133] К 2019 году , трансформаторархитектуры глубокого обучения могут генерировать связный текст. [134]

Восприятие

Обнаружение функций (на рисунке: обнаружение краев ) помогает ИИ составлять информативные абстрактные структуры из необработанных данных.

Машинное восприятие [135] - это способность использовать входные данные от датчиков (таких как камеры (видимый спектр или инфракрасный), микрофоны, беспроводные сигналы и активные лидары , гидролокаторы, радары и тактильные датчики ) для определения аспектов мира. Приложения включают распознавание речи , [136] распознавание лиц и распознавание объектов . [137] Компьютерное зрениеэто способность анализировать визуальный ввод. Такой ввод обычно неоднозначен; гигантский пешеход пятидесятиметрового роста, находящийся далеко, может воспроизводить те же пиксели, что и ближайший пешеход нормального размера, требуя, чтобы ИИ оценивал относительную вероятность и разумность различных интерпретаций, например, используя свою «объектную модель» для оценки этого Пятидесятиметровых пешеходов не бывает. [138]

Движение и манипуляции

ИИ широко используется в робототехнике. [139] Усовершенствованные роботы-манипуляторы и другие промышленные роботы , широко используемые на современных заводах, могут на собственном опыте научиться эффективно двигаться, несмотря на наличие трения и проскальзывания шестерен. [140] Современный мобильный робот в небольшой, статичной и видимой среде может легко определить свое местоположение и нанести на карту свое окружение; однако динамическая среда, такая как (в эндоскопии ) внутренняя часть дышащего тела пациента, представляет большую проблему. Планирование движенияэто процесс разбиения двигательной задачи на «примитивы», такие как отдельные совместные движения. Такое движение часто включает в себя податливое движение, процесс, при котором движение требует поддержания физического контакта с объектом. [141] [142] [143] Парадокс Моравека обобщает, что низкоуровневые сенсомоторные навыки, которые люди принимают как должное, нелегко запрограммировать в роботе; парадокс назван в честь Ганса Моравека , который заявил в 1988 г., что «сравнительно легко заставить компьютеры показывать результаты на уровне взрослых в тестах интеллекта или игре в шашки, и трудно или невозможно дать им навыки годовалого ребенка, когда он приходит к восприятию и подвижности ». [144] [145]Это связано с тем, что, в отличие от шашек, физическая ловкость была прямой мишенью естественного отбора на протяжении миллионов лет. [146]

Социальный интеллект

Кисмет , робот с элементарными социальными навыками [147]

Парадокс Моравека можно распространить на многие формы социального интеллекта. [148] [149] Распределенная многоагентная координация автономных транспортных средств остается сложной проблемой. [150] Эффективные вычисления - это междисциплинарный зонтик, включающий системы, которые распознают, интерпретируют, обрабатывают или моделируют человеческие аффекты . [151] [152] [153] Умеренные успехи, связанные с аффективными вычислениями, включают текстовый анализ тональности и, в последнее время, мультимодальный анализ эмоций (см. Мультимодальный анализ тональности ), в котором ИИ классифицирует аффекты, отображаемые записанным на видео субъектом. [154]

В конечном итоге социальные навыки и понимание человеческих эмоций и теории игр будут ценными для социального агента. Способность предсказывать действия других, понимая их мотивы и эмоциональное состояние, позволит агенту принимать более правильные решения. Некоторые компьютерные системы имитируют человеческие эмоции и выражения, чтобы казаться более чувствительными к эмоциональной динамике человеческого взаимодействия или иным образом для облегчения взаимодействия человека с компьютером . [155] Точно так же некоторые виртуальные помощники запрограммированы разговаривать или даже шутить; это дает наивным пользователям нереалистичное представление о том, насколько разумны существующие компьютерные агенты. [156]

Общий интеллект

Исторически сложилось так, что такие проекты, как база знаний Cyc (1984–) и масштабная японская инициатива компьютерных систем пятого поколения (1982–1992), пытались охватить широту человеческого познания. Эти ранние проекты не смогли избежать ограничений неколичественных моделей символической логики и, оглядываясь назад, сильно недооценили сложность междоменного ИИ. В настоящее время большинство современных исследователей ИИ вместо этого работают над управляемыми «узкими» приложениями ИИ (такими как медицинская диагностика или автомобильная навигация). [157] Многие исследователи предсказывают, что такая «узкая работа ИИ» в различных отдельных областях в конечном итоге будет включена в машину с общим искусственным интеллектом.(AGI), сочетающий в себе большинство узких навыков, упомянутых в этой статье, и в какой-то момент даже превосходящий человеческие способности в большинстве или во всех этих областях. [26] [158] Многие достижения имеют общее междоменное значение. Одним из ярких примеров является то, что DeepMind в 2010-х годах разработал «обобщенный искусственный интеллект», который мог самостоятельно изучать множество разнообразных игр Atari , а позже разработал вариант системы, который преуспел в последовательном обучении . [159] [160] [161] Помимо трансферного обучения , [162]Гипотетические прорывы в области AGI могут включать в себя разработку рефлексивных архитектур, которые могут участвовать в мета-рассуждениях, основанных на теории принятия решений, и выяснять, как «вытащить» всеобъемлющую базу знаний из всей неструктурированной сети . [163] Некоторые утверждают, что какой-то (пока еще не открытый) концептуально простой, но математически сложный «главный алгоритм» может привести к AGI. [164] Наконец, несколько «эмерджентных» подходов очень внимательно относятся к моделированию человеческого интеллекта и полагают, что антропоморфные особенности, такие как искусственный мозг или моделирование развития ребенка, могут когда-нибудь достичь критической точки, когда появится общий интеллект. [165][166]

Многие проблемы, описанные в этой статье, могут также потребовать общего интеллекта, если машины должны решать проблемы так же хорошо, как люди. Например, даже конкретные простые задачи, такие как машинный перевод , требуют, чтобы машина читала и писала на обоих языках ( НЛП ), следовала аргументам автора ( причине ), знала, о чем идет речь ( знания ), и точно воспроизводила оригинал автора. намерение ( социальный интеллект ). Такая задача, как машинный перевод, считается « полной ИИ », потому что все эти проблемы необходимо решать одновременно, чтобы достичь производительности машины на уровне человека.

Подходы

Никакая устоявшаяся объединяющая теория или парадигма не руководят исследованиями ИИ. Исследователи расходятся во мнениях по многим вопросам. [f] Вот некоторые из наиболее давних вопросов, которые остались без ответа: должен ли искусственный интеллект имитировать естественный интеллект, изучая психологию или нейробиологию ? Или биология человека так же не имеет отношения к исследованиям искусственного интеллекта, как биология птиц для авиационной техники ? [23] Можно ли описать разумное поведение с помощью простых элегантных принципов (таких как логика или оптимизация )? Или обязательно требует решения большого количества не связанных между собой проблем? [24]

Кибернетика и моделирование мозга

В 1940-х и 1950-х годах ряд исследователей исследовали связь между нейробиологией , теорией информации и кибернетикой . Некоторые из них построены машины , которые используются электронные сети проявлять элементарную интеллект, такие как У. Грей Уолтер «s черепах и Johns Hopkins Beast . Многие из этих исследователей собрались на собрания Телеологического общества в Принстонском университете и Ratio Club в Англии. [168] К 1960 году от этого подхода в значительной степени отказались, хотя его элементы будут возрождены в 1980-х годах.

Символический

Когда в середине 1950-х годов стал возможен доступ к цифровым компьютерам, исследования искусственного интеллекта начали изучать возможность того, что человеческий интеллект можно свести к манипулированию символами. Исследование проводилось в трех учреждениях: Университете Карнеги-Меллона , Стэнфорде и Массачусетском технологическом институте , и, как описано ниже, каждый разработал свой собственный стиль исследования. Джон Хогеланд назвал эти символические подходы к ИИ «старомодным добрым ИИ» или « GOFAI ». [169] В течение 1960-х годов символические подходы достигли большого успеха в моделировании высокоуровневого «мышления» в небольших демонстрационных программах. Подходы, основанные на кибернетике или искусственных нейронных сетяхбыли заброшены или отодвинуты на второй план. [g] Исследователи в 1960-х и 1970-х годах были убеждены, что символические подходы в конечном итоге позволят создать машину с общим искусственным интеллектом, и считали это целью своей области.

Когнитивное моделирование

Экономист Герберт Саймон и Аллен Ньюэлл изучили человеческие навыки решения проблем и попытались формализовать их, и их работа заложила основы области искусственного интеллекта, а также когнитивной науки , исследований операций и науки управления . Их исследовательская группа использовала результаты психологических экспериментов для разработки программ, имитирующих методы, которые люди использовали для решения проблем. Эта традиция, основанная на университете Карнеги-Меллона , в конечном итоге привела к развитию архитектуры Soar в середине 1980-х годов. [170] [171]

На основе логики

В отличие от Саймона и Ньюэлла, Джон Маккарти считал, что машинам не нужно моделировать человеческое мышление, а вместо этого следует пытаться найти суть абстрактного мышления и решения проблем, независимо от того, используют ли люди одни и те же алгоритмы. [23] Его лаборатория в Стэнфорде ( ПАРУС ) сосредоточилась на использовании формальной логики для решения широкого круга задач, включая представление знаний , планирование и обучение . [172] Логика также была в центре внимания работы в Эдинбургском университете и других странах Европы, что привело к разработке языка программирования Prolog.и наука логического программирования . [173]

Антилогичный или неряшливый

Исследователи из Массачусетского технологического института (такие как Марвин Мински и Сеймур Паперт ) [174] обнаружили, что решение сложных проблем со зрением и обработкой естественного языка требует специальных решений - они утверждали, что никакой простой и общий принцип (например, логика ) не может охватить все аспекты интеллектуального поведение. Роджер Шенк охарактеризовал их «анти-логические» подходы как « неряшливые » (в отличие от « аккуратных » парадигм в CMU и Стэнфорде). [24] базы знаний здравого смысла (такие как Дуга Ленат «ы Cyc) являются примером «неряшливого» ИИ, поскольку они должны создаваться вручную, по одной сложной концепции за раз. [175]

Основанный на знаниях

Когда примерно в 1970 году стали доступны компьютеры с большой памятью, исследователи всех трех традиций начали встраивать знания в приложения ИИ. [176] Эта «революция знаний» привела к разработке и развертыванию экспертных систем (представленных Эдвардом Фейгенбаумом ), первой действительно успешной формы программного обеспечения ИИ. [52] Ключевым компонентом системной архитектуры для всех экспертных систем является база знаний, в которой хранятся факты и правила, иллюстрирующие ИИ. [177] Революция в области знаний была также вызвана осознанием того, что многие простые приложения ИИ потребуют огромных объемов знаний.

Субсимвольный

К 1980-м годам казалось, что прогресс в области символического ИИ остановился, и многие считали, что символические системы никогда не смогут имитировать все процессы человеческого познания, особенно восприятие , робототехнику, обучение и распознавание образов . Ряд исследователей начали изучать «субсимвольные» подходы к конкретным проблемам ИИ. [25] Субсимвольные методы позволяют приблизиться к интеллекту без конкретных представлений знаний.

Воплощенный интеллект

Это включает воплощенный , локальный , основанный на поведении и новый ИИ . Исследователи из смежной области робототехники, такие как Родни Брукс , отвергли символический ИИ и сосредоточились на основных инженерных проблемах, которые позволили бы роботам двигаться и выживать. [178] Их работа возродила несимволическую точку зрения первых исследователей кибернетики 1950-х годов и вернула использование теории управления в ИИ. Это совпало с развитием тезиса о воплощенном разуме в смежной области когнитивной науки.: идея о том, что аспекты тела (такие как движение, восприятие и визуализация) необходимы для более высокого интеллекта.

В рамках развивающей робототехники разрабатываются подходы к развивающему обучению, чтобы позволить роботам накапливать репертуар новых навыков посредством автономного самоисследования, социального взаимодействия с учителями-людьми и использования механизмов руководства (активное обучение, созревание, моторная синергия и т. Д.). [179] [180] [181] [182]

Вычислительный интеллект и мягкие вычисления

Интерес к нейронным сетям и « коннекционизму » возродил Дэвид Румелхарт и другие в середине 1980-х годов. [183] Искусственные нейронные сети являются примером мягких вычислений - они являются решениями проблем, которые не могут быть решены с полной логической достоверностью и для которых часто достаточно приблизительного решения. Другие подходы мягких вычислений к ИИ включают нечеткие системы , теорию систем Грея , эволюционные вычисления и многие статистические инструменты. Применение мягких вычислений в ИИ совместно изучается развивающейся дисциплиной вычислительного интеллекта.. [184]

Статистическая

Многие традиционные GOFAI увязли в специальных исправлениях для символических вычислений, которые работали на их собственных игрушечных моделях, но не могли обобщить их на реальные результаты. Однако примерно в 1990-х годах исследователи ИИ применили сложные математические инструменты, такие как скрытые марковские модели (HMM), теорию информации и нормативную байесовскую теорию принятия решений, чтобы сравнить или объединить конкурирующие архитектуры. Общий математический язык позволил на высоком уровне сотрудничать с более устоявшимися областями (такими как математика , экономика или исследования операций ). [час]По сравнению с GOFAI, новые методы «статистического обучения», такие как HMM и нейронные сети, получали более высокий уровень точности во многих практических областях, таких как интеллектуальный анализ данных , без необходимости получения семантического понимания наборов данных. Рост успеха с реальными данными привел к усилению акцента на сравнении различных подходов с общими тестовыми данными, чтобы увидеть, какой подход работает лучше всего в более широком контексте, чем тот, который предоставляется идиосинкразическими игрушечными моделями; Исследования ИИ становились все более научными . В настоящее время результаты экспериментов часто строго поддаются измерению, а иногда (с трудом) воспроизводятся. [54] [185]Различные методы статистического обучения имеют разные ограничения; например, базовый HMM не может моделировать бесконечное количество возможных комбинаций естественного языка. [186] Критики отмечают, что переход от GOFAI к статистическому обучению часто также является отходом от объяснимого ИИ . В исследованиях AGI некоторые ученые предостерегают от чрезмерной зависимости от статистического обучения и утверждают, что продолжение исследований GOFAI по-прежнему будет необходимо для достижения общего интеллекта. [187] [188]

Интеграция подходов

Парадигма интеллектуального агента
Интеллектуальный агент представляет собой систему , которая воспринимает свою окружающую среду и предпринимает действия , которые максимизируют свои шансы на успех. Простейшие интеллектуальные агенты - это программы, решающие определенные задачи. Более сложные агенты включают людей и человеческие организации (например, фирмы ). Парадигма позволяет исследователям напрямую сравнивать или даже комбинировать различные подходы к изолированным проблемам, задавая вопрос, какой агент лучше всего максимизирует данную «целевую функцию». Агент, решающий конкретную проблему, может использовать любой подход, который работает - некоторые агенты являются символическими и логическими, некоторые - субсимвольными искусственными нейронными сетями, а другие могут использовать новые подходы. Парадигма также дает исследователям общий язык для общения с другими областями, такими кактеория принятия решений и экономика, которые также используют концепции абстрактных агентов. Создание полноценного агента требует от исследователей решения реальных проблем интеграции; например, поскольку сенсорные системы дают неопределенную информацию об окружающей среде, системы планирования должны уметь функционировать в условиях неопределенности. Парадигма интеллектуального агента получила широкое распространение в 1990-х годах. [189]
Агентные архитектуры и когнитивные архитектуры
Исследователи разработали системы для построения интеллектуальных систем из взаимодействующих интеллектуальных агентов в многоагентной системе . [190] система иерархического управления обеспечивает мост между суб-символическим ИИ на самых низких, реактивных уровнях и традиционный символический ИИ на самом высоком уровне, где смягченные временные ограничения позволяют моделирование планирования и миру. [191] Некоторые когнитивные архитектуры созданы специально для решения узкой проблемы; другие, такие как Soar , предназначены для имитации человеческого познания и обеспечения понимания общего интеллекта. Современные расширения Soar представляют собой гибридные интеллектуальные системы, которые включают как символические, так и субсимвольные компоненты.[97] [192]

Инструменты

Приложения

AI актуален для любой интеллектуальной задачи. [193] Современные методы искусственного интеллекта широко распространены [194], и их слишком много, чтобы перечислять их здесь. Часто, когда техника получает широкое распространение, она перестает считаться искусственным интеллектом; это явление описывается как эффект ИИ . [195]

Яркие примеры ИИ включают автономные транспортные средства (например, дроны и автомобили с автоматическим управлением ), медицинскую диагностику, создание произведений искусства (например, стихов), доказательство математических теорем, игры (например, шахматы или го), поисковые системы (например, Google Search ), онлайн-помощники (такие как Siri ), распознавание изображений на фотографиях, фильтрация спама, прогнозирование задержки рейсов, [196] прогнозирование судебных решений [197], ориентированная на онлайн-рекламу, [193] [198] [199] и энергию хранилище [200]

Когда сайты социальных сетей превзошли телевидение в качестве источника новостей для молодежи, а новостные организации все больше полагаются на платформы социальных сетей для распространения, [201] крупные издатели теперь используют технологию искусственного интеллекта (ИИ) для более эффективного размещения историй и создания большего количества публикаций. движение. [202]

AI также может создавать Deepfakes , технологию, изменяющую контент. ZDNet сообщает: «Это представляет собой нечто, чего на самом деле не было». Хотя 88% американцев считают, что Deepfakes может причинить больше вреда, чем пользы, только 47% из них считают, что они могут стать мишенью. Бум года выборов также открывает общественный дискурс угрозам видео фальсифицированных политических СМИ. [203]

Философия и этика

Есть три философских вопроса, связанных с ИИ: [204]

  1. Возможен ли общий искусственный интеллект ; может ли машина решить любую проблему, которую человек может решить с помощью интеллекта, или существуют жесткие ограничения на то, что машина может выполнить.
  2. Опасны ли интеллектуальные машины; как люди могут гарантировать этичное поведение машин и этичное использование.
  3. Может ли машина иметь разум , сознание и психические состояния в том же смысле, что и люди; если машина может быть разумной и, таким образом, заслуживает определенных прав - и если машина может намеренно причинить вред.

Пределы общего искусственного интеллекта

"Вежливое соглашение" Алана Тьюринга
Не нужно решать, может ли машина «думать»; нужно только решить, может ли машина действовать так же разумно, как человек. Такой подход к философским проблемам, связанным с искусственным интеллектом, лежит в основе теста Тьюринга . [205]
Предложение Дартмута
«Каждый аспект обучения или любая другая особенность интеллекта может быть описана с такой точностью, что можно создать машину для его моделирования». Эта гипотеза была напечатана в предложении Дартмутской конференции 1956 г. [206]
Гипотеза системы физических символов Ньюэлла и Саймона
«Система физических символов обладает необходимыми и достаточными средствами общего разумного действия». Ньюэлл и Саймон утверждают, что интеллект состоит из формальных операций над символами. [207] Хуберт Дрейфус утверждает, что, напротив, человеческий опыт зависит от бессознательного инстинкта, а не от сознательного манипулирования символами, и от «ощущения» ситуации, а не от явного символического знания. (См. Критику ИИ Дрейфусом .) [I] [209]
Гёделевские аргументы
Сам Гёдель , [210] Джон Лукас (в 1961 г.) и Роджер Пенроуз (в более подробном аргументе, начиная с 1989 г.) выдвинули весьма технические аргументы в пользу того, что математики-люди могут последовательно видеть истинность своих собственных «утверждений Гёделя» и, следовательно, обладают вычислительными способностями за пределами механических машин Тьюринга. [211] Однако некоторые люди не согласны с «гёделевскими аргументами». [212] [213] [214]
Искусственный мозг аргумент
Аргумент, утверждающий, что мозг может быть смоделирован машинами, и, поскольку мозг демонстрирует интеллект, эти смоделированные мозги также должны проявлять интеллект - следовательно, машины могут быть интеллектуальными. Ханс Моравек , Рэй Курцвейл и другие утверждали, что технологически возможно скопировать мозг непосредственно в аппаратное и программное обеспечение, и что такое моделирование будет по существу идентичным оригиналу. [165]
Эффект ИИ
Гипотеза, утверждающая, что машины уже разумны, но наблюдатели не смогли ее распознать. Например, когда Deep Blue обыграл Гарри Каспарова в шахматах, машину можно было охарактеризовать как проявление интеллекта. Однако сторонние наблюдатели обычно игнорируют поведение программы искусственного интеллекта, утверждая, что это не «настоящий» интеллект, а «настоящий» интеллект фактически определяется как то, что машины поведения не могут делать.

Этические машины

Машины с интеллектом могут использовать свой интеллект для предотвращения вреда и минимизации рисков; они могут иметь возможность использовать этическое мышление, чтобы лучше выбирать свои действия в этом мире. Таким образом, существует необходимость в разработке политики для разработки политики и регулирования искусственного интеллекта и робототехники. [215] Исследования в этой области включают в себя машинную этику , искусственные моральные агенты , дружественный ИИ, а также ведутся переговоры о создании структуры прав человека . [216]

Джозеф Вайценбаум в книге « Сила компьютера и человеческий разум» писал, что приложения ИИ по определению не могут успешно имитировать подлинное человеческое сочувствие и что использование технологии ИИ в таких областях, как обслуживание клиентов или психотерапия [j], было глубоко ошибочным. Вайценбаума также беспокоило то, что исследователи ИИ (и некоторые философы) были готовы рассматривать человеческий разум как не что иное, как компьютерную программу (позиция, теперь известная как вычислительный подход ). По мнению Вайценбаума, эти моменты предполагают, что исследования ИИ обесценивают человеческую жизнь. [218]

Искусственные моральные агенты

Венделл Уоллах представил концепцию искусственных агентов морали (AMA) в своей книге « Моральные машины» [219]. По мнению Уоллаха, AMA стали частью исследовательского ландшафта искусственного интеллекта, руководствуясь двумя его центральными вопросами, которые он определяет как «хочет ли человечество Компьютеры, принимающие моральные решения » [220] и« Могут ли (Ro) боты действительно быть моральными ». [221] Для Уоллаха вопрос не сводится к вопросу о том, могут ли машины демонстрировать эквивалент морального поведения, в отличие от ограничений, которые общество может наложить на разработку AMA. [222]

Машинная этика

Сфера машинной этики связана с тем, чтобы дать машинам этические принципы или процедуру для открытия способа решения этических дилемм, с которыми они могут столкнуться, позволяя им действовать этически ответственным образом посредством принятия ими собственных этических решений. [223]Эта область была очерчена на симпозиуме AAAI по машинной этике осенью 2005 года: «Прошлые исследования, касающиеся взаимосвязи между технологией и этикой, в основном были сосредоточены на ответственном и безответственном использовании технологий людьми, при этом некоторые люди интересовались тем, как люди должны относиться к машинам. Во всех случаях только люди занимались этическими рассуждениями. Пришло время добавить этическое измерение по крайней мере к некоторым машинам. Признание этических ответвлений поведения, связанного с машинами, а также недавних и потенциальных разработок в машиностроении В отличие от взлома компьютеров, проблем с собственностью программного обеспечения, вопросов конфиденциальности и других вопросов, обычно относящихся к компьютерной этике, этика машин связана с поведением машин по отношению к пользователям-людям и другим машинам.Исследования в области машинной этики являются ключом к снятию опасений по поводу автономных систем - можно утверждать, что понятие автономных машин без такого измерения лежит в основе всех опасений, связанных с машинным интеллектом. Кроме того, исследование машинной этики могло бы позволить обнаружить проблемы с текущими этическими теориями, продвигая наши представления об этике ».[224] Машинную этику иногда называют машинной моралью, вычислительной этикой или вычислительной моралью. Разнообразные точки зрения на эту зарождающуюся область можно найти в сборнике «Машинная этика» [223], который был подготовлен на симпозиуме по машинной этике, проведенном AAAI осенью 2005 года. [224]

Злобный и дружелюбный ИИ

Политолог Чарльз Т. Рубин считает, что ИИ не может быть ни спроектирован, ни гарантирован доброжелательным. [225] Он утверждает, что «любая достаточно развитая доброжелательность неотличима от недоброжелательности». Люди не должны предполагать, что машины или роботы будут относиться к нам благосклонно, потому что нет никаких априорных причин полагать, что они будут сочувствовать нашей системе морали, которая развивалась вместе с нашей конкретной биологией (которую ИИ не разделяет). Гиперинтеллектуальное программное обеспечение не обязательно решит поддерживать дальнейшее существование человечества, и его будет чрезвычайно трудно остановить. Эта тема также недавно стала обсуждаться в научных публикациях как реальный источник рисков для цивилизации, людей и планеты Земля.

Одно из предложений по решению этой проблемы - обеспечить, чтобы первый в целом интеллектуальный ИИ был « Дружественным ИИ » и мог управлять ИИ, создаваемыми впоследствии. Некоторые сомневаются, может ли такая проверка действительно оставаться в силе.

Ведущий исследователь ИИ Родни Брукс пишет: «Я думаю, что было бы ошибкой беспокоиться о том, что мы разрабатываем злонамеренный ИИ в любое время в ближайшие несколько сотен лет. Я думаю, что беспокойство проистекает из фундаментальной ошибки, заключающейся в том, что мы не проводим различия между очень реальными недавними достижениями. в конкретном аспекте ИИ, а также о масштабах и сложности создания разумного волевого интеллекта ». [226]

Беспокойство вызывает летальное автономное оружие . В настоящее время роботов на поле боя исследуют более 50 стран, в том числе США, Китай, Россия и Великобритания. Многие люди, обеспокоенные рисками, связанными с сверхразумным ИИ, также хотят ограничить использование искусственных солдат и дронов. [227]

Машинное сознание, разум и разум

Если система ИИ воспроизводит все ключевые аспекты человеческого интеллекта, будет ли эта система также разумной - будет ли у нее разум, обладающий сознательными переживаниями ? Этот вопрос тесно связан с философской проблемой о природе человеческого сознания, которую обычно называют трудной проблемой сознания .

Сознание

Дэвид Чалмерс выделил две проблемы в понимании разума, которые он назвал «трудными» и «легкими» проблемами сознания. [228] Простая проблема - понять, как мозг обрабатывает сигналы, строит планы и контролирует поведение. Сложная проблема состоит в том, чтобы объяснить, как это ощущается или почему это вообще должно быть похоже на что-то. Обработку человеческой информации легко объяснить, однако человеческий субъективный опыт объяснить трудно.

Например, подумайте, что происходит, когда человеку показывают образец цвета и он идентифицирует его, говоря, что он красный. Простая задача требует только понимания механизмов в мозгу, которые позволяют человеку узнать, что образец цвета красный. Сложная проблема в том, что люди знают еще кое-что - они также знают, как выглядит красный цвет . (Учтите, что слепорожденный может знать, что что-то красное, не зная, как выглядит красный.) [K] Все знают, что существует субъективный опыт, потому что они делают это каждый день (например, все зрячие люди знают, как выглядит красный). Сложная проблема состоит в том, чтобы объяснить, как мозг их создает, почему он существует и чем отличается от знаний и других аспектов мозга.

Вычислительность и функционализм

Компьютационализм - это позиция в философии разума , согласно которой человеческий разум или человеческий мозг (или и то, и другое) являются системой обработки информации, а мышление - формой вычислений. [229] Вычислительный подход утверждает, что отношения между разумом и телом аналогичны или идентичны отношениям между программным обеспечением и оборудованием и, таким образом, могут быть решением проблемы разума и тела . Эта философская позиция была вдохновлена ​​работой исследователей искусственного интеллекта и когнитивистов в 1960-х годах и первоначально была предложена философами Джерри Фодором и Хилари Патнэм .

Сильная гипотеза ИИ

Философская позиция, которую Джон Сирл назвал «сильным ИИ», гласит: «Соответственно запрограммированный компьютер с правильными входами и выходами, таким образом, будет иметь разум в том же смысле, что и человеческие существа». [l] Сирл противопоставляет это утверждение своим аргументом в пользу китайской комнаты , который просит нас заглянуть внутрь компьютера и попытаться найти, где может быть «разум». [231]

Права роботов

Если можно создать машину, обладающую интеллектом, сможет ли она тоже почувствовать ? Если он может чувствовать, имеет ли он те же права, что и человек? Этот вопрос, теперь известный как « права роботов », в настоящее время рассматривается, например, Калифорнийским институтом будущего , хотя многие критики считают, что обсуждение преждевременно. [232] [233] Некоторые критики трансгуманизма утверждают, что любые гипотетические права роботов лежат в одном спектре с правами животных и правами человека. [234] Эта тема подробно обсуждается в документальном фильме 2010 года Plug & Pray , [235] и во многих научно-фантастических СМИ, таких какStar Trek Next Generation с персонажем командира Дейта , который боролся с разборкой для исследования и хотел «стать человеком», и роботизированные голограммы в «Вояджере».

Суперинтеллект

Есть ли пределы тому, насколько интеллектуальными машинами - или гибридами человека и машины - могут быть? Сверхразум, гиперинтеллект или сверхчеловеческий интеллект - это гипотетический агент, который будет обладать интеллектом, намного превосходящим интеллект самого яркого и одаренного человека. Сверхразум также может относиться к форме или степени интеллекта, которыми обладает такой агент. [158]

Технологическая особенность

Если исследования сильного ИИ позволят создать достаточно интеллектуальное программное обеспечение, оно сможет перепрограммировать и улучшить себя. Улучшенное программное обеспечение могло бы даже лучше улучшаться само, приводя к рекурсивному самосовершенствованию . [236] Таким образом, новый интеллект может расти в геометрической прогрессии и значительно превзойти человеческий. Писатель-фантаст Вернор Виндж назвал этот сценарий « сингулярностью ». [237]Технологическая сингулярность - это когда ускорение прогресса в технологиях вызовет неконтролируемый эффект, при котором искусственный интеллект превзойдет человеческие интеллектуальные возможности и возможности контроля, таким образом радикально изменив или даже положив конец цивилизации. Поскольку возможности такого интеллекта могут быть невозможны для понимания, технологическая сингулярность - это явление, за пределами которого события непредсказуемы или даже непостижимы. [237] [158]

Рэй Курцвейл использовал закон Мура (который описывает неуклонное экспоненциальное улучшение цифровых технологий), чтобы вычислить, что настольные компьютеры будут иметь такую ​​же вычислительную мощность, что и человеческий мозг к 2029 году, и предсказал, что сингулярность произойдет в 2045 году [237].

Трансгуманизм

Конструктор роботов Ханс Моравек , кибернетик Кевин Уорвик и изобретатель Рэй Курцвейл предсказали, что люди и машины в будущем сольются в киборгов, которые будут более способными и мощными, чем любой другой. [238] Эта идея, называемая трансгуманизмом , восходит к Олдосу Хаксли и Роберту Эттингеру .

Эдвард Фредкин утверждает, что «искусственный интеллект - это следующий этап эволюции», идея, впервые предложенная Сэмюэлем Батлером « Дарвин среди машин » еще в 1863 году и развитая Джорджем Дайсоном в его одноименной книге. 1998. [239]

Влияние

Долгосрочные экономические эффекты ИИ неопределенны. Опрос экономистов показал разногласия по поводу того, вызовет ли растущее использование роботов и ИИ существенное увеличение длительной безработицы , но в целом они согласны с тем, что это может быть чистой выгодой, если прирост производительности будет перераспределен . [240] 2017 исследование PricewaterhouseCoopers видит Китайская Народная Республика не получает экономически наиболее из AI с 26,1% от ВВП до 2030 года [241]В официальном документе Европейского союза по искусственному интеллекту, опубликованном в феврале 2020 года, содержится призыв к использованию искусственного интеллекта для достижения экономических выгод, включая «улучшение здравоохранения (например, более точную диагностику, обеспечение более эффективной профилактики заболеваний), повышение эффективности сельского хозяйства, содействие смягчению последствий изменения климата и адаптации к нему, [и] повышение эффективности производственных систем посредством профилактического обслуживания ", признавая при этом потенциальные риски. [194]

Отношения между автоматизацией и занятостью усложняются. Автоматизация устраняет старые рабочие места, но также создает новые рабочие места за счет микроэкономических и макроэкономических эффектов. [242] В отличие от предыдущих волн автоматизации, многие рабочие места среднего класса могут быть устранены с помощью искусственного интеллекта; The Economist заявляет, что «беспокойство о том, что ИИ может сделать с рабочими местами белых воротничков то же, что паровая энергия сделала синих воротничков во время промышленной революции», «заслуживает серьезного отношения». [243] Субъективные оценки риска сильно различаются; например, Майкл Осборн и Карл Бенедикт Фрей оценивают, что 47% рабочих мест в США подвержены «высокому риску» потенциальной автоматизации, в то время как в отчете ОЭСР только 9% рабочих мест в США классифицируются как «высокий риск".[244] [245] [246] Рабочие места с повышенным риском варьируются от помощников юриста до поваров быстрого питания, в то время как спрос на работу, вероятно, вырастет для профессий, связанных с уходом, от личного здравоохранения до священнослужителей. [247] Автор Мартин Форд и другие идут дальше и утверждают, что многие рабочие места рутинны, повторяемы и (для ИИ) предсказуемы; Форд предупреждает, что эти рабочие места могут быть автоматизированы в ближайшие пару десятилетий, и что многие из новых рабочих мест могут быть «недоступны для людей со средними возможностями» даже после переподготовки. Экономисты отмечают, что в прошлом технологии имели тенденцию увеличивать, а не сокращать общую занятость, но признают, что «мы на неизведанной территории» с ИИ. [35]

Потенциальные негативные последствия искусственного интеллекта и автоматизации представляют собой серьезную проблему для Эндрю Янг «s 2020 президентской кампании в Соединенных Штатах. [248]Ираклий Беридзе, руководитель Центра искусственного интеллекта и робототехники ЮНИКРИ, ООН, заявил, что «я думаю, что опасными приложениями для ИИ, с моей точки зрения, будут преступники или крупные террористические организации, использующие его для срыва крупных процессов или просто нанести чистый вред. [Террористы могут причинить вред] с помощью цифровой войны, или это может быть сочетание робототехники, дронов, искусственного интеллекта и других вещей, которые могут быть действительно опасными. И, конечно же, другие риски исходят от таких вещей, как потеря рабочих мест. Если огромное количество людей потеряют работу и не найдут решения, это будет чрезвычайно опасно. Такие вещи, как смертоносные автономные системы оружия, должны управляться надлежащим образом - в противном случае существует огромный потенциал неправильного использования ». [249]

Риски узкого ИИ

Широкое использование искусственного интеллекта может иметь непредвиденные последствия , опасные или нежелательные. Ученые из Института будущего жизни , среди прочего, описали некоторые краткосрочные исследовательские цели, чтобы увидеть, как ИИ влияет на экономику, законы и этику, связанные с ИИ, и как минимизировать риски безопасности ИИ. В долгосрочной перспективе ученые предложили продолжить оптимизацию функций, минимизируя возможные риски безопасности, связанные с новыми технологиями. [250]

Некоторые обеспокоены алгоритмической предвзятостью , что программы ИИ могут непреднамеренно стать предвзятыми после обработки данных, которые демонстрируют предвзятость. [251] Алгоритмы уже нашли множество приложений в правовых системах. Примером этого является COMPAS , коммерческая программа, широко используемая судами США для оценки вероятности того, что ответчик станет рецидивистом . ProPublica утверждает, что средний уровень риска рецидивизма чернокожих подсудимых, установленный Компасом, значительно выше, чем средний уровень риска белых подсудимых, установленный Компасом. [252]

Риски общего ИИ

Физик Стивен Хокинг , основатель Microsoft Билл Гейтс , профессор истории Юваль Ноа Харари и основатель SpaceX Илон Маск выразили обеспокоенность по поводу возможности того, что ИИ может эволюционировать до такой степени, что люди не смогут его контролировать, при этом Хокинг предположил, что это может означать конец человеческого рода ". [253] [254] [255] [256]

Развитие полного искусственного интеллекта может означать конец человечества. Как только люди разовьют искусственный интеллект, он будет развиваться сам по себе и со все возрастающей скоростью модернизировать себя. Люди, ограниченные медленной биологической эволюцией, не могут конкурировать и будут вытеснены.

-  Стивен Хокинг [257]

В своей книге « Суперинтеллект» философ Ник Бостром приводит аргумент, что искусственный интеллект представляет угрозу для человечества. Он утверждает, что достаточно умный ИИ, если он выбирает действия, основанные на достижении некоторой цели, будет демонстрировать конвергентныетакое поведение, как получение ресурсов или защита от отключения. Если цели этого ИИ не полностью отражают цели человечества - одним из примеров является ИИ, которому приказано вычислить как можно больше цифр числа Пи - он может нанести вред человечеству, чтобы получить больше ресурсов или предотвратить отключение, в конечном итоге для лучшего достижения своей цели. . Бостром также подчеркивает сложность полной передачи человеческих ценностей передовым ИИ. Он использует гипотетический пример того, как ИИ ставит перед собой цель заставить людей улыбнуться, чтобы проиллюстрировать ошибочную попытку. Если бы ИИ в этом сценарии стал бы сверхразумным, утверждает Бостром, он мог бы прибегнуть к методам, которые большинство людей сочли бы ужасными, такими как введение «электродов в лицевые мышцы людей, чтобы вызывать постоянные сияющие ухмылки».потому что это был бы эффективный способ добиться своей цели - заставить людей улыбаться.[258] В своей книге « Совместимость с людьми» исследователь искусственного интеллекта Стюарт Дж. Рассел разделяет некоторые опасения Бострома, а также предлагает подход к разработке доказательно полезных машин, ориентированный на неуверенность и уважение к людям, [259] : 173, возможно, включающий обучение с обратным подкреплением . [259] : 191–193

Обеспокоенность рисками, связанными с искусственным интеллектом, привела к некоторым громким пожертвованиям и инвестициям. Группа выдающихся технологических титанов, в том числе Питер Тиль , Amazon Web Services и Маск, вложили 1 миллиард долларов в OpenAI , некоммерческую компанию, нацеленную на поддержку ответственной разработки ИИ. [260] Мнение экспертов в области искусственного интеллекта неоднозначно, при этом значительная часть людей обеспокоена и не обеспокоена риском, связанным со сверхспособностями ИИ. [261] Другие лидеры технологической индустрии считают, что искусственный интеллект в его нынешнем виде полезен и будет продолжать помогать людям. Генеральный директор Oracle Марк Хердзаявил, что ИИ «фактически создаст больше рабочих мест, а не меньше», поскольку люди будут необходимы для управления системами ИИ. [262] Генеральный директор Facebook Марк Цукерберг считает, что ИИ «откроет для себя огромное количество положительных вещей», таких как лечение болезней и повышение безопасности автономных автомобилей. [263] В январе 2015 года Маск пожертвовал 10 миллионов долларов Институту будущего жизни на финансирование исследований, направленных на понимание процесса принятия решений ИИ. Цель института - «вырастить мудрость, с помощью которой мы управляем» растущей мощью технологий. Маск также финансирует компании, разрабатывающие искусственный интеллект, такие как DeepMind и Vicarious, чтобы «просто следить за тем, что происходит с искусственным интеллектом».[264]Я думаю, что здесь есть потенциально опасный исход ». [265] [266]

Чтобы реализовать опасность неконтролируемого продвинутого ИИ, гипотетический ИИ должен пересилить или перехитрить все человечество, что, по мнению меньшинства экспертов, является достаточно далекой возможностью в будущем, чтобы ее не исследовать. [267] [268] Другие контраргументы вращаются вокруг людей, которые обладают внутренней или конвергентной ценностью с точки зрения искусственного интеллекта. [269]

Регулирование

Регулирование искусственного интеллекта - это разработка политики и законов государственного сектора для продвижения и регулирования искусственного интеллекта (ИИ); [270] [271] поэтому это связано с более широким регулированием алгоритмов . Нормативно-правовая и политическая среда для ИИ - новая проблема в юрисдикциях по всему миру, в том числе в Европейском Союзе. [272] Регулирование считается необходимым как для поощрения искусственного интеллекта, так и для управления связанными с ним рисками. [273] [274] Регулирование ИИ с помощью таких механизмов, как контрольные советы, также можно рассматривать как социальное средство решения проблемы управления ИИ . [275]

В художественной литературе

Само слово «робот» было придумано Карлом Чапеком в его пьесе 1921 года « RUR» , название которой означает «Универсальные роботы Россум».

Способные к мысли искусственные существа появились как устройства для повествования со времен античности [37] и были постоянной темой в научной фантастике .

Обычный образ в этих произведениях начался с « Франкенштейна» Мэри Шелли , где человеческое творение становится угрозой для своих хозяев. Сюда входят такие работы, как « 2001: Космическая одиссея» Артура Кларка и Стэнли Кубрика (обе 1968 г.) с HAL 9000 , смертоносным компьютером, отвечающим за космический корабль Discovery One , а также «Терминатор» (1984) и «Матрица» (1999). ). Напротив, редкие лояльные роботы, такие как Горт из «Дня, когда Земля остановилась» (1951) и Бишоп из « Чужих» (1986), менее заметны в массовой культуре. [276]

Айзек Азимов представил три закона робототехники во многих книгах и рассказах, в первую очередь в серии «Multivac» о сверхразумном компьютере с таким же названием. Законы Азимова часто упоминаются в непрофессиональных дискуссиях о машинной этике; [277] Хотя почти все исследователи искусственного интеллекта знакомы с законами Азимова через массовую культуру, они обычно считают эти законы бесполезными по многим причинам, одной из которых является их двусмысленность. [278]

Трансгуманизм (слияние людей и машин) исследуется в манге « Призрак в доспехах» и научно-фантастическом сериале « Дюна» . В 1980-х годах серия «Сексуальных роботов» художника Хадзиме Сораямы была нарисована и опубликована в Японии, изображая реальную органическую человеческую форму с реалистичной мускулистой металлической кожей, а позже последовала книга «Гиноиды», которая использовалась или оказывала влияние на кинематографистов, включая Джорджа Лукаса и других. креативы. Сораяма никогда не считал этих органических роботов реальной частью природы, но всегда неестественным продуктом человеческого разума, фантазией, существующей в уме, даже если она реализована в реальной форме.

В нескольких работах ИИ используется, чтобы заставить нас ответить на фундаментальный вопрос о том, что делает нас людьми, показывая нам искусственных существ, которые обладают способностью чувствовать и, следовательно, страдать. Это проявляется в Карела Чапека «s руб , фильмы AI Искусственный интеллект и Ex Machina , а также роман ли андроиды Сон Electric Sheep? , Филипп К. Дик . Дик рассматривает идею о том, что наше понимание человеческой субъективности изменено технологиями, созданными с помощью искусственного интеллекта. [279]

Смотрите также

  • AI Rising
  • Проблема управления ИИ
  • Гонка вооружений искусственного интеллекта
  • Алгоритм выбора поведения
  • Автоматизация бизнес-процессов
  • Рассуждения на основе прецедентов
  • Гражданская наука
  • Эмерджентный алгоритм
  • Женский гендер в технологиях искусственного интеллекта
  • Глоссарий искусственного интеллекта
  • Регулирование искусственного интеллекта
  • Роботизированная автоматизация процессов
  • Синтетический интеллект
  • Универсальный базовый доход
  • Слабый ИИ

Заметки с пояснениями

  1. ^ Акт раздачи вознаграждений может быть формализован или автоматизирован до « функции вознаграждения ».
  2. ^ Терминология меняется; см. характеристики алгоритмов .
  3. ^ Состязательные уязвимости также могут привести к нелинейным системам или из-за нестандартных возмущений. Некоторые системы настолько хрупкие, что изменение одного пикселя-противника предсказуемо приводит к ошибочной классификации.
  4. ^ Алан Тьюринг обсуждал центральную роль обучения еще в 1950 году в своей классической статье « Вычислительные машины и интеллект ». [125] В 1956 году на первоначальной летней конференции по искусственному интеллекту в Дартмуте Рэй Соломонофф написал доклад о вероятностном машинном обучении без учителя: «Машина индуктивного вывода». [126]
  5. ^ Это формашироко цитируемого определения машинного обучения Тома Митчелла : «Компьютерная программа должна учиться на опыте E в отношении некоторой задачи T и некоторого показателя производительности P, если ее производительность на T, измеренная с помощью P, улучшается. со стажем Э. "
  6. ^ Нильс Нильссон пишет: «Проще говоря, в этой области существуют большие разногласия по поводу того, что такое ИИ». [167]
  7. ^ Наиболее ярким примером суб-символического ИИ быть отодвинут на задний план был разрушительной критики персептронов по Марвин Мински и Пейперт в 1969 г. См истории А.И. , зимой А.И. , или Розенблатт . [ необходима цитата ]
  8. ^ Хотя такая «победа аккуратности» может быть следствием того, что область становится более зрелой, AIMA заявляет, что на практикев исследованиях ИИ по-прежнему необходимыкак аккуратный, так и неряшливый подходы.
  9. ^ Дрейфус подверг критике необходимое условиегипотезы физической системы символов , которую он назвал «психологическим допущением»: «Разум можно рассматривать как устройство, работающее с битами информации в соответствии с формальными правилами». [208]
  10. В начале 1970-х Кеннет Колби представил версию ELIZA Вейценбаума, известную как ДОКТОР, которую он продвигал как серьезный терапевтический инструмент. [217]
  11. Это основано на «Комнате Мэри» , мысленном эксперименте, впервые предложенном Фрэнком Джексоном в 1982 году.
  12. ^ Эта версия взята из Searle (1999) , а также цитируется у Dennett 1991 , p. 435. Первоначальная формулировка Сирла была такова: «Соответственно запрограммированный компьютер на самом деле является разумом в том смысле, что можно буквально сказать, что компьютеры, получившие правильные программы, понимают и имеют другие когнитивные состояния». [230] Сильный ИИ определяется аналогичным образом Расселом и Норвигом (Russell & Norvig, 2003 , p. 947): «Утверждение о том, что машины могут действовать разумно (или, что лучше, действовать так, как если бы они были разумными), называется гипотезой« слабого ИИ ». философами, а утверждение, что машины, которые это делают, действительно думают (а не моделируют мышление), называется гипотезой «сильного ИИ» ».

Рекомендации

  1. ^ Poole, Макворт & Гебель 1998 , стр. 1 .
  2. ^ Russell & Норвиг 2003 , стр. 55.
  3. ^ a b c Определение ИИ как исследования интеллектуальных агентов :
    • Poole, Mackworth & Goebel (1998) , в котором представлена ​​версия, используемая в этой статье. Эти авторы используют термин «вычислительный интеллект» как синоним искусственного интеллекта. [1]
    • Russell & Norvig (2003) (которые предпочитают термин «рациональный агент») и пишут: «Представление о целостном агенте сейчас широко распространено в этой области». [2]
    • Нильссон 1998
    • Легг и Хаттер 2007
  4. ^ Russell & Норвиг 2009 , стр. 2.
  5. ^ McCorduck 2004 , стр. 204
  6. ^ Малуф, Марк. «Искусственный интеллект: введение, стр. 37» (PDF) . georgetown.edu . Архивировано (PDF) из оригинала 25 августа 2018 года.
  7. ^ «Как ИИ добивается революционных изменений в управлении талантами и HR-технологиях» . Hackernoon. Архивировано 11 сентября 2019 года . Проверено 14 февраля 2020 года .
  8. ^ Schank, Роджер С. (1991). «Где ИИ». Журнал AI . Vol. 12 ч. 4. п. 38.
  9. ^ Рассел и Норвиг 2009 .
  10. ^ a b "AlphaGo - Google DeepMind" . Архивировано 10 марта 2016 года.
  11. ^ а б Боулинг, Майкл; Берч, Нил; Йохансон, Майкл; Таммелин, Оскари (9 января 2015 г.). "Хедз-ап лимитный холдем решен" . Наука . 347 (6218): 145–149. DOI : 10.1126 / science.1259433 . ISSN 0036-8075 . PMID 25574016 .  
  12. Аллен, Грегори (апрель 2020 г.). «Объединенный центр искусственного интеллекта Министерства обороны - Понимание технологии искусственного интеллекта» (PDF) . AI.mil - официальный сайт Объединенного центра искусственного интеллекта Министерства обороны США . Архивировано 21 апреля 2020 года (PDF) из оригинала . Проверено 25 апреля 2020 года .
  13. ^ a b Оптимизм раннего ИИ: * Цитата Герберта Саймона : Саймон 1965 , стр. 96 цитируется по Crevier 1993 , p. 109. * Марвин Мински цитата: Минский 1967 , стр. 2 цитируется по Crevier 1993 , p. 109.
  14. ^ a b c Бум 1980-х: рост экспертных систем , Fifth Generation Project , Alvey , MCC , SCI : * McCorduck 2004 , стр. 426–441 * Crevier 1993 , стр. 161–162,197–203, 211, 240 * Russell И Норвиг 2003 , стр. 24 * NRC 1999 , стр. 210–211 * Newquist 1994 , стр. 235–248
  15. ^ a b Первый А.И. Винтер , Поправка Мэнсфилда , отчет Лайтхилла * Crevier 1993 , стр. 115–117 * Russell & Norvig 2003 , p. 22 * NRC 1999 , стр. 212–213 * Howe 1994 * Newquist 1994 , стр 189–201
  16. ^ a b Вторая зима искусственного интеллекта : * McCorduck 2004 , стр. 430–435 * Crevier 1993 , стр. 209–210 * NRC 1999 , стр. 214–216 * Newquist 1994 , стр. 301–318
  17. ^ a b c ИИ становится чрезвычайно успешным в начале 21 века * Clark 2015b
  18. ^ Haenlein, Майкл; Каплан, Андреас (2019). «Краткая история искусственного интеллекта: прошлое, настоящее и будущее искусственного интеллекта» . Обзор управления Калифорнии . 61 (4): 5–14. DOI : 10.1177 / 0008125619864925 . ISSN 0008-1256 . S2CID 199866730 .  
  19. ^ a b Памела МакКордак (2004 , стр. 424) пишет о «грубом разрушении ИИ в подполях - зрение, естественный язык, теория принятия решений, генетические алгоритмы, робототехника ... что-нибудь сказать друг другу ".
  20. ^ a b c Этот список интеллектуальных черт основан на темах, охватываемых основными учебниками по ИИ, включая: * Russell & Norvig 2003 * Luger & Stubblefield 2004 * Poole, Mackworth & Goebel 1998 * Nilsson 1998
  21. ^ Kolata 1982 .
  22. Перейти ↑ Maker 2006 .
  23. ^ a b c Биологический интеллект против интеллекта в целом:
    • Russell & Norvig 2003 , pp. 2–3 , которые проводят аналогию с авиационной техникой .
    • McCorduck 2004 , pp. 100–101 , который пишет, что существует «две основные ветви искусственного интеллекта: одна направлена ​​на создание разумного поведения независимо от того, как это было реализовано, а другая - на моделирование интеллектуальных процессов, встречающихся в природе, особенно человеческих. . "
    • Колата 1982 , статья в Science , в которой описывается безразличие Маккарти к биологическим моделям. Колата цитирует Маккарти: «Это ИИ, поэтому нам все равно, реально ли он психологически». [21] Маккарти недавно подтвердил свою позицию на конференции AI @ 50, где сказал: «Искусственный интеллект по определению не является имитацией человеческого интеллекта». [22]
  24. ^ a b c Чистые и грязные : * McCorduck 2004 , стр. 421–424, 486–489 * Crevier 1993 , стр. 168 * Nilsson 1983 , стр. 10–11
  25. ^ a b Символический и субсимвольный ИИ: * Нильссон (1998 , стр. 7), который использует термин «субсимволический».
  26. ^ a b Общий интеллект ( сильный ИИ ) обсуждается в популярных введениях в ИИ: * Kurzweil 1999 и Kurzweil 2005
  27. ^ См. Предложение Дартмута в разделе « Философия» ниже.
  28. ^ McCorduck 2004 , стр. 34.
  29. ^ McCorduck 2004 , стр. xviii.
  30. ^ McCorduck 2004 , стр. 3.
  31. ^ McCorduck 2004 , стр. 340-400.
  32. ^ a b Это центральная идея книги Памелы МакКордак « Машины, которые думают» . Она пишет:
    • «Мне нравится думать об искусственном интеллекте как об научном апофеозе почтенной культурной традиции». [28]
    • «Искусственный интеллект в той или иной форме - это идея, которая пронизала западную интеллектуальную историю, мечта, которая срочно нуждается в воплощении». [29]
    • «Наша история полна попыток - сумасшедших, жутких, комичных, серьезных, легендарных и реальных - создать искусственный интеллект, воспроизвести то, что является для нас сущностным, минуя обычные средства. Взад и вперед между мифом и реальностью, наше воображение дает то, что наши мастерские не могли, мы давно занимаемся этой странной формой самовоспроизведения ». [30]
    Она прослеживает это желание до его эллинистических корней и называет его побуждением «выковать богов». [31]
  33. ^ «Стивен Хокинг считает, что ИИ может стать последним достижением человечества» . BetaNews . 21 октября 2016 г. Архивировано 28 августа 2017 г.
  34. Перейти ↑ Lombardo P, Boehm I, Nairz K (2020). «RadioComics - Санта-Клаус и будущее радиологии» . Eur J Radiol . 122 (1): 108771. DOI : 10.1016 / j.ejrad.2019.108771 . PMID 31835078 . 
  35. ^ а б Форд, Мартин; Колвин, Джефф (6 сентября 2015 г.). «Смогут ли роботы создать больше рабочих мест, чем уничтожить?» . Хранитель . Архивировано 16 июня 2018 года . Проверено 13 января 2018 .
  36. ^ a b Приложения искусственного интеллекта, широко используемые за кадром: * Russell & Norvig 2003 , p. 28 * Курцвейл 2005 , стр. 265 * NRC 1999 , стр. 216–222 * Newquist 1994 , стр. 189–201
  37. ^ a b ИИ в мифе: * McCorduck 2004 , стр. 4–5 * Russell & Norvig 2003 , p. 939
  38. ^ AI в ранней научной фантастике. * McCorduck 2004 , стр. 17–25.
  39. ^ Формальные рассуждения: * Берлински, Дэвид (2000). Появление алгоритма . Книги Харкорта. ISBN 978-0-15-601391-8. OCLC  46890682 . Архивировано 26 июля 2020 года . Проверено 22 августа 2020 .
  40. Тьюринг, Алан (1948), «Машинный интеллект», в Copeland, B. Jack (ed.), The Essential Turing: The Ideas, who have the computer age , Oxford: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
  41. ^ Russell & Норвиг 2009 , стр. 16.
  42. ^ Дартмут конференции : * McCorduck 2004 . С. 111-136* Кревьер 1993 . С. 47-49, который пишет «конференциикак правилопризнаетсякачестве официальнойрождения новой науки.» * Russell & Norvig 2003 , стр. 17, которые называют конференцию «рождением искусственного интеллекта». * NRC 1999 , стр. 200–201.
  43. ^ Маккарти, Джон (1988). «Обзор вопроса об искусственном интеллекте ». Анналы истории вычислительной техники . 10 (3): 224–229., собранные в McCarthy, John (1996). «10. Обзор вопроса об искусственном интеллекте ». Защита исследований ИИ: сборник эссе и обзоров . CSLI., п. 73, «Одна из причин изобретения термина« искусственный интеллект »заключалась в том, чтобы избежать ассоциации с« кибернетикой ». Его концентрация на аналоговой обратной связи казалась ошибочной, и я хотел избежать необходимости принимать Норберта (не Роберта) Винера. как гуру или спорить с ним ».
  44. Гегемония участников Дартмутской конференции: * Russell & Norvig 2003 , p. 17, которые пишут: «в течение следующих 20 лет в этой области будут доминировать эти люди и их студенты». * McCorduck 2004 , стр. 129–130.
  45. ^ Russell & Норвиг 2003 , стр. 18: «Было удивительно, когда компьютер делал что-то вроде умного»
  46. Schaeffer J. (2009) Разве Сэмюэл не решил эту игру ?. В: На прыжок вперед. Спрингер, Бостон, Массачусетс
  47. Перейти ↑ Samuel, AL (июль 1959). «Некоторые исследования машинного обучения с использованием игры в шашки». Журнал исследований и разработок IBM . 3 (3): 210–229. CiteSeerX 10.1.1.368.2254 . DOI : 10.1147 / rd.33.0210 . 
  48. ^ " Золотые годы " ИИ (успешные программы символического мышления 1956–1973): * McCorduck 2004 , стр. 243–252*Crevier 1993 , стр. 52–107 * Moravec 1988 , p. 9 * Russell & Норвиг 2003 , стр. 18-21Программы описанные Артур Самуэль «программа шашек s для IBM 701 , Daniel Бобров » s СТУДЕНТ , Ньюэлл и Саймон «s Logic Теоретик и Терри Винограда » s SHRDLU .
  49. ^ DARPA вкладывает деньги в неориентированные чистые исследования ИИ в течение 1960-х: * McCorduck 2004 , p. 131* Crevier 1993 , стр. 51, 64–65 * NRC 1999 , стр. 204–205
  50. ^ AI в Англии: * Howe 1994
  51. ^ Лайтхилл 1973 .
  52. ^ a b Экспертные системы: * ACM 1998 , I.2.1 * Russell & Norvig 2003 , стр. 22–24 * Luger & Stubblefield 2004 , стр. 227–331 * Nilsson 1998 , гл. 17.4 * McCorduck 2004 , стр. 327–335, 434–435 * Crevier 1993 , стр. 145–62, 197–203 * Newquist 1994 , стр. 155–183
  53. ^ Мид, Карвер А .; Исмаил, Мохаммед (8 мая 1989 г.). Аналоговая реализация нейронных систем на СБИС (PDF) . Kluwer International Series в области инженерии и информатики. 80 . Норвелл, Массачусетс: Kluwer Academic Publishers . DOI : 10.1007 / 978-1-4613-1639-8 . ISBN  978-1-4613-1639-8. Архивировано из оригинала (PDF) 6 ноября 2019 года . Проверено 24 января 2020 года .
  54. ^ a b Теперь предпочтение отдается формальным методам («Победа аккуратных »): * Russell & Norvig 2003 , стр. 25–26 * McCorduck 2004 , стр. 486–487
  55. ^ McCorduck 2004 , стр. 480-483.
  56. ^ Markoff 2011 .
  57. ^ «Спросите экспертов по ИИ: что движет сегодняшним прогрессом в области ИИ?» . McKinsey & Company . Архивировано 13 апреля 2018 года . Проверено 13 апреля 2018 года .
  58. ^ Fairhead, Гарри (26 марта 2011) [Update 30 марта 2011]. «Объяснение прорывного ИИ Kinect» . Я программист . Архивировано 1 февраля 2016 года.
  59. ^ Rowiński, Dan (15 января 2013). «Виртуальные персональные помощники и будущее вашего смартфона [Инфографика]» . Читайте, пишите . Архивировано 22 декабря 2015 года.
  60. ^ «Искусственный интеллект: AlphaGo от Google превосходит мастера го Ли Седола» . BBC News . 12 марта 2016 года архивация с оригинала на 26 августа 2016 года . Проверено 1 октября +2016 .
  61. ^ Metz, Кейд (27 мая 2017). «После победы в Китае дизайнеры AlphaGo исследуют новый ИИ» . Проводной . Архивировано 2 июня 2017 года.
  62. ^ «Рейтинг игроков World's Go» . Май 2017. Архивировано 1 апреля 2017 года.
  63. ^ "柯 洁 迎 19 岁 生日 雄踞 人类 世界 排名 第一 已 两年" (на китайском языке). Май 2017. Архивировано 11 августа 2017 года.
  64. ^ «MuZero: Освоение го, шахмат, сёги и Atari без правил» . Deepmind . Проверено 1 марта 2021 года .
  65. ^ Стивен Боровец; Трейси Лиен (12 марта 2016 г.). «AlphaGo превосходит чемпиона по игре в го в области искусственного интеллекта» . Лос-Анджелес Таймс . Проверено 13 марта 2016 .
  66. Сильвер, Дэвид ; Хьюберт, Томас; Шриттвизер, Джулиан; Антоноглоу, Иоаннис; Лай, Мэтью; Гез, Артур; Ланкто, Марк; Сифре, Лоран; Кумаран, Дхаршан; Грэпель, Тор; Лилликрап, Тимоти; Симонян, Карен; Хассабис, Демис (7 декабря 2018 г.). «Общий алгоритм обучения с подкреплением, который осваивает шахматы, сёги и самостоятельно играет» . Наука . 362 (6419): 1140–1144. Bibcode : 2018Sci ... 362.1140S . DOI : 10.1126 / science.aar6404 . PMID 30523106 . 
  67. ^ Шриттвизер, Джулиан; Антоноглоу, Иоаннис; Хьюберт, Томас; Симонян, Карен; Сифре, Лоран; Шмитт, Саймон; Гез, Артур; Локхарт, Эдвард; Хассабис, Демис; Грэпель, Тор; Лилликрап, Тимоти (23 декабря 2020 г.). «Освоение Атари, Го, шахмат и сёги путём планирования с учёной моделью» . Природа . 588 (7839): 604–609. arXiv : 1911.08265 . DOI : 10.1038 / s41586-020-03051-4 . ISSN 1476-4687 . 
  68. ^ Тунг, Лиам. «Искусственный интеллект DeepMind от Google решает игровую задачу Atari» . ZDNet . Проверено 1 марта 2021 года .
  69. Солли, Мейлан. «Этот ИИ, играющий в покер, знает, когда держать их, а когда сбрасывать» . Смитсоновский институт . Pluribus превзошел покерных профессионалов в серии игр в безлимитный техасский холдем на шесть игроков, что стало важной вехой в исследованиях искусственного интеллекта. Это первый бот, победивший людей в сложном многопользовательском соревновании.
  70. ^ а б Кларк 2015b . «После полувека тихих достижений в области искусственного интеллекта 2015 год стал знаковым. Компьютеры стали умнее и учатся быстрее, чем когда-либо».
  71. ^ «Преобразование бизнеса с помощью искусственного интеллекта» . Обзор управления MIT Sloan . Архивировано 19 мая 2018 года . Проверено 2 мая 2018 .
  72. ^ Lorica, Бен (18 декабря 2017). «Состояние внедрения ИИ» . O'Reilly Media . Архивировано 2 мая 2018 года . Проверено 2 мая 2018 .
  73. Аллен, Грегори (6 февраля 2019 г.). «Понимание стратегии Китая в области искусственного интеллекта» . Центр новой американской безопасности . Архивировано 17 марта 2019 года.
  74. ^ «Обзор | Как две сверхдержавы ИИ - США и Китай - сражаются за превосходство в этой области» . Вашингтон Пост . 2 ноября 2018. архивации с оригинала на 4 ноября 2018 года . Проверено 4 ноября 2018 года .
  75. ^ Anadiotis, Джордж (1 октября 2020). «Состояние ИИ в 2020 году: демократизация, индустриализация и путь к общему искусственному интеллекту» . ZDNet . Проверено 1 марта 2021 года .
  76. Хит, Ник (11 декабря 2020 г.). «Что такое ИИ? Все, что вам нужно знать об искусственном интеллекте» . ZDNet . Проверено 1 марта 2021 года .
  77. ^ Каплан, Андреас; Хенлайн, Майкл (1 января 2019 г.). «Siri, Siri, в моей руке: кто самый справедливый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты . 62 (1): 15–25. DOI : 10.1016 / j.bushor.2018.08.004 .
  78. Domingos 2015 , Глава 5.
  79. Domingos 2015 , Глава 7.
  80. ^ Линденбаума, М., Маркович, С., & Русаков, Д. (2004). Выборочная выборка для классификаторов ближайшего соседа. Машинное обучение, 54 (2), 125–152.
  81. Domingos 2015 , Глава 1.
  82. ^ a b Несговорчивость, эффективность и комбинаторный взрыв : * Russell & Norvig 2003 , стр. 9, 21–22
  83. Domingos 2015 , Глава 2, Глава 3.
  84. ^ Харт, ЧП; Нильссон, штат Нью-Джерси; Рафаэль, Б. (1972). «Поправка к« формальной основе для эвристического определения путей минимальной стоимости » ». Информационный бюллетень SIGART (37): 28–29. DOI : 10.1145 / 1056777.1056779 . S2CID 6386648 . 
  85. Domingos 2015 , Глава 2, Глава 4, Глава 6.
  86. ^ "Могут ли компьютеры нейронных сетей учиться на собственном опыте, и если да, смогут ли они когда-нибудь стать тем, что мы называем" умными "?" . Scientific American . 2018. Архивировано 25 марта 2018 года . Проверено 24 марта 2018 года .
  87. Domingos 2015 , Глава 6, Глава 7.
  88. Перейти ↑ Domingos 2015 , p. 286.
  89. ^ "Изменение одного пикселя дурачит программы AI" . BBC News . 3 ноября 2017. Архивировано 22 марта 2018 года . Проверено 12 марта 2018 .
  90. ^ «У AI есть проблема галлюцинаций, которую трудно исправить» . ПРОВОДНОЙ . 2018. Архивировано 12 марта 2018 года . Проверено 12 марта 2018 .
  91. ^ «Развитие здравого смысла | DiscoverMagazine.com» . Откройте для себя журнал . 2017. Архивировано из оригинала 25 марта 2018 года . Проверено 24 марта 2018 года .
  92. ^ Дэвис, Эрнест; Маркус, Гэри (24 августа 2015 г.). «Здравый смысл и здравый смысл в искусственном интеллекте» . Коммуникации ACM . 58 (9): 92–103. DOI : 10.1145 / 2701413 . S2CID 13583137 . Архивировано 22 августа 2020 года . Проверено 6 апреля 2020 . 
  93. ^ Winograd, Терри (январь 1972). «Понимание естественного языка». Когнитивная психология . 3 (1): 1–191. DOI : 10.1016 / 0010-0285 (72) 90002-3 .
  94. ^ «Не волнуйтесь: беспилотные автомобили не появятся завтра (или в следующем году)» . Автонеделя . 2016. Архивировано 25 марта 2018 года . Проверено 24 марта 2018 года .
  95. Knight, Will (2017). «Бостон может быть известен плохими водителями, но это испытательный полигон для более умных беспилотных автомобилей» . Обзор технологий Массачусетского технологического института . Архивировано 22 августа 2020 года . Проверено 27 марта 2018 .
  96. ^ Праккен, Генри (31 августа 2017). «О проблеме приведения автономных транспортных средств в соответствие с правилами дорожного движения» . Искусственный интеллект и право . 25 (3): 341–363. DOI : 10.1007 / s10506-017-9210-0 .
  97. ^ a b Лието, Антонио; Лебьер, Кристиан; Ольтрамари, Алессандро (май 2018 г.). «Уровень знаний в когнитивных архитектурах: текущие ограничения и возможные разработки». Исследование когнитивных систем . 48 : 39–55. DOI : 10.1016 / j.cogsys.2017.05.001 . ЛВП : 2318/1665207 . S2CID 206868967 . 
  98. ^ Решение проблем, решение головоломок, игра и дедукция: * Russell & Norvig 2003 , chpt. 3–9, * Poole, Mackworth & Goebel 1998 , гл. 2,3,7,9, * Luger & Stubblefield 2004 , гл. 3,4,6,8, * Нильссон 1998 , гл. 7–12
  99. ^ Неопределенное рассуждение: * Russell & Norvig 2003 , pp. 452–644, * Poole, Mackworth & Goebel 1998 , pp. 345–395, * Luger & Stubblefield 2004 , pp. 333–381, * Nilsson 1998 , chpt. 19
  100. ^ Психологические доказательства субсимволических рассуждений: * Wason & Shapiro (1966) показали, что люди плохо справляются с полностью абстрактными проблемами, но если проблема переформулируется, чтобы позволить использовать интуитивный социальный интеллект , производительность резко улучшается. (См. Задание Wason отбор ) * Kahneman, Slovic & Tversky (1982) показали, что люди ужасны в элементарных задачах, связанных с неопределенными рассуждениями. (См. Список когнитивных предубеждений для нескольких примеров). * Лакофф & Нуньес (2000) уже спорно утверждаличто даже наши навыки в математике зависит от знаний и навыковкоторые приходят из «тела», т.е. сенсомоторных и перцептивных навыков. (ВидетьОткуда пришла математика )
  101. ^ Представление знаний : * ACM 1998 , I.2.4, * Russell & Norvig 2003 , стр. 320–363, * Poole, Mackworth & Goebel 1998 , стр. 23–46, 69–81, 169–196, 235–277, 281–298, 319–345, * Luger & Stubblefield 2004 , стр. 227–243, * Nilsson 1998 , гл. 18
  102. ^ Инженерия знаний : * Russell & Norvig 2003 , стр. 260–266, * Poole, Mackworth & Goebel 1998 , стр. 199–233, * Nilsson 1998 , chpt. ≈17,1–17,4
  103. ^ Представление категорий и отношений: семантические сети , логика описания , наследование (включая фреймы и сценарии ): * Russell & Norvig 2003 , стр. 349–354, * Poole, Mackworth & Goebel 1998 , стр. 174–177, * Luger & Stubblefield 2004 , стр. 248–258, * Nilsson 1998 , гл. 18,3
  104. ^ Представление событий и времени: ситуационное исчисление , событийное исчисление , беглое исчисление (включая решение проблемы фреймов ): * Russell & Norvig 2003 , стр. 328–341, * Poole, Mackworth & Goebel 1998 , pp. 281–298, * Nilsson 1998 , гл. 18,2
  105. ^ Причинное исчисление : * Poole, Mackworth & Goebel 1998 , стр. 335–337
  106. ^ Представление знаний о знании: исчисление убеждений, модальная логика : * Russell & Norvig 2003 , стр. 341–344, * Poole, Mackworth & Goebel 1998 , стр. 275–277
  107. ^ Sikos, Лесли Ф. (июнь 2017). Описание логики в мультимедийных рассуждениях . Чам: Спрингер. DOI : 10.1007 / 978-3-319-54066-5 . ISBN 978-3-319-54066-5. S2CID  3180114 . Архивировано 29 августа 2017 года.
  108. ^ Онтология : * Russell & Норвиг 2003 ., Стр 320-328
  109. ^ Смоляр, Стивен В .; Чжан, Хунцзян (1994). «Индексирование и поиск видео на основе контента». IEEE Multimedia . 1 (2): 62–72. DOI : 10.1109 / 93.311653 . S2CID 32710913 . 
  110. ^ Нойман, Бернд; Мёллер, Ральф (январь 2008 г.). «Интерпретация сцены с логикой описания». Вычисления изображений и зрения . 26 (1): 82–101. DOI : 10.1016 / j.imavis.2007.08.013 .
  111. ^ Куперман, GJ; Райхли, РМ; Бейли, ТС (1 июля 2006 г.). «Использование коммерческих баз знаний для поддержки принятия клинических решений: возможности, препятствия и рекомендации» . Журнал Американской ассоциации медицинской информатики . 13 (4): 369–371. DOI : 10.1197 / jamia.M2055 . PMC 1513681 . PMID 16622160 .  
  112. ^ Макгарри, КЕН (1 декабря 2005). «Обзор показателей степени интереса к открытию знаний». Обзор инженерии знаний . 20 (1): 39–61. DOI : 10.1017 / S0269888905000408 . S2CID 14987656 . 
  113. ^ Бертини, М; Дель Бимбо, А; Торняй, К. (2006). «Автоматическое аннотирование и семантический поиск видеопоследовательностей с использованием мультимедийных онтологий». MM '06 Материалы 14-й международной конференции ACM по мультимедиа . 14-я международная конференция ACM по мультимедиа. Санта-Барбара: ACM. С. 679–682.
  114. ^ Квалификационная проблема : * McCarthy & Hayes 1969 * Russell & Norvig 2003 [ необходима страница ] В то время как Маккарти в первую очередь интересовался проблемами логического представления действий, Russell & Norvig 2003 применяли этот термин к более общей проблеме рассуждения по умолчанию в обширных сеть предположений, лежащих в основе всего нашего здравого смысла.
  115. ^ Рассуждения по умолчанию и логика по умолчанию , немонотонная логика , ограниченность , предположение о закрытом мире , похищение (Пул и др. Относят похищение к «рассуждениям по умолчанию». Люгер и др. Относят это к «неопределенным рассуждениям»): * Russell & Norvig 2003 , стр. 354–360, * Poole, Mackworth & Goebel 1998 , стр. 248–256, 323–335, * Luger & Stubblefield 2004 , стр. 335–363, * Nilsson 1998 , ~ 18.3.3
  116. ^ Широта здравого смысла: * Russell & Norvig 2003 , p. 21, * Crevier 1993 , pp. 113–114, * Moravec 1988 , p. 13, * Lenat & Guha 1989 (Введение)
  117. ^ Дрейфус и Дрейфус 1986 .
  118. Перейти ↑ Gladwell 2005 .
  119. ^ a b Экспертное знание как воплощенная интуиция: * Dreyfus & Dreyfus 1986 ( Хуберт Дрейфус - философ и критик ИИ, который был одним из первых, кто утверждал, что наиболее полезные человеческие знания закодированы субсимволически. См. критику ИИ Дрейфусом ) * Gladwell 2005 ( Blink Гладуэлла - популярное введение в субсимвольные рассуждения и знания.) * Hawkins & Blakeslee 2005 (Хокинс утверждает, что субсимвольные знания должны быть в центре внимания исследований ИИ).
  120. ^ Планирование : * ACM 1998 , ~ I.2.8, * Russell & Norvig 2003 , стр. 375–459, * Poole, Mackworth & Goebel 1998 , стр. 281–316, * Luger & Stubblefield 2004 , стр. 314–329, * Нильссон 1998 , гл. 10.1–2, 22
  121. ^ Теория информационной ценности : * Russell & Norvig 2003 , стр. 600–604
  122. Классическое планирование: * Russell & Norvig 2003 , стр. 375–430, * Poole, Mackworth & Goebel 1998 , стр. 281–315, * Luger & Stubblefield 2004 , стр. 314–329, * Nilsson 1998 , chpt. 10.1–2, 22
  123. ^ Планирование и действия в недетерминированных областях: условное планирование, мониторинг выполнения, перепланирование и непрерывное планирование: * Russell & Norvig 2003 , pp. 430–449
  124. ^ Планирование Многоагентного и поведение эмерджентное: * Russell & Норвиг 2003 ., Стр 449-455
  125. ^ Тьюринг 1950 .
  126. ^ Соломонов 1956 .
  127. ^ a b Обучение : * ACM 1998 , I.2.6, * Russell & Norvig 2003 , стр. 649–788 , * Poole, Mackworth & Goebel 1998 , стр. 397–438, * Luger & Stubblefield 2004 , стр. 385–542 , * Nilsson 1998 , гл. 3.3, 10.3, 17.5, 20
  128. ^ Иордания, Мичиган; Митчелл, TM (16 июля 2015 г.). «Машинное обучение: тенденции, перспективы и перспективы». Наука . 349 (6245): 255–260. Bibcode : 2015Sci ... 349..255J . DOI : 10.1126 / science.aaa8415 . PMID 26185243 . S2CID 677218 .  
  129. ^ Обучение с подкреплением : * Russell & Norvig 2003 , pp. 763–788* Luger & Stubblefield 2004 , pp. 442–449
  130. ^ Обработка естественного языка : * ACM 1998 , I.2.7 * Russell & Norvig 2003 , стр. 790–831* Poole, Mackworth & Goebel 1998 , стр. 91–104 * Luger & Stubblefield 2004 , стр. 591–632
  131. ^ «Универсальные системы ответов на вопросы: видение в синтезе». Архивировано 1 февраля 2016 г. в Wayback Machine , Миттал и др., IJIIDS, 5 (2), 119–142, 2011 г.
  132. ^ Приложения обработки естественного языка, включая поиск информации (т.е. интеллектуальный анализ текста ) и машинный перевод : * Russell & Norvig 2003 , стр. 840–857, * Luger & Stubblefield 2004 , стр. 623–630
  133. ^ Камбрия, Эрик; Белый, Бебо (май 2014 г.). «Скачкообразные кривые НЛП: обзор исследований в области обработки естественного языка [обзорная статья]». Журнал IEEE Computational Intelligence Magazine . 9 (2): 48–57. DOI : 10,1109 / MCI.2014.2307227 . S2CID 206451986 . 
  134. Винсент, Джеймс (7 ноября 2019 г.). «OpenAI опубликовал искусственный интеллект, генерирующий текст, который, по его словам, был слишком опасен для использования» . Грань . Архивировано 11 июня 2020 года . Проверено 11 июня 2020 .
  135. ^ Машинное восприятие : * Russell & Norvig 2003 , pp. 537–581, 863–898* Nilsson 1998 , ~ chpt. 6
  136. ^ Распознавания речи : * ACM 1998 , ~ I.2.7 * Russell & Норвиг 2003 ., Стр 568-578
  137. ^ Признание объекта : * Russell & Норвиг 2003 ., Стр 885-892
  138. ^ Компьютерное зрение : * ACM 1998 , I.2.10 * Russell & Norvig 2003 , стр. 863–898* Nilsson 1998 , гл. 6
  139. ^ Робототехника : * ACM 1998 , I.2.9, * Russell & Norvig 2003 , стр. 901–942, * Poole, Mackworth & Goebel 1998 , стр. 443–460
  140. ^ Перемещение и конфигурация пространства : * Russell & Norvig 2003 , стр. 916–932
  141. ^ Tecuci 2012 .
  142. ^ Роботизированное картографирование (локализация и т. Д.): * Russell & Norvig 2003 , стр. 908–915
  143. ^ Кадена, Сезар; Карлоне, Лука; Каррильо, Генри; Латиф, Ясир; Скарамуцца, Давиде; Нейра, Хосе; Рид, Ян; Леонард, Джон Дж. (Декабрь 2016 г.). «Прошлое, настоящее и будущее одновременной локализации и картирования: к эпохе устойчивого восприятия». IEEE Transactions по робототехнике . 32 (6): 1309–1332. arXiv : 1606.05830 . Bibcode : 2016arXiv160605830C . DOI : 10.1109 / TRO.2016.2624754 . S2CID 2596787 . 
  144. Перейти ↑ Moravec 1988 , p. 15.
  145. ^ Chan, С Ping (15 ноября 2015). «Вот что произойдет, когда роботы захватят мир» . Архивировано 24 апреля 2018 года . Проверено 23 апреля 2018 года .
  146. ^ «Мебель ИКЕА и пределы искусственного интеллекта» . Экономист . 2018. Архивировано 24 апреля 2018 года . Проверено 24 апреля 2018 года .
  147. ^ "Кисмет" . Лаборатория искусственного интеллекта Массачусетского технологического института, Humanoid Robotics Group. Архивировано 17 октября 2014 года . Проверено 25 октября 2014 года .
  148. ^ Томпсон, Дерек (2018). «Какие рабочие места возьмут на себя роботы?» . Атлантика . Архивировано 24 апреля 2018 года . Проверено 24 апреля 2018 года .
  149. ^ Scassellati, Brian (2002). «Теория разума для гуманоидного робота». Автономные роботы . 12 (1): 13–24. DOI : 10,1023 / A: 1013298507114 . S2CID 1979315 . 
  150. ^ Цао, Юнкан; Ю, Вену; Рен, Вэй; Чен, Гуаньжун (февраль 2013 г.). «Обзор последних достижений в изучении распределенной многоагентной координации». IEEE Transactions по промышленной информатике . 9 (1): 427–438. arXiv : 1207,3231 . DOI : 10.1109 / TII.2012.2219061 . S2CID 9588126 . 
  151. ^ Thro 1993 .
  152. Эдельсон, 1991 .
  153. Перейти ↑ Tao & Tan 2005 .
  154. ^ Пория, Суджанья; Камбрия, Эрик; Баджпай, Раджив; Хуссейн, Амир (сентябрь 2017 г.). «Обзор аффективных вычислений: от одномодального анализа к мультимодальному слиянию». Информационный фьюжн . 37 : 98–125. DOI : 10.1016 / j.inffus.2017.02.003 . ЛВП : 1893/25490 .
  155. ^ Эмоции и аффективные вычисления : * Minsky 2006
  156. ^ Уоделл, Кава (2018). «Чат-боты вошли в сверхъестественную долину» . Атлантика . Архивировано 24 апреля 2018 года . Проверено 24 апреля 2018 года .
  157. ^ Pennachin, C .; Гертцель, Б. (2007). «Современные подходы к общему искусственному интеллекту». Общий искусственный интеллект . Когнитивные технологии. Берлин, Гейдельберг: Springer. DOI : 10.1007 / 978-3-540-68677-4_1 . ISBN 978-3-540-23733-4.
  158. ^ a b c Робертс, Джейкоб (2016). «Мыслительные машины: поиски искусственного интеллекта» . Дистилляции . Vol. 2 шт. 2. С. 14–23. Архивировано из оригинального 19 августа 2018 года . Проверено 20 марта 2018 года .
  159. ^ "Супергерой искусственного интеллекта: сможет ли этот гений держать его под контролем?" . Хранитель . 16 февраля 2016 года архивации с оригинала на 23 апреля 2018 года . Проверено 26 апреля 2018 года .
  160. ^ Мних, Владимир; Кавукчуоглу, Корай; Сильвер, Дэвид; Русу, Андрей А .; Венесс, Джоэл; Bellemare, Marc G .; Грейвс, Алекс; Ридмиллер, Мартин; Fidjeland, Andreas K .; Островский, Георг; Петерсен, Стиг; Битти, Чарльз; Садик, Амир; Антоноглоу, Иоаннис; Король, Хелен; Кумаран, Дхаршан; Виерстра, Даан; Легг, Шейн; Хассабис, Демис (26 февраля 2015 г.). «Контроль на уровне человека посредством глубокого обучения с подкреплением». Природа . 518 (7540): 529–533. Bibcode : 2015Natur.518..529M . DOI : 10,1038 / природа14236 . PMID 25719670 . S2CID 205242740 .  
  161. Образец, Ян (14 марта 2017 г.). «DeepMind от Google создает программу искусственного интеллекта, способную учиться как человек» . Хранитель . Архивировано 26 апреля 2018 года . Проверено 26 апреля 2018 года .
  162. ^ «От неработающего к нейронным сетям» . Экономист . 2016. Архивировано 31 декабря 2016 года . Проверено 26 апреля 2018 года .
  163. Russell & Norvig 2009 , Глава 27. AI: настоящее и будущее.
  164. ^ Домингуш 2015 , Глава 9. Кусочки головоломки встанут наместо.
  165. ^ a b Аргументы искусственного мозга : ИИ требует моделирования работы человеческого мозга * Russell & Norvig 2003 , p. 957 * Crevier 1993 , pp. 271 & 279 Некоторые люди, которые приводят аргументы в той или иной форме: * Moravec 1988 * Kurzweil 2005 , p. 262 * Hawkins & Blakeslee, 2005 Наиболее крайняя форма этого аргумента (сценарий замены мозга) была выдвинута Кларком Глаймором в середине 1970-х годов и затронута Зеноном Пилишином и Джоном Сирлом в 1980 году.
  166. ^ Герцель, Бен; Лиан, Рутинг; Арел, Итамар; де Гарис, Хьюго; Чен, Шо (декабрь 2010 г.). «Мировой обзор проектов искусственного мозга, Часть II: Биологически вдохновленные когнитивные архитектуры». Нейрокомпьютеры . 74 (1–3): 30–49. DOI : 10.1016 / j.neucom.2010.08.012 .
  167. Перейти ↑ Nilsson 1983 , p. 10.
  168. ^ Непосредственными предшественниками ИИ: * McCorduck 2004 , стр 51-107.* Кревьер 1993 , стр 27-32 *. Russell & Норвиг 2003 , стр 15, 940.* Moravec 1988 , стр. 3
  169. ^ Haugeland 1985 , стр. 112-117
  170. ^ Когнитивное моделирование, Ньюэлл и Саймон , AI в CMU (тогда назывался Carnegie Tech ): * McCorduck 2004 , стр. 139–179, 245–250, 322–323 (EPAM)* Crevier 1993 , стр. 145–149
  171. ^ Сор (история): * McCorduck 2004 . С. 450-451* Кревьер 1993 . С. 258-263
  172. ^ Маккарти и исследования AI в SAIL и SRI International : * McCorduck 2004 , стр. 251–259*Crevier 1993
  173. Исследования искусственного интеллекта в Эдинбурге и во Франции, рождение Пролога : * Crevier 1993 , стр. 193–196 * Howe 1994
  174. AI в Массачусетском технологическом институте под руководством Марвина Мински в 1960-х: * McCorduck 2004 , стр. 259–305*Crevier 1993 , стр. 83–102, 163–176 * Russell & Norvig 2003 , p. 19
  175. ^ Сус : * McCorduck 2004 , стр. 489, который называет это «решительно неряшливым предприятием» * Crevier 1993 , pp. 239–243 * Russell & Norvig 2003 , p. 363−365* Ленат и Гуха, 1989
  176. ^ Революция знаний: * McCorduck 2004 , стр. 266–276, 298–300, 314, 421* Russell & Norvig 2003 , стр. 22–23
  177. ^ Фредерик, Хейс-Рот; Уильям, Мюррей; Леонард, Адельман. «Экспертные системы». AccessScience . DOI : 10.1036 / 1097-8542.248550 .
  178. ^ Воплощенные подходы к AI: * McCorduck 2004 , стр. 454–462* Brooks 1990 * Moravec 1988
  179. ^ Weng et al. 2001 .
  180. ^ Lungarella et al. 2003 .
  181. ^ Асада и др. 2009 .
  182. ^ Oudeyer 2010 .
  183. ^ Возрождение коннекционизма : * Кревьер 1993 , стр 214-215 *. Russell & Норвиг 2003 , стр. 25
  184. ^ Вычислительный интеллект * IEEE Computational Intelligence Society. Архивировано 9 мая 2008 г. на Wayback Machine.
  185. ^ Хутсон, Мэтью (16 февраля 2018). «Искусственный интеллект переживает кризис воспроизводимости» . Наука . С. 725–726. Bibcode : 2018Sci ... 359..725H . DOI : 10.1126 / science.359.6377.725 . Архивировано 29 апреля 2018 года . Проверено 28 апреля 2018 .
  186. ^ Норвиг 2012 .
  187. Перейти ↑ Langley 2011 .
  188. ^ Кац 2012 .
  189. ^ Интеллектуальный агент парадигма: * Russell & Норвиг 2003 ., Стр 27, 32-58, 968-972* Poole, Макворт & Гебель 1998 . С. 7-21 * Luger & Stubblefield 2004 . С. 235-240 * Хуттер 2005 , pp. 125–126 Определение, используемое в этой статье, с точки зрения целей, действий, восприятия и окружающей среды, принадлежит Russell & Norvig (2003) . Другие определения также включают знания и обучение в качестве дополнительных критериев.
  190. ^ Агентские архитектуры , гибридные интеллектуальные системы : * Russell & Norvig (2003 , стр. 27, 932, 970–972)* Nilsson (1998 , глава 25)
  191. ^ Иерархическая система управления : * Альбус 2002
  192. ^ Лието, Антонио; Бхатт, Мехул; Ольтрамари, Алессандро; Вернон, Дэвид (май 2018 г.). «Роль когнитивных архитектур в общем искусственном интеллекте». Исследование когнитивных систем . 48 : 1–3. DOI : 10.1016 / j.cogsys.2017.08.003 . hdl : 2318/1665249 . S2CID 36189683 . 
  193. ^ a b Russell & Norvig 2009 , стр. 1.
  194. ^ a b Белая книга: «Об искусственном интеллекте - европейский подход к совершенству и доверию» (PDF) . Брюссель: Европейская комиссия. 2020. с. 1. Архивировано (PDF) из оригинала 20 февраля 2020 года . Проверено 20 февраля 2020 года .
  195. ^ «ИИ должен превзойти возможности человеческого мозга» . CNN . 9 августа 2006 г. Архивировано 19 февраля 2008 г.
  196. Использование ИИ для прогнозирования задержек рейсов. Архивировано 20 ноября 2018 г. в Wayback Machine , Ishti.org.
  197. ^ Н. Алетрас; Д. Царапатсанис; Д. Преотюк-Пьетро; В. Лампос (2016). «Прогнозирование судебных решений Европейского суда по правам человека: перспектива обработки естественного языка» . PeerJ Computer Science . 2 : e93. DOI : 10.7717 / peerj-cs.93 .
  198. ^ «The Economist объясняет: почему фирмы вливаются в искусственный интеллект» . Экономист . 31 марта 2016 года архивации с оригинала на 8 мая 2016 года . Дата обращения 19 мая 2016 .
  199. ^ Лор, Стив (28 февраля 2016). «Перспектива искусственного интеллекта раскрывается маленькими шагами» . Нью-Йорк Таймс . Архивировано 29 февраля 2016 года . Проверено 29 февраля +2016 .
  200. ^ Frangoul, Anmar (14 июня 2019). «Калифорнийский бизнес использует ИИ, чтобы изменить наше представление о хранении энергии» . CNBC . Архивировано 25 июля 2020 года . Дата обращения 5 ноября 2019 .
  201. Уэйкфилд, Джейн (15 июня 2016 г.). «Социальные сети« опережают телевидение »как источник новостей для молодежи» . BBC News . Архивировано 24 июня 2016 года.
  202. ^ Смит, Марк (22 июля 2016 г.). «Так ты думаешь, что предпочел прочитать эту статью?» . BBC News . Архивировано 25 июля 2016 года.
  203. ^ Браун, Эйлин. «Половина американцев не верят, что новости deepfake могут быть нацелены на них в Интернете» . ZDNet . Архивировано 6 ноября 2019 года . Проверено 3 декабря 2019 .
  204. Золя, Андрей (12 апреля 2019 г.). «Подготовка к интервью: 40 вопросов об искусственном интеллекте» . Блог Springboard .
  205. ^ Тест Тьюринга :
    оригинальная публикация Тьюринга : * Тьюринг 1950 Историческое влияние и философские последствия: * Haugeland 1985 , стр. 6–9 * Crevier 1993 , p. 24 * McCorduck 2004 , стр. 70–71* Russell & Norvig 2003 , стр. 2–3 и 948
  206. ^ Предложение Дартмута: * McCarthy et al. 1955 г. (первоначальное предложение) * Crevier 1993 , p. 49 (историческое значение)
  207. ^ Гипотеза физических систем символов : * Newell & Simon 1976 , p. 116 * McCorduck 2004 , стр. 153* Russell & Norvig 2003 , стр. 18
  208. Перейти ↑ Dreyfus 1992 , p. 156.
  209. ^ Критика искусственного интеллекта Дрейфусом : * Dreyfus 1972 , Dreyfus & Dreyfus 1986 * Crevier 1993 , pp. 120–132 * McCorduck 2004 , pp. 211–239* Russell & Norvig 2003 , pp. 950–952,
  210. Gödel 1951 : в этой лекции Курт Гёдель использует теорему о неполноте, чтобы прийти к следующей дизъюнкции: (a) человеческий разум не является последовательной конечной машиной, или (b) существуют диофантовы уравнения, для которых он не может решить, существуют ли решения . Гёдель считает (б) неправдоподобным и, таким образом, кажется, полагает, что человеческий разум не эквивалентен конечной машине, т. Е. Его мощность превышает мощность любой конечной машины. Он признал, что это всего лишь предположение, поскольку никто не может опровергнуть (б). Тем не менее, он считал дизъюнктивный вывод «несомненным фактом».
  211. ^ Математическое возражение: * Russell & Norvig 2003 , p. 949* McCorduck 2004 , стр. 448–449 Высказывание математического возражения: * Лукас 1961 * Пенроуз 1989 Опровержение математического возражения: * Тьюринг 1950 в статье «(2) Математическое возражение» * Хофштадтер 1979 Предыстория: * Gödel 1931, Church 1936, Kleene 1935 г., Тьюринг 1937 г.
  212. ^ Грей Оппи (20 января 2015). «Теоремы Гёделя о неполноте» . Стэнфордская энциклопедия философии . Архивировано 22 апреля 2016 года . Проверено 27 апреля 2016 года . Однако эти гёделевские антимеханистские аргументы проблематичны, и существует широкий консенсус в отношении их несостоятельности.
  213. ^ Стюарт Дж. Рассел ; Питер Норвиг (2010). «26.1.2: Философские основы / Слабый ИИ: могут ли машины действовать разумно? / Математическое возражение». Искусственный интеллект: современный подход (3-е изд.). Река Аппер Сэдл, штат Нью-Джерси: Prentice Hall . ISBN 978-0-13-604259-4. даже если мы допустим, что у компьютеров есть ограничения на то, что они могут доказать, нет никаких доказательств того, что люди застрахованы от этих ограничений.
  214. ^ Марк Коливан. Введение в философию математики. Cambridge University Press , 2012. Из 2.2.2, «Философское значение результатов Геделя о неполноте»: «Общепринятая мудрость (с которой я согласен) состоит в том, что аргументы Лукаса-Пенроуза терпят неудачу».
  215. ^ Ипхофен, Рон; Критикос, Михалис (3 января 2019 г.). «Регулирование искусственного интеллекта и робототехники: этика по замыслу в цифровом обществе». Современные социальные науки : 1–15. DOI : 10.1080 / 21582041.2018.1563803 . ISSN 2158-2041 . 
  216. ^ «Этический ИИ изучает рамки прав человека» . Голос Америки . Архивировано 11 ноября 2019 года . Проверено 10 ноября 2019 .
  217. ^ Кревьер 1993 , стр. 132-144.
  218. ^ Критика ИИ Джозефом Вайзенбаумом : * Weizenbaum 1976 * Crevier 1993 , pp. 132–144 * McCorduck 2004 , pp. 356–373* Russell & Norvig 2003 , p. 961Weizenbaum (исследователь А.И.который разработал первую Chatterbot программу, Элиза ) утверждал в 1976 г.что злоупотребление искусственным интеллектом обладает потенциалом девальвировать жизни человека.
  219. Перейти ↑ Wallach, Wendell (2010). Моральные машины . Издательство Оксфордского университета.
  220. Перейти ↑ Wallach, 2010 , pp. 37–54.
  221. Перейти ↑ Wallach, 2010 , pp. 55–73.
  222. ^ Wallach 2010 , «Введение».
  223. ^ a b Майкл Андерсон и Сьюзан Ли Андерсон (2011), Машинная этика, Cambridge University Press.
  224. ^ а б «Машинная этика» . aaai.org . Архивировано из оригинального 29 ноября 2014 года.
  225. ^ Рубин, Чарльз (весна 2003 г.). «Искусственный интеллект и природа человека» . Новая Атлантида . 1 : 88–100. Архивировано из оригинального 11 июня 2012 года .
  226. Брукс, Родни (10 ноября 2014 г.). «искусственный интеллект - это инструмент, а не угроза» . Архивировано из оригинального 12 ноября 2014 года.
  227. ^ «Стивен Хокинг, Илон Маск и Билл Гейтс предупреждают об искусственном интеллекте» . Наблюдатель . 19 августа 2015 года. Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  228. ^ Чалмерс, Дэвид (1995). «Лицом к проблеме сознания» . Журнал исследований сознания . 2 (3): 200–219. Архивировано 8 марта 2005 года . Проверено 11 октября 2018 года .См. Также эту ссылку. Архивировано 8 апреля 2011 г. на Wayback Machine.
  229. Хорст, Стивен , (2005) «Вычислительная теория разума». Архивировано 11 сентября 2018 года на Wayback Machine в Стэнфордской энциклопедии философии.
  230. Перейти ↑ Searle 1980 , p. 1.
  231. ^ АргументСирла о китайской комнате : * Searle 1980 . Оригинальное представление мысленного эксперимента Сирлом. * Сирл 1999 . Обсуждение: * Russell & Norvig 2003 , стр. 958–960 * McCorduck 2004 , стр. 443–445*Crevier 1993 , стр. 269–271
  232. ^ Права роботов : * Russell & Норвиг 2003 , стр. 964Недоношенность: * Хендерсон 2007 В художественной литературе: * МакКордак (2004 , стр. 190–25)обсуждает Франкенштейна и определяет ключевые этические проблемы как научное высокомерие и страдания монстра, то есть права роботов .
  233. ^ «Роботы могут требовать законных прав» . BBC News . 21 декабря 2006. Архивировано 15 октября 2019 года . Проверено 3 февраля 2011 года .
  234. ^ Эванс, Вуди (2015). «Постчеловеческие права: измерения трансчеловеческих миров» . Текнокультура . 12 (2). DOI : 10.5209 / rev_TK.2015.v12.n2.49072 .
  235. ^ машафильм. «Содержание: Plug & Pray Film - Искусственный интеллект - Роботы -» . plugandpray-film.de . Архивировано 12 февраля 2016 года.
  236. ^ Omohundro, Steve (2008). Природа самоулучшающегося искусственного интеллекта . представлен и распространен на Саммите Singularity 2007, Сан-Франциско, Калифорния.
  237. ^ a b c Технологическая особенность : * Vinge 1993 * Kurzweil 2005 * Russell & Norvig 2003 , p. 963
  238. ^ Трансгуманизм : * Moravec 1988 * Kurzweil 2005 * Russell & Norvig 2003 , стр. 963
  239. ^ AI как эволюция: * Эдвард Фредкин цитируется в McCorduck (2004 , стр. 401). * Батлер 1863 * Дайсон 1998
  240. ^ «Роботы и искусственный интеллект» . www.igmchicago.org . Архивировано 1 мая 2019 года . Дата обращения 3 июля 2019 .
  241. ^ «Определение размера приза: глобальное исследование искусственного интеллекта PwC - использование революции искусственного интеллекта» (PDF) . Проверено 11 ноября 2020 .
  242. ^ Э. МакГоги, «Будут ли роботы автоматизировать вашу работу?» Полная занятость, базовый доход и экономическая демократия '(2018) SSRN, часть 2 (3). Архивировано 24 мая 2018 года в Wayback Machine.
  243. ^ «Автоматизация и беспокойство» . Экономист . 9 мая 2015. Архивировано 12 января 2018 года . Проверено 13 января 2018 .
  244. ^ Лор, Стив (2017). «Роботы займутся рабочими местами, но не так быстро, как некоторые опасаются, - говорится в новом отчете» . Нью-Йорк Таймс . Архивировано 14 января 2018 года . Проверено 13 января 2018 .
  245. ^ Фрей, Карл Бенедикт; Осборн, Майкл А. (1 января 2017 г.). «Будущее занятости: насколько рабочие места подвержены компьютеризации?». Технологическое прогнозирование и социальные изменения . 114 : 254–280. CiteSeerX 10.1.1.395.416 . DOI : 10.1016 / j.techfore.2016.08.019 . ISSN 0040-1625 .  
  246. ^ Арнц, Мелани, Терри Грегори и Ульрих Зиеран. «Риск автоматизации рабочих мест в странах ОЭСР: сравнительный анализ». Рабочие документы ОЭСР по социальным вопросам, вопросам занятости и миграции 189 (2016 г.). п. 33.
  247. ^ Mahdawi, Arwa (26 июня 2017). «Какие рабочие места будут по-прежнему доступны через 20 лет? Прочтите это, чтобы подготовить свое будущее» . Хранитель . Архивировано 14 января 2018 года . Проверено 13 января 2018 .
  248. ^ Саймон, Мэтт (1 апреля 2019 г.). «Президентская ставка Эндрю Яна - это очень 21 век» . Проводной . Архивировано 24 июня 2019 года . Проверено 2 мая 2019 г. - через www.wired.com.
  249. ^ «Пять экспертов рассказывают, что их больше всего пугает в ИИ» . 5 сентября 2018. Архивировано 8 декабря 2019 года . Проверено 8 декабря 2019 .
  250. ^ Рассел, Стюарт., Дэниел Дьюи и Макс Тегмарк. Приоритеты исследований в области надежного и эффективного искусственного интеллекта. Журнал AI 36: 4 (2015). 8 декабря 2016.
  251. ^ «Комментарий: Плохие новости. Искусственный интеллект предвзят» . CNA . 12 января 2019 года. Архивировано 12 января 2019 года . Проверено 19 июня 2020 .
  252. Джефф Ларсон, Джулия Ангвин (23 мая 2016 г.). «Как мы проанализировали алгоритм рецидивизма КОМПАС» . ProPublica . Архивировано 29 апреля 2019 года . Проверено 19 июня 2020 .
  253. Роулинсон, Кевин (29 января 2015 г.). «Билл Гейтс из Microsoft настаивает, что ИИ представляет собой угрозу» . BBC News . Архивировано 29 января 2015 года . Проверено 30 января 2015 года .
  254. ^ Holley, Питер (28 января 2015). «Билл Гейтс об опасностях искусственного интеллекта:« Я не понимаю, почему некоторых людей это не волнует » » . Вашингтон Пост . ISSN 0190-8286 . Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года . 
  255. Гиббс, Сэмюэл (27 октября 2014 г.). «Илон Маск: искусственный интеллект - наша самая большая угроза существованию» . Хранитель . Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  256. ^ Churm, Филип Эндрю (14 мая 2019). «Юваль Ной Харари говорит о политике, технологиях и миграции» . Евроньюс . Дата обращения 15 ноября 2020 .
  257. ^ Cellan-Джонс, Рори (2 декабря 2014). «Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству» . BBC News . Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  258. ^ Бостром, Ник (2015). «Что произойдет, когда наши компьютеры станут умнее нас?» . TED (конференция) . Архивировано 25 июля 2020 года . Проверено 30 января 2020 года .
  259. ^ a b Рассел, Стюарт (8 октября 2019 г.). Совместимость с человеком: искусственный интеллект и проблема контроля . США: Викинг. ISBN 978-0-525-55861-3. OCLC  1083694322 .
  260. ^ Сообщение, Вашингтон. «Технические титаны, такие как Илон Маск, тратят 1 миллиард долларов, чтобы спасти вас от терминаторов» . Архивировано 7 июня 2016 года.
  261. ^ Мюллер, Винсент С .; Бостром, Ник (2014). «Будущий прогресс в области искусственного интеллекта: опрос экспертов» (PDF) . AI имеет значение . 1 (1): 9–11. DOI : 10.1145 / 2639475.2639478 . S2CID 8510016 . Архивировано 15 января 2016 года (PDF) .  
  262. ^ «Генеральный директор Oracle Марк Херд не видит причин опасаться ERP AI» . Поиск по ERP . Архивировано 6 мая 2019 года . Дата обращения 6 мая 2019 .
  263. ^ «Марк Цукерберг отвечает на паранойю Элон Маск по поводу AI:„AI собирается ... помочь сохранить наши общины безопасно. » . Business Insider . 25 мая 2018. Архивировано 6 мая 2019 года . Дата обращения 6 мая 2019 .
  264. ^ «Таинственная компания искусственного интеллекта, в которую инвестировал Илон Маск, разрабатывает умные компьютеры, меняющие правила игры» . Tech Insider . Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  265. ^ Кларк 2015a .
  266. ^ «Илон Маск жертвует 10 миллионов долларов своих собственных денег на исследования в области искусственного интеллекта» . Быстрая компания . 15 января 2015. Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  267. ^ "Является ли искусственный интеллект реальной угрозой человечеству?" . Бюллетень ученых-атомщиков . 9 августа 2015. Архивировано 30 октября 2015 года . Проверено 30 октября 2015 года .
  268. ^ «Дело против роботов-убийц от парня, который работает над искусственным интеллектом» . Fusion.net . Архивировано 4 февраля 2016 года . Проверено 31 января 2016 года .
  269. ^ «Уничтожит ли искусственный интеллект человечество? Вот 5 причин не волноваться» . Vox . 22 августа 2014. архивации с оригинала на 30 октября 2015 года . Проверено 30 октября 2015 года .
  270. ^ Беррихилл, Джейми; Хеанг, Кевин Кок; Клогер, Роб; Макбрайд, Киган (2019). Привет, мир: искусственный интеллект и его использование в государственном секторе (PDF) . Париж: Обсерватория инноваций в государственном секторе ОЭСР. Архивировано 20 декабря 2019 года (PDF) . Дата обращения 9 августа 2020 .
  271. ^ Барфилд, Вудроу; Пагалло, Уго (2018). Справочник по законам искусственного интеллекта . Челтнем, Великобритания. ISBN 978-1-78643-904-8. OCLC  1039480085 .
  272. ^ Юридическая библиотека Конгресса (США). Издательский орган, Управление глобальных правовых исследований. Регулирование искусственного интеллекта в отдельных юрисдикциях . LCCN 2019668143 . OCLC 1110727808 .  
  273. ^ Wirtz, Bernd W .; Weyerer, Jan C .; Гейер, Кэролин (24 июля 2018 г.). «Искусственный интеллект и государственный сектор - приложения и проблемы» . Международный журнал государственного управления . 42 (7): 596–615. DOI : 10.1080 / 01900692.2018.1498103 . ISSN 0190-0692 . S2CID 158829602 . Архивировано 18 августа 2020 года . Проверено 22 августа 2020 .  
  274. ^ Buiten, Мириам С (2019). «На пути к интеллектуальному регулированию искусственного интеллекта» . Европейский журнал регулирования рисков . 10 (1): 41–59. DOI : 10.1017 / err.2019.8 . ISSN 1867-299X . 
  275. ^ Сотала, Кадж; Ямпольский, Роман V (19 декабря 2014 г.). «Ответы на катастрофический риск AGI: обзор» . Physica Scripta . 90 (1): 018001. DOI : 10,1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 . 
  276. ^ Buttazzo, G. (июль 2001). «Искусственное сознание: утопия или реальная возможность?». Компьютер . 34 (7): 24–30. DOI : 10.1109 / 2.933500 .
  277. ^ Андерсон, Сьюзен Ли. «Три закона робототехники Азимова» и машинная метаэтика ». Искусственный интеллект и общество 22,4 (2008): 477–493.
  278. Перейти ↑ McCauley, Lee (2007). «Армагедон искусственного интеллекта и три закона робототехники». Этика и информационные технологии . 9 (2): 153–164. CiteSeerX 10.1.1.85.8904 . DOI : 10.1007 / s10676-007-9138-2 . S2CID 37272949 .  
  279. Гальван, Джилл (1 января 1997 г.). "Вхождение в коллектив постчеловека в фильме Филипа К. Дика" Мечтают ли андроиды об электрических овцах? " ". Научно-фантастические исследования . 24 (3): 413–429. JSTOR 4240644 . 

Учебники по искусственному интеллекту

  • Хаттер, Маркус (2005). Универсальный искусственный интеллект . Берлин: Springer. ISBN 978-3-540-22139-5.
  • Джексон, Филипп (1985). Введение в искусственный интеллект (2-е изд.). Дувр. ISBN 978-0-486-24864-6. Архивировано 26 июля 2020 года . Дата обращения 4 марта 2020 .
  • Люгер, Джордж ; Стаблфилд, Уильям (2004). Искусственный интеллект: структуры и стратегии решения сложных проблем (5-е изд.). Бенджамин / Каммингс. ISBN 978-0-8053-4780-7. Архивировано 26 июля 2020 года . Проверено 17 декабря 2019 .
  • Неаполитанец, Ричард ; Цзян, Ся (2018). Искусственный интеллект: введение в машинное обучение . Чепмен и Холл / CRC. ISBN 978-1-138-50238-3. Архивировано 22 августа 2020 года . Проверено 3 января 2018 .
  • Нильссон, Нильс (1998). Искусственный интеллект: новый синтез . Морган Кауфманн. ISBN 978-1-55860-467-4. Архивировано 26 июля 2020 года . Проверено 18 ноября 2019 .
  • Рассел, Стюарт Дж .; Норвиг, Питер (2003), Искусственный интеллект: современный подход (2-е изд.), Верхняя река Сэдл, Нью-Джерси: Prentice Hall, ISBN 0-13-790395-2.
  • Рассел, Стюарт Дж .; Норвиг, Питер (2009). Искусственный интеллект: современный подход (3-е изд.). Река Аппер Сэдл, Нью-Джерси: Prentice Hall. ISBN 978-0-13-604259-4..
  • Пул, Дэвид ; Макворт, Алан ; Гебель, Рэнди (1998). Вычислительный интеллект: логический подход . Нью-Йорк: Издательство Оксфордского университета. ISBN 978-0-19-510270-3. Архивировано 26 июля 2020 года . Проверено 22 августа 2020 .
  • Уинстон, Патрик Генри (1984). Искусственный интеллект . Ридинг, Массачусетс: Эддисон-Уэсли. ISBN 978-0-201-08259-3. Архивировано 26 июля 2020 года . Проверено 22 августа 2020 .
  • Рич, Элейн (1983). Искусственный интеллект . Макгроу-Хилл. ISBN 978-0-07-052261-9. Архивировано 26 июля 2020 года . Проверено 17 декабря 2019 .
  • Банди, Алан (1980). Искусственный интеллект: вводный курс (2-е изд.). Издательство Эдинбургского университета. ISBN 978-0-85224-410-4.
  • Пул, Дэвид ; Макворт, Алан (2017). Искусственный интеллект: основы вычислительных агентов (2-е изд.). Издательство Кембриджского университета. ISBN 978-1-107-19539-4. Архивировано 7 декабря 2017 года . Проверено 6 декабря 2017 года .
  • Ауффарт, Бен (2020). Искусственный интеллект с помощью Python Cookbook: проверенные рецепты применения алгоритмов искусственного интеллекта и методов глубокого обучения с использованием TensorFlow 2.x и PyTorch 1.6 (1-е изд.). Packt Publishing. ISBN 978-1-78913-396-7. Проверено 13 января 2021 года .
  • Гордон, Синди (март 2021 г.). Дилемма AI (1-е изд.). Публикация БПБ. п. 224. ISBN 9788194837787.

История ИИ

  • Кревье, Даниэль (1993), AI: Бурный поиск искусственного интеллекта , Нью-Йорк, Нью-Йорк: BasicBooks, ISBN 0-465-02997-3 .
  • МакКордак, Памела (2004), Машины, которые думают (2-е изд.), Натик, Массачусетс: AK Peters, Ltd., ISBN 1-56881-205-1.
  • Ньюквист, HP (1994). Создатели мозга: гений, эго и жадность в поисках мыслящих машин . Нью-Йорк: Macmillan / SAMS. ISBN 978-0-672-30412-5.
  • Нильссон, Нильс (2009). В поисках искусственного интеллекта: история идей и достижений . Нью-Йорк: Издательство Кембриджского университета. ISBN 978-0-521-12293-1.

Другие источники

  • «Система классификации вычислений ACM: Искусственный интеллект» . ACM . 1998. Архивировано из оригинального 12 октября 2007 года . Проверено 30 августа 2007 года .
  • Альбус, JS (2002). «4-D ​​/ RCS: эталонная модель архитектуры для интеллектуальных беспилотных наземных транспортных средств» (PDF) . В Gerhart, G .; Gunderson, R .; Шумейкер, К. (ред.). Материалы сессии SPIE AeroSense по беспилотным наземным транспортным средствам . Беспилотные наземные транспортные средства IV. 3693 . С. 11–20. Bibcode : 2002SPIE.4715..303A . CiteSeerX  10.1.1.15.14 . DOI : 10.1117 / 12.474462 . S2CID  63339739 . Архивировано из оригинального (PDF) 25 июля 2004 года.
  • Александр, Игорь (1995). Искусственное нейросознание: обновление . Я ХОЧУ. Архивировано из оригинального 2 -го марта 1997 года. BibTex Заархивировано 2 марта 1997 года в Wayback Machine .
  • Asada, M .; Hosoda, K .; Kuniyoshi, Y .; Ishiguro, H .; Inui, T .; Yoshikawa, Y .; Огино, М .; Йошида, К. (2009). «Когнитивная развивающая робототехника: обзор». IEEE Transactions по автономному умственному развитию . 1 (1): 12–34. DOI : 10.1109 / tamd.2009.2021702 . S2CID  10168773 .
  • Bach, Joscha (2008). "Seven Principles of Synthetic Intelligence". In Wang, Pei; Goertzel, Ben; Franklin, Stan (eds.). Artificial General Intelligence, 2008: Proceedings of the First AGI Conference. IOS Press. pp. 63–74. ISBN 978-1-58603-833-5. Archived from the original on 8 July 2016. Retrieved 16 February 2016.
  • Brooks, Rodney (1990). "Elephants Don't Play Chess" (PDF). Robotics and Autonomous Systems. 6 (1–2): 3–15. CiteSeerX 10.1.1.588.7539. doi:10.1016/S0921-8890(05)80025-9. Archived (PDF) from the original on 9 August 2007.
  • Brooks, R. A. (1991). "How to build complete creatures rather than isolated cognitive simulators". In VanLehn, K. (ed.). Architectures for Intelligence. Hillsdale, NJ: Lawrence Erlbaum Associates. pp. 225–239. CiteSeerX 10.1.1.52.9510.
  • Buchanan, Bruce G. (2005). "A (Very) Brief History of Artificial Intelligence" (PDF). AI Magazine: 53–60. Archived from the original (PDF) on 26 September 2007.
  • Butler, Samuel (13 June 1863). "Darwin among the Machines". Letters to the Editor. The Press. Christchurch, New Zealand. Archived from the original on 19 September 2008. Retrieved 16 October 2014 – via Victoria University of Wellington.
  • Clark, Jack (1 July 2015a). "Musk-Backed Group Probes Risks Behind Artificial Intelligence". Bloomberg.com. Archived from the original on 30 October 2015. Retrieved 30 October 2015.
  • Clark, Jack (8 December 2015b). "Why 2015 Was a Breakthrough Year in Artificial Intelligence". Bloomberg.com. Archived from the original on 23 November 2016. Retrieved 23 November 2016.
  • Dennett, Daniel (1991). Consciousness Explained. The Penguin Press. ISBN 978-0-7139-9037-9.
  • Domingos, Pedro (2015). The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Basic Books. ISBN 978-0-465-06192-1.
  • Dowe, D. L.; Hajek, A. R. (1997). "A computational extension to the Turing Test". Proceedings of the 4th Conference of the Australasian Cognitive Science Society. Archived from the original on 28 June 2011.
  • Dreyfus, Hubert (1972). What Computers Can't Do. New York: MIT Press. ISBN 978-0-06-011082-6.
  • Dreyfus, Hubert; Dreyfus, Stuart (1986). Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. Oxford, UK: Blackwell. ISBN 978-0-02-908060-3. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Dreyfus, Hubert (1992). What Computers Still Can't Do. New York: MIT Press. ISBN 978-0-262-54067-4.
  • Dyson, George (1998). Darwin among the Machines. Allan Lane Science. ISBN 978-0-7382-0030-9. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Edelman, Gerald (23 November 2007). "Gerald Edelman – Neural Darwinism and Brain-based Devices". Talking Robots. Archived from the original on 8 October 2009.
  • Edelson, Edward (1991). The Nervous System. New York: Chelsea House. ISBN 978-0-7910-0464-7. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
  • Fearn, Nicholas (2007). The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers. New York: Grove Press. ISBN 978-0-8021-1839-4.
  • Gladwell, Malcolm (2005). Blink. New York: Little, Brown and Co. ISBN 978-0-316-17232-5.
  • Gödel, Kurt (1951). Some basic theorems on the foundations of mathematics and their implications. Gibbs Lecture. In
    Feferman, Solomon, ed. (1995). Kurt Gödel: Collected Works, Vol. III: Unpublished Essays and Lectures. Oxford University Press. pp. 304–23. ISBN 978-0-19-514722-3.
  • Goodman, Joanna (2016). Robots in Law: How Artificial Intelligence is Transforming Legal Services (1st ed.). Ark Group. ISBN 978-1-78358-264-8. Archived from the original on 8 November 2016. Retrieved 7 November 2016.
  • Haugeland, John (1985). Artificial Intelligence: The Very Idea. Cambridge, Mass.: MIT Press. ISBN 978-0-262-08153-5.
  • Hawkins, Jeff; Blakeslee, Sandra (2005). On Intelligence. New York, NY: Owl Books. ISBN 978-0-8050-7853-4.
  • Henderson, Mark (24 April 2007). "Human rights for robots? We're getting carried away". The Times Online. London. Archived from the original on 31 May 2014. Retrieved 31 May 2014.
  • Hernandez-Orallo, Jose (2000). "Beyond the Turing Test". Journal of Logic, Language and Information. 9 (4): 447–466. doi:10.1023/A:1008367325700. S2CID 14481982.
  • Hernandez-Orallo, J.; Dowe, D. L. (2010). "Measuring Universal Intelligence: Towards an Anytime Intelligence Test". Artificial Intelligence. 174 (18): 1508–1539. CiteSeerX 10.1.1.295.9079. doi:10.1016/j.artint.2010.09.006.
  • Hinton, G. E. (2007). "Learning multiple layers of representation". Trends in Cognitive Sciences. 11 (10): 428–434. doi:10.1016/j.tics.2007.09.004. PMID 17921042. S2CID 15066318.
  • Hofstadter, Douglas (1979). Gödel, Escher, Bach: an Eternal Golden Braid. New York, NY: Vintage Books. ISBN 978-0-394-74502-2.
  • Holland, John H. (1975). Adaptation in Natural and Artificial Systems. University of Michigan Press. ISBN 978-0-262-58111-0. Archived from the original on 26 July 2020. Retrieved 17 December 2019.
  • Howe, J. (November 1994). "Artificial Intelligence at Edinburgh University: a Perspective". Archived from the original on 15 May 2007. Retrieved 30 August 2007.
  • Hutter, M. (2012). "One Decade of Universal Artificial Intelligence". Theoretical Foundations of Artificial General Intelligence. Atlantis Thinking Machines. 4. pp. 67–88. CiteSeerX 10.1.1.228.8725. doi:10.2991/978-94-91216-62-6_5. ISBN 978-94-91216-61-9. S2CID 8888091.
  • Kahneman, Daniel; Slovic, D.; Tversky, Amos (1982). Judgment under uncertainty: Heuristics and biases. Science. 185. New York: Cambridge University Press. pp. 1124–1131. doi:10.1126/science.185.4157.1124. ISBN 978-0-521-28414-1. PMID 17835457. S2CID 143452957.
  • Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence". Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004.
  • Katz, Yarden (1 November 2012). "Noam Chomsky on Where Artificial Intelligence Went Wrong". The Atlantic. Archived from the original on 28 February 2019. Retrieved 26 October 2014.
  • Koza, John R. (1992). Genetic Programming (On the Programming of Computers by Means of Natural Selection). MIT Press. Bibcode:1992gppc.book.....K. ISBN 978-0-262-11170-6.
  • Kolata, G. (1982). "How can computers get common sense?". Science. 217 (4566): 1237–1238. Bibcode:1982Sci...217.1237K. doi:10.1126/science.217.4566.1237. PMID 17837639.
  • Kumar, Gulshan; Kumar, Krishan (2012). "The Use of Artificial-Intelligence-Based Ensembles for Intrusion Detection: A Review". Applied Computational Intelligence and Soft Computing. 2012: 1–20. doi:10.1155/2012/850160.
  • Kurzweil, Ray (1999). The Age of Spiritual Machines. Penguin Books. ISBN 978-0-670-88217-5.
  • Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 978-0-670-03384-3.
  • Lakoff, George; Núñez, Rafael E. (2000). Where Mathematics Comes From: How the Embodied Mind Brings Mathematics into Being. Basic Books. ISBN 978-0-465-03771-1.
  • Langley, Pat (2011). "The changing science of machine learning". Machine Learning. 82 (3): 275–279. doi:10.1007/s10994-011-5242-y.
  • Law, Diane (June 1994). Searle, Subsymbolic Functionalism and Synthetic Intelligence (Technical report). University of Texas at Austin. p. AI94-222. CiteSeerX 10.1.1.38.8384.
  • Legg, Shane; Hutter, Marcus (15 June 2007). A Collection of Definitions of Intelligence (Technical report). IDSIA. arXiv:0706.3639. Bibcode:2007arXiv0706.3639L. 07-07.
  • Lenat, Douglas; Guha, R. V. (1989). Building Large Knowledge-Based Systems. Addison-Wesley. ISBN 978-0-201-51752-1.
  • Lighthill, James (1973). "Artificial Intelligence: A General Survey". Artificial Intelligence: a paper symposium. Science Research Council.
  • Lucas, John (1961). "Minds, Machines and Gödel". In Anderson, A.R. (ed.). Minds and Machines. Archived from the original on 19 August 2007. Retrieved 30 August 2007.
  • Lungarella, M.; Metta, G.; Pfeifer, R.; Sandini, G. (2003). "Developmental robotics: a survey". Connection Science. 15 (4): 151–190. CiteSeerX 10.1.1.83.7615. doi:10.1080/09540090310001655110. S2CID 1452734.
  • Maker, Meg Houston (2006). "AI@50: AI Past, Present, Future". Dartmouth College. Archived from the original on 3 January 2007. Retrieved 16 October 2008.
  • Markoff, John (16 February 2011). "Computer Wins on 'Jeopardy!': Trivial, It's Not". The New York Times. Archived from the original on 22 October 2014. Retrieved 25 October 2014.
  • McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955). "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence". Archived from the original on 26 August 2007. Retrieved 30 August 2007.
  • McCarthy, John; Hayes, P. J. (1969). "Some philosophical problems from the standpoint of artificial intelligence". Machine Intelligence. 4: 463–502. CiteSeerX 10.1.1.85.5082. Archived from the original on 10 August 2007. Retrieved 30 August 2007.
  • McCarthy, John (12 November 2007). "What Is Artificial Intelligence?". www-formal.stanford.edu. Archived from the original on 18 November 2015.
  • McCarthy, John (12 November 2007). "Applications of AI". www-formal.stanford.edu. Archived from the original on 28 August 2016. Retrieved 25 September 2016.
  • Minsky, Marvin (1967). Computation: Finite and Infinite Machines. Englewood Cliffs, N.J.: Prentice-Hall. ISBN 978-0-13-165449-5. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
  • Minsky, Marvin (2006). The Emotion Machine. New York, NY: Simon & Schusterl. ISBN 978-0-7432-7663-4.
  • Moravec, Hans (1988). Mind Children. Harvard University Press. ISBN 978-0-674-57616-2. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
  • Norvig, Peter (25 June 2012). "On Chomsky and the Two Cultures of Statistical Learning". Peter Norvig. Archived from the original on 19 October 2014.
  • NRC (United States National Research Council) (1999). "Developments in Artificial Intelligence". Funding a Revolution: Government Support for Computing Research. National Academy Press.
  • Needham, Joseph (1986). Science and Civilization in China: Volume 2. Caves Books Ltd.
  • Newell, Allen; Simon, H. A. (1976). "Computer Science as Empirical Inquiry: Symbols and Search". Communications of the ACM. 19 (3): 113–126. doi:10.1145/360018.360022..
  • Nilsson, Nils (1983). "Artificial Intelligence Prepares for 2001" (PDF). AI Magazine. 1 (1). Archived (PDF) from the original on 17 August 2020. Retrieved 22 August 2020. Presidential Address to the Association for the Advancement of Artificial Intelligence.
  • O'Brien, James; Marakas, George (2011). Management Information Systems (10th ed.). McGraw-Hill/Irwin. ISBN 978-0-07-337681-3.
  • O'Connor, Kathleen Malone (1994). The alchemical creation of life (takwin) and other concepts of Genesis in medieval Islam (Dissertation). University of Pennsylvania. pp. 1–435. AAI9503804. Archived from the original on 5 December 2019. Retrieved 27 August 2008 – via Dissertations available from ProQuest.
  • Oudeyer, P-Y. (2010). "On the impact of robotics in behavioral and cognitive sciences: from insect navigation to human cognitive development" (PDF). IEEE Transactions on Autonomous Mental Development. 2 (1): 2–16. doi:10.1109/tamd.2009.2039057. S2CID 6362217. Archived (PDF) from the original on 3 October 2018. Retrieved 4 June 2013.
  • Penrose, Roger (1989). The Emperor's New Mind: Concerning Computer, Minds and The Laws of Physics. Oxford University Press. ISBN 978-0-19-851973-7.
  • Poli, R.; Langdon, W. B.; McPhee, N. F. (2008). A Field Guide to Genetic Programming. Lulu.com. ISBN 978-1-4092-0073-4. Archived from the original on 8 August 2015. Retrieved 21 April 2008 – via gp-field-guide.org.uk.
  • Rajani, Sandeep (2011). "Artificial Intelligence – Man or Machine" (PDF). International Journal of Information Technology and Knowledge Management. 4 (1): 173–176. Archived from the original (PDF) on 18 January 2013.
  • Ronald, E. M. A. and Sipper, M. Intelligence is not enough: On the socialization of talking machines, Minds and Machines Archived 25 July 2020 at the Wayback Machine, vol. 11, no. 4, pp. 567–576, November 2001.
  • Ronald, E. M. A. and Sipper, M. What use is a Turing chatterbox? Archived 25 July 2020 at the Wayback Machine, Communications of the ACM, vol. 43, no. 10, pp. 21–23, October 2000.
  • "Science". August 1982. Archived from the original on 25 July 2020. Retrieved 16 February 2016.
  • Searle, John (1980). "Minds, Brains and Programs" (PDF). Behavioral and Brain Sciences. 3 (3): 417–457. doi:10.1017/S0140525X00005756. Archived (PDF) from the original on 17 March 2019. Retrieved 22 August 2020.
  • Searle, John (1999). Mind, language and society. New York, NY: Basic Books. ISBN 978-0-465-04521-1. OCLC 231867665. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Shapiro, Stuart C. (1992). "Artificial Intelligence". In Shapiro, Stuart C. (ed.). Encyclopedia of Artificial Intelligence (PDF) (2nd ed.). New York: John Wiley. pp. 54–57. ISBN 978-0-471-50306-4. Archived (PDF) from the original on 1 February 2016. Retrieved 29 May 2009.
  • Simon, H. A. (1965). The Shape of Automation for Men and Management. New York: Harper & Row. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
  • Skillings, Jonathan (3 July 2006). "Getting Machines to Think Like Us". cnet. Archived from the original on 16 November 2011. Retrieved 3 February 2011.
  • Solomonoff, Ray (1956). An Inductive Inference Machine (PDF). Dartmouth Summer Research Conference on Artificial Intelligence. Archived (PDF) from the original on 26 April 2011. Retrieved 22 March 2011 – via std.com, pdf scanned copy of the original. Later published as
    Solomonoff, Ray (1957). "An Inductive Inference Machine". IRE Convention Record. Section on Information Theory, part 2. pp. 56–62.
  • Tao, Jianhua; Tan, Tieniu (2005). Affective Computing and Intelligent Interaction. Affective Computing: A Review. LNCS 3784. Springer. pp. 981–995. doi:10.1007/11573548.
  • Tecuci, Gheorghe (March–April 2012). "Artificial Intelligence". Wiley Interdisciplinary Reviews: Computational Statistics. 4 (2): 168–180. doi:10.1002/wics.200.
  • Thro, Ellen (1993). Robotics: The Marriage of Computers and Machines. New York: Facts on File. ISBN 978-0-8160-2628-9. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Turing, Alan (October 1950), "Computing Machinery and Intelligence", Mind, LIX (236): 433–460, doi:10.1093/mind/LIX.236.433, ISSN 0026-4423.
  • van der Walt, Christiaan; Bernard, Etienne (2006). "Data characteristics that determine classifier performance" (PDF). Archived from the original (PDF) on 25 March 2009. Retrieved 5 August 2009.
  • Vinge, Vernor (1993). "The Coming Technological Singularity: How to Survive in the Post-Human Era". Vision 21: Interdisciplinary Science and Engineering in the Era of Cyberspace: 11. Bibcode:1993vise.nasa...11V. Archived from the original on 1 January 2007. Retrieved 14 November 2011.
  • Wason, P. C.; Shapiro, D. (1966). "Reasoning". In Foss, B. M. (ed.). New horizons in psychology. Harmondsworth: Penguin. Archived from the original on 26 July 2020. Retrieved 18 November 2019.
  • Weizenbaum, Joseph (1976). Computer Power and Human Reason. San Francisco: W.H. Freeman & Company. ISBN 978-0-7167-0464-5.
  • Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, I.; Sur, M.; Thelen, E. (2001). "Autonomous mental development by robots and animals" (PDF). Science. 291 (5504): 599–600. doi:10.1126/science.291.5504.599. PMID 11229402. S2CID 54131797. Archived (PDF) from the original on 4 September 2013. Retrieved 4 June 2013 – via msu.edu.

Further reading

  • DH Author, 'Why Are There Still So Many Jobs? The History and Future of Workplace Automation' (2015) 29(3) Journal of Economic Perspectives 3.
  • Boden, Margaret, Mind As Machine, Oxford University Press, 2006.
  • Cukier, Kenneth, "Ready for Robots? How to Think about the Future of AI", Foreign Affairs, vol. 98, no. 4 (July/August 2019), pp. 192–98. George Dyson, historian of computing, writes (in what might be called "Dyson's Law") that "Any system simple enough to be understandable will not be complicated enough to behave intelligently, while any system complicated enough to behave intelligently will be too complicated to understand." (p. 197.) Computer scientist Alex Pentland writes: "Current AI machine-learning algorithms are, at their core, dead simple stupid. They work, but they work by brute force." (p. 198.)
  • Domingos, Pedro, "Our Digital Doubles: AI will serve our species, not control it", Scientific American, vol. 319, no. 3 (September 2018), pp. 88–93.
  • Gopnik, Alison, "Making AI More Human: Artificial intelligence has staged a revival by starting to incorporate what we know about how children learn", Scientific American, vol. 316, no. 6 (June 2017), pp. 60–65.
  • Johnston, John (2008) The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI, MIT Press.
  • Koch, Christof, "Proust among the Machines", Scientific American, vol. 321, no. 6 (December 2019), pp. 46–49. Christof Koch doubts the possibility of "intelligent" machines attaining consciousness, because "[e]ven the most sophisticated brain simulations are unlikely to produce conscious feelings." (p. 48.) According to Koch, "Whether machines can become sentient [is important] for ethical reasons. If computers experience life through their own senses, they cease to be purely a means to an end determined by their usefulness to... humans. Per GNW [the Global Neuronal Workspace theory], they turn from mere objects into subjects... with a point of view.... Once computers' cognitive abilities rival those of humanity, their impulse to push for legal and political rights will become irresistible – the right not to be deleted, not to have their memories wiped clean, not to suffer pain and degradation. The alternative, embodied by IIT [Integrated Information Theory], is that computers will remain only supersophisticated machinery, ghostlike empty shells, devoid of what we value most: the feeling of life itself." (p. 49.)
  • Marcus, Gary, "Am I Human?: Researchers need new ways to distinguish artificial intelligence from the natural kind", Scientific American, vol. 316, no. 3 (March 2017), pp. 58–63. A stumbling block to AI has been an incapacity for reliable disambiguation. An example is the "pronoun disambiguation problem": a machine has no way of determining to whom or what a pronoun in a sentence refers. (p. 61.)
  • E McGaughey, 'Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy' (2018) SSRN, part 2(3) Archived 24 May 2018 at the Wayback Machine.
  • George Musser, "Artificial Imagination: How machines could learn creativity and common sense, among other human qualities", Scientific American, vol. 320, no. 5 (May 2019), pp. 58–63.
  • Myers, Courtney Boyd ed. (2009). "The AI Report" Archived 29 July 2017 at the Wayback Machine. Forbes June 2009
  • Raphael, Bertram (1976). The Thinking Computer. W.H.Freeman and Company. ISBN 978-0-7167-0723-3. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
  • Scharre, Paul, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs, vol. 98, no. 3 (May/June 2019), pp. 135–44. "Today's AI technologies are powerful but unreliable. Rules-based systems cannot deal with circumstances their programmers did not anticipate. Learning systems are limited by the data on which they were trained. AI failures have already led to tragedy. Advanced autopilot features in cars, although they perform well in some circumstances, have driven cars without warning into trucks, concrete barriers, and parked cars. In the wrong situation, AI systems go from supersmart to superdumb in an instant. When an enemy is trying to manipulate and hack an AI system, the risks are even greater." (p. 140.)
  • Serenko, Alexander (2010). "The development of an AI journal ranking based on the revealed preference approach" (PDF). Journal of Informetrics. 4 (4): 447–459. doi:10.1016/j.joi.2010.04.001. Archived (PDF) from the original on 4 October 2013. Retrieved 24 August 2013.
  • Serenko, Alexander; Michael Dohan (2011). "Comparing the expert survey and citation impact journal ranking methods: Example from the field of Artificial Intelligence" (PDF). Journal of Informetrics. 5 (4): 629–649. doi:10.1016/j.joi.2011.06.002. Archived (PDF) from the original on 4 October 2013. Retrieved 12 September 2013.
  • Tom Simonite (29 December 2014). "2014 in Computing: Breakthroughs in Artificial Intelligence". MIT Technology Review.
  • Sun, R. & Bookman, L. (eds.), Computational Architectures: Integrating Neural and Symbolic Processes. Kluwer Academic Publishers, Needham, MA. 1994.
  • Taylor, Paul, "Insanely Complicated, Hopelessly Inadequate" (review of Brian Cantwell Smith, The Promise of Artificial Intelligence: Reckoning and Judgment, MIT, October 2019, ISBN 978 0 262 04304 5, 157 pp.; Gary Marcus and Ernest Davis, Rebooting AI: Building Artificial Intelligence We Can Trust, Ballantine, September 2019, ISBN 978 1 5247 4825 8, 304 pp.; Judea Pearl and Dana Mackenzie, The Book of Why: The New Science of Cause and Effect, Penguin, May 2019, ISBN 978 0 14 198241 0, 418 pp.), London Review of Books, vol. 43, no. 2 (21 January 2021), pp. 37–39. Paul Taylor writes (p. 39): "Perhaps there is a limit to what a computer can do without knowing that it is manipulating imperfect representations of an external reality."
  • Tooze, Adam, "Democracy and Its Discontents", The New York Review of Books, vol. LXVI, no. 10 (6 June 2019), pp. 52–53, 56–57. "Democracy has no clear answer for the mindless operation of bureaucratic and technological power. We may indeed be witnessing its extension in the form of artificial intelligence and robotics. Likewise, after decades of dire warning, the environmental problem remains fundamentally unaddressed.... Bureaucratic overreach and environmental catastrophe are precisely the kinds of slow-moving existential challenges that democracies deal with very badly.... Finally, there is the threat du jour: corporations and the technologies they promote." (pp. 56–57.)

External links

  • "Artificial Intelligence". Internet Encyclopedia of Philosophy.
  • Thomason, Richmond. "Logic and Artificial Intelligence". In Zalta, Edward N. (ed.). Stanford Encyclopedia of Philosophy.
  • Artificial Intelligence, BBC Radio 4 discussion with John Agar, Alison Adam & Igor Aleksander (In Our Time, Dec. 8, 2005)