Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В истории искусственного интеллекта , зимой AI является период сокращения финансирования и интерес искусственного интеллекта исследований. [1] Термин был придуман по аналогии с идеей ядерной зимы . [2] Эта область пережила несколько циклов ажиотажа , за которыми последовали разочарование и критика, за которыми последовало сокращение финансирования с последующим возобновлением интереса спустя годы или десятилетия.

Термин впервые появился в 1984 году как тема публичных дебатов на ежегодном собрании AAAI (тогда называемой «Американской ассоциацией искусственного интеллекта»). Это цепная реакция, которая начинается с пессимизма в сообществе ИИ, за которым следует пессимизм в прессе, за которым следует серьезное сокращение финансирования, за которым следует прекращение серьезных исследований. [2] На встрече Роджер Шенк и Марвин Мински - два ведущих исследователя ИИ, пережившие «зиму» 1970-х, предупредили бизнес-сообщество, что энтузиазм в отношении ИИ вышел из-под контроля в 1980-х и что за этим обязательно последует разочарование. . Три года спустя индустрия искусственного интеллекта стоимостью в миллиард долларов начала рушиться. [2]

Шумиха распространена во многих новых технологиях, таких как железнодорожная мания или пузырь доткомов . Зима с искусственным интеллектом стала результатом такой ажиотажа из-за завышенных обещаний разработчиков, неестественно завышенных ожиданий со стороны конечных пользователей и обширного продвижения в СМИ. [3] Несмотря на взлет и падение репутации искусственного интеллекта, он продолжает разрабатывать новые и успешные технологии. В 2002 году исследователь ИИ Родни Брукс жаловался, что «существует этот глупый миф о том, что ИИ потерпел неудачу, но ИИ находится рядом с вами каждую секунду дня». [4] В 2005 году Рэй Курцвейлсогласился: «Многие наблюдатели все еще думают, что зима ИИ стала концом истории и что с тех пор из области ИИ ничего не вышло. Тем не менее, сегодня многие тысячи приложений ИИ глубоко встроены в инфраструктуру каждой отрасли». [5]

Энтузиазм и оптимизм по поводу ИИ в целом возросли с момента его пика в начале 1990-х годов. Примерно с 2012 года интерес к искусственному интеллекту (и особенно к подобласти машинного обучения ) со стороны исследовательских и корпоративных сообществ привел к резкому увеличению финансирования и инвестиций.

Обзор [ править ]

В 1974–1980 и 1987–1993 годах было две большие зимы [6] и несколько более мелких эпизодов, включая следующие:

  • 1966: отказ от машинного перевода
  • 1970: отказ от коннекционизма
  • Период наложения трендов:
    • 1971–75: разочарование DARPA в программе исследования понимания речи в Университете Карнеги-Меллона.
    • 1973: значительное сокращение исследований ИИ в Соединенном Королевстве в ответ на отчет Лайтхилла.
    • 1973–74: сокращение DARPA академических исследований ИИ в целом
  • 1987: крах рынка машин LISP
  • 1988: отмена новых расходов на ИИ со стороны Strategic Computing Initiative
  • 1993: сопротивление развертыванию и обслуживанию новых экспертных систем
  • 1990-е: конец первоначальных целей компьютерного проекта пятого поколения

Ранние эпизоды [ править ]

Машинный перевод и отчет ALPAC за 1966 г. [ править ]

Во время холодной войны правительство США было особенно заинтересовано в автоматическом, мгновенном переводе российских документов и научных отчетов. Правительство активно поддерживало усилия по машинному переводу, начиная с 1954 года. Вначале исследователи были настроены оптимистично. Новая работа Ноама Хомского по грамматике упростила процесс перевода, и было «много предсказаний неизбежных« прорывов »». [7]

Брифинг для вице-президента США Джеральда Форда в 1973 году по модели компьютерного перевода на основе соединительной грамматики

Однако исследователи недооценили огромную трудность устранения неоднозначности слов . Чтобы перевести предложение, машине нужно было иметь представление о том, о чем идет речь, иначе она допускала ошибки. Апокрифический [8] пример: «дух желает, а плоть немощна». В переводе на русский язык получилось: «водка хорошая, а мясо гнилое». [9] Точно так же «вне поля зрения, из виду» стал «слепым идиотом». Позже исследователи назвали бы это проблемой знания здравого смысла .

К 1964 году Национальный исследовательский совет был обеспокоен отсутствием прогресса и сформировал Консультативный комитет по автоматической обработке языков ( ALPAC ), чтобы изучить эту проблему. В известном отчете 1966 года они пришли к выводу, что машинный перевод дороже, менее точен и медленнее, чем человеческий перевод. Потратив около 20 миллионов долларов, NRC прекратил всякую поддержку. Карьеры были разрушены, и исследования прекратились. [2] [7]

Машинный перевод все еще остается открытой проблемой для исследований в 21 веке, которая имела определенный успех ( Google Translate , Yahoo Babel Fish ).

Отказ от коннекционизма в 1969 г. [ править ]

Смотрите также: Персептроны и Фрэнк Розенблатт

Некоторые из самых ранних работ в области искусственного интеллекта использовали сети или схемы связанных устройств для имитации интеллектуального поведения. Примеры такого рода работ, называемых «коннекционизмом», включают первое описание нейронной сети для логики Уолтером Питтсом и Уорреном Маккаллоу и работу Марвина Мински над системой SNARC . В конце 1950-х годов от большинства этих подходов отказались, когда исследователи начали изучать символические рассуждения как сущность интеллекта после успеха таких программ, как Logic Theorist и General Problem Solver . [10]

Тем не менее, один вид коннекционистской работы продолжался: исследование перцептронов , изобретенное Фрэнком Розенблаттом, который поддерживал жизнь в этой области своим умением продавать и чистой силой своей личности. [11] Он оптимистично предсказал, что перцептрон «в конечном итоге сможет учиться, принимать решения и переводить языки». [12] Основные исследования перцептронов внезапно прекратились в 1969 году, когда Марвин Мински и Сеймур Пейперт опубликовали книгу « Персептроны» , которая была воспринята как очерчивающая пределы возможностей перцептронов.

От коннекционистских подходов отказались примерно на следующее десятилетие. В то время как важная работа, такие как Пол Уэрбос открытие " обратного распространения , по- прежнему в ограниченном объеме, главным финансирование коннекционистских проектов было трудно найти в 1970 - х и начале 1980 - х годов. [13] «Зима» коннекционистских исследований подошла к концу в середине 1980-х, когда работы Джона Хопфилда , Дэвида Румелхарта и других возродили массовый интерес к нейронным сетям. [14] Розенблатт не дожил до этого, так как он погиб в катастрофе вскоре после публикации « Персептронов ». [12]

Неудачи 1974 года [ править ]

Отчет Лайтхилла [ править ]

В 1973 году парламент Великобритании попросил профессора сэра Джеймса Лайтхилла оценить состояние исследований в области искусственного интеллекта в Великобритании. В его отчете, который теперь называется отчетом Лайтхилла, критиковалась полная неспособность ИИ достичь своих «грандиозных целей». Он пришел к выводу, что ничего, что делается в искусственном интеллекте, невозможно сделать в других науках. Он особо упомянул проблему « комбинаторного взрыва » или « неразрешимости », которая подразумевала, что многие из наиболее успешных алгоритмов ИИ остановятся на реальных проблемах и подходят только для решения «игрушечных» версий. [15]

Это сообщение оспаривалось в ходе дебатов, транслировавшихся в сериале BBC "Controversy" в 1973 году. Дебаты Королевского института "Универсальный робот - мираж" были противостоянием Лайтхиллу с командой Дональда Мичи , Джона Маккарти и Ричарда Грегори . [16] Маккарти позже писал, что «проблема комбинаторного взрыва признавалась в ИИ с самого начала». [17]

Отчет привел к полному отказу от исследований ИИ в Англии. [15] Исследования ИИ продолжались только в нескольких университетах (Эдинбург, Эссекс и Сассекс). Исследования не возродились в больших масштабах до 1983 года, когда Алви (исследовательский проект британского правительства) снова начал финансировать ИИ из военного фонда в размере 350 миллионов фунтов стерлингов в ответ на японский проект пятого поколения (см. Ниже). У Алви был ряд требований только для Великобритании, которые не устраивали на международном уровне, особенно с партнерами из США, и потерял финансирование фазы 2.

Сокращение финансирования DARPA в начале 1970-х [ править ]

В течение 1960-х Агентство перспективных исследовательских проектов Министерства обороны (тогда известное как «ARPA», теперь известное как «DARPA») предоставило миллионы долларов на исследования ИИ практически без каких-либо условий. Директор DARPA в те годы, JCR Licklider, верил в «финансирование людей, а не проектов» [18] и позволял лидерам ИИ (таким как Марвин Мински , Джон Маккарти, Герберт Саймон или Аллен Ньюэлл ) тратить их практически так, как им нравится.

Это отношение изменилось после принятия в 1969 г. Поправки Мэнсфилда , которая требовала от DARPA финансирования «целенаправленных прямых исследований, а не фундаментальных неориентированных исследований». [19] Чистые ненаправленные исследования, подобные тем, которые проводились в 1960-х годах, больше не будут финансироваться DARPA. Теперь исследователи должны были показать, что их работа скоро приведет к появлению полезных военных технологий. Предложения по исследованию ИИ соответствовали очень высоким стандартам. Ситуация не улучшилась, когда отчет Lighthill и собственное исследование DARPA ( Американская исследовательская группа) предположил, что большинство исследований ИИ вряд ли принесут что-то действительно полезное в обозримом будущем. Деньги DARPA были направлены на конкретные проекты с определенными целями, такие как автономные танки и системы управления боем. К 1974 году найти финансирование для проектов ИИ было трудно. [19]

Исследователь искусственного интеллекта Ханс Моравец обвинил кризис в нереалистичных прогнозах своих коллег: «Многие исследователи попали в сеть растущих преувеличений. Их первоначальные обещания DARPA были слишком оптимистичными. Конечно, то, что они дали, существенно не соответствовало этому. Но они чувствовали, что в следующем предложении они не могут обещать меньше, чем в первом, поэтому обещали больше ». [20] В результате, утверждает Моравец, некоторые сотрудники DARPA потеряли терпение к исследованиям ИИ. «В DARPA буквально сформулировали, что« некоторым из этих людей предстоит извлечь урок, сократив их контракты на два миллиона долларов в год почти до нуля! »- сказал Моравец Даниэлю Кревье . [21]

Хотя проект автономного танка потерпел неудачу, система управления боем ( инструмент динамического анализа и перепланирования ) оказалась чрезвычайно успешной, сэкономив миллиарды в первой войне в Персидском заливе , окупив все инвестиции DARPA в ИИ [22] и оправдав прагматическую политику DARPA. . [23]

Фиаско SUR [ править ]

DARPA было глубоко разочаровано исследователями, работающими над программой исследования понимания речи в Университете Карнеги-Меллона. Агентство DARPA надеялось и чувствовало, что оно было обещано, на систему, способную реагировать на голосовые команды пилота. Команда SUR разработала систему, которая могла распознавать разговорный английский, но только если слова произносились в определенном порядке . DARPA посчитало, что его обманули, и в 1974 году расторгло контракт на три миллиона долларов в год. [24]

Много лет спустя несколько успешных коммерческих систем распознавания речи будут использовать технологию, разработанную командой Карнеги-Меллона (например, скрытые модели Маркова ), и к 2001 году рынок систем распознавания речи достигнет 4 миллиардов долларов [25].

Неудачи конца 1980-х - начала 1990-х годов [ править ]

Крах рынка машин LISP [ править ]

В 1980-х годах форма программы искусственного интеллекта, называемая « экспертной системой », была принята корпорациями по всему миру. Первой коммерческой экспертной системой была XCON , разработанная в Карнеги-Меллон для Digital Equipment Corporation , и она имела огромный успех: по оценкам, она сэкономила компании 40 миллионов долларов всего за шесть лет эксплуатации. Корпорации по всему миру начали разрабатывать и развертывать экспертные системы, и к 1985 году они потратили более миллиарда долларов на ИИ, большую часть из них - внутренние отделы ИИ. Для их поддержки выросла отрасль, в том числе компании-разработчики программного обеспечения, такие как Teknowledge и Intellicorp (KEE) , и компании-производители оборудования, такие как Symbolics иLISP Machines Inc., которая построила специализированные компьютеры, называемые машинами LISP , которые были оптимизированы для обработки языка программирования LISP , предпочтительного языка для ИИ. [26] [27]

В 1987 году, через три года после предсказания Мински и Шанка , рынок специализированного оборудования искусственного интеллекта на основе LISP рухнул. Рабочие станции таких компаний, как Sun Microsystems, предложили мощную альтернативу машинам LISP, а такие компании, как Lucid, предложили среду LISP для этого нового класса рабочих станций. Производительность этих обычных рабочих станций становилась все более сложной задачей для LISP Machines. Такие компании, как Lucid и Franz LISP, предлагали все более мощные версии LISP, переносимые на все системы UNIX. Например, были опубликованы тесты производительности, показывающие, что рабочие станции имеют преимущество в производительности по сравнению с машинами LISP. [28] Более поздние настольные компьютеры, созданные Appleи IBM также предлагает более простую и популярную архитектуру для запуска LISP приложений на. К 1987 году некоторые из них стали такими же мощными, как более дорогие LISP-машины. На настольных компьютерах были доступны механизмы на основе правил, такие как CLIPS . [29] Эти альтернативы не оставили потребителям причин покупать дорогостоящую машину, специализированную для работы с LISP. Целая отрасль стоимостью полмиллиарда долларов была заменена за один год. [30]

К началу 1990-х годов большинство коммерческих LISP- компаний потерпели неудачу, включая Symbolics, LISP Machines Inc., Lucid Inc. и т. Д. Другие компании, такие как Texas Instruments и Xerox , отказались от этой области. Небольшое количество компаний-клиентов (то есть компаний, использующих системы, написанные на LISP и разработанные на машинных платформах LISP) продолжали поддерживать системы. В некоторых случаях это обслуживание предполагало выполнение работ по поддержке. [3]

Замедление развертывания экспертных систем [ править ]

К началу 1990-х годов первые успешные экспертные системы, такие как XCON, оказались слишком дорогими в обслуживании. Их было трудно обновлять, они не могли учиться, они были «хрупкими» (т. Е. Могли совершать гротескные ошибки при необычных входных данных), и они стали жертвами проблем (таких как проблема квалификации ), которые были выявлены годами ранее в исследования по немонотонной логике . Экспертные системы оказались полезными, но только в некоторых особых контекстах. [31] [32] Другая проблема связана с вычислительной трудностью усилий по поддержанию истины для общих знаний. KEE использовала подход, основанный на предположениях (см. НАСА, TEXSYS) поддержка сценариев множественных миров, которые было трудно понять и применить.

Немногим оставшимся компаниям-оболочкам экспертных систем в конечном итоге пришлось сократить штат и искать новые рынки и парадигмы программного обеспечения, такие как рассуждение на основе конкретных случаев или универсальный доступ к базам данных . Развитие Common Lisp спасло многие системы, такие как ICAD, которые нашли применение в инженерии, основанной на знаниях . Другие системы, такие как Intellicorp's KEE, перешли с LISP на C ++ (вариант) на ПК и помогли создать объектно-ориентированную технологию (включая обеспечение основной поддержки для разработки UML (см. UML Partners ).

Конец проекта пятого поколения [ править ]

В 1981 году министерство международной торговли и промышленности Японии выделило 850 миллионов долларов на компьютерный проект пятого поколения . Их цель заключалась в написании программ и создании машин, которые могли бы вести разговоры, переводить языки, интерпретировать изображения и рассуждать, как люди. К 1991 году впечатляющий список целей, поставленных в 1981 году, не был достигнут. Согласно HP Newquist в The Brain Makers , «1 июня 1992 года Проект Пятого Поколения закончился не удачным ревом, а хныканьем». [3] Как и в случае с другими проектами AI, ожидания были намного выше, чем было возможно. [33] [34]

Сокращения Стратегической вычислительной инициативы [ править ]

В 1983 году в ответ на проект пятого поколения DARPA снова начало финансировать исследования ИИ через стратегическую вычислительную инициативу. Первоначально предполагалось, что проект будет начинаться с практических, достижимых целей, которые даже включают искусственный интеллект в качестве долгосрочной цели. Программа находилась под руководством Управления технологий обработки информации (IPTO) и также была направлена ​​на суперкомпьютеры и микроэлектронику . К 1985 году было потрачено 100 миллионов долларов, и 92 проекта находились в стадии реализации в 60 учреждениях, половина из которых - в промышленности, половина - в университетах и ​​государственных лабораториях. Исследования искусственного интеллекта щедро финансировались SCI. [35]

Джек Шварц, ставший лидером IPTO в 1987 году, назвал экспертные системы «умным программированием» и урезал финансирование ИИ «глубоко и жестоко», «потрошив» SCI. Шварц считал, что DARPA должно сосредоточить свое финансирование только на тех технологиях, которые являются наиболее многообещающими. По его словам, DARPA должно «заниматься серфингом», а не «веслом для собак», и он был твердо уверен, что ИИ не «следующая волна». Инсайдеры программы указали на проблемы в общении, организации и интеграции. Несколько проектов пережили сокращение финансирования, в том числе помощник пилота и автономный наземный транспорт (которые так и не были доставлены) и система управления боем DART, которая (как отмечалось выше) была успешной. [36]

События после зимы с искусственным интеллектом [ править ]

Обзор отчетов начала 2000-х годов показывает, что репутация ИИ все еще была менее звездной:

  • Алекс Кастро, цитируемый в The Economist от 7 июня 2007 г .: «[Инвесторов] оттолкнул термин« распознавание голоса », который, как и« искусственный интеллект », ассоциируется с системами, которые слишком часто не оправдывают своих обещаний. . " [37]
  • Пэтти Таскарелла в Pittsburgh Business Times , 2006: «Некоторые считают, что слово« робототехника »на самом деле несет клеймо, которое снижает шансы компании на получение финансирования». [38]
  • Джон Маркофф в New York Times , 2005 г .: «В самый худший момент некоторые компьютерные ученые и инженеры-программисты избегали термина« искусственный интеллект », опасаясь, что их сочтут безумными мечтателями». [39]

Многие исследователи ИИ в середине 2000-х сознательно называли свою работу другими именами , такими как информатика , машинное обучение, аналитика, системы , основанные на знаниях , управление бизнес-правилами , когнитивные системы , интеллектуальные системы, интеллектуальные агенты или вычислительный интеллект , чтобы указать, что их работа делает упор на конкретные инструменты или направлена ​​на конкретную подзадачу. Хотя отчасти это может быть связано с тем, что они считают свою сферу деятельности фундаментально отличной от ИИ, верно и то, что новые имена помогают получать финансирование, избегая клейма ложных обещаний, связанных с названием «искусственный интеллект». [39] [40]

Интеграция AI [ править ]

В конце 1990-х и начале 21 века технология искусственного интеллекта стала широко использоваться в качестве элементов более крупных систем [41] [5], но эти успехи редко приписывают этой области. В 2006 году Ник Бостром объяснил, что «многие передовые технологии ИИ проникли в общие приложения, часто не называемые ИИ, потому что, как только что-то становится достаточно полезным и достаточно распространенным, оно больше не именуется ИИ». [42] Родни Брукс заявил примерно в то же время, что «существует этот глупый миф о том, что ИИ потерпел неудачу, но ИИ находится рядом с вами каждую секунду дня». [4]

Технологии, разработанные исследователями искусственного интеллекта, достигли коммерческого успеха в ряде областей, таких как машинный перевод, интеллектуальный анализ данных , промышленная робототехника , логистика, [43] распознавание речи, [44] банковское программное обеспечение, [45] медицинская диагностика, [45] и Поисковая система Google . [46]

Контроллеры с нечеткой логикой были разработаны для автоматических коробок передач в автомобилях (Audi TT, VW Touareg [47] и VW Caravell 2006 года оснащены трансмиссией DSP, использующей нечеткую логику, ряд вариантов Škoda ( Škoda Fabia ) в настоящее время также включает нечеткую логику - на базе контроллера). Датчики камеры широко используют нечеткую логику для фокусировки.

Эвристический поиск и анализ данных - это технологии, разработанные в рамках подразделения эволюционных вычислений и машинного обучения исследовательского сообщества ИИ. Опять же, эти методы были применены к широкому кругу реальных проблем со значительным коммерческим успехом.

Технология анализа данных, использующая алгоритмы для автоматизированного формирования классификаторов, которые были разработаны в сообществе контролируемого машинного обучения в 1990-х годах (например, TDIDT, Support Vector Machines, Neural Nets, IBL), теперь [ когда? ] широко используется компаниями для таргетинга маркетинговых исследований и выявления тенденций и характеристик в наборах данных.

Финансирование AI [ править ]

Исследователи и экономисты часто оценивали состояние «зимы ИИ», анализируя, какие проекты ИИ финансируются, в каком объеме и кем. Тенденции в финансировании часто устанавливаются крупными финансирующими агентствами в развитых странах. В настоящее время DARPA и гражданская программа финансирования под названием EU-FP7 обеспечивают большую часть финансирования исследований ИИ в США и Европейском союзе .

По состоянию на 2007 год DARPA запрашивало предложения по исследованиям искусственного интеллекта в рамках ряда программ, включая программу Grand Challenge , систему предупреждения об угрозах когнитивных технологий (CT2WS), « Нейронные устройства с участием человека (SN07-43) », « Автономное наземное повсеместное наблюдение в реальном времени. -Система визуализации (ARGUS-IS ) »и« Технологии городского обоснования и геопространственной эксплуатации (СРОЧНО) »

Возможно, наиболее известной является программа DARPA Grand Challenge [48], которая разработала полностью автоматизированные дорожные транспортные средства, которые могут успешно перемещаться по местности [49] в полностью автономном режиме.

DARPA также поддерживает программы в семантической паутине, уделяя большое внимание интеллектуальному управлению контентом и автоматизированному пониманию. Однако Джеймс Хендлер , менеджер программы DARPA в то время, выразил некоторое разочарование способностью правительства добиться быстрых изменений и перешел к работе с Консорциумом World Wide Web для передачи технологий в частный сектор.

Программа финансирования EU-FP7 предоставляет финансовую поддержку исследователям из Европейского Союза. В 2007–2008 годах он финансировал исследования ИИ в рамках программы «Когнитивные системы: взаимодействие и робототехника» (193 млн евро), программы электронных библиотек и контента (203 млн евро) и программы FET (185 млн евро). [50]

Текущая "AI Spring" [ править ]

Заметное увеличение финансирования, разработки, развертывания и коммерческого использования ИИ привело к мысли, что зима ИИ давно закончилась. [51] Иногда возникают опасения, что новая зима ИИ может быть спровоцирована чрезмерно амбициозными или нереалистичными обещаниями видных ученых в области ИИ или чрезмерными обещаниями со стороны коммерческих поставщиков.

Успехами нынешней «весны искусственного интеллекта» являются достижения в языковом переводе (в частности, Google Translate ), распознавании изображений (благодаря обучающей базе данных ImageNet ), коммерциализируемом поиском изображений Google , и в игровых системах, таких как AlphaZero (шахматы чемпион) и AlphaGo (чемпион по игре ) и Watson ( чемпион Jeopardy ). Большинство этих достижений произошло с 2010 года.

Основные причины зим ИИ [ править ]

Было выдвинуто несколько объяснений причин ИИ зим в целом. По мере того, как ИИ переходил от приложений, финансируемых государством, к коммерческим, в игру вступала новая динамика. Хотя ажиотаж является наиболее часто упоминаемой причиной, объяснения не обязательно взаимоисключающие.

Хайп [ править ]

Зимы ИИ может [ править ] частично понимается как последовательность чрезмерно завышенных ожиданий и последующей аварии видели на биржевых рынках и на примере [ править ] на железнодорожной мании и доткомов пузырь. В обычном паттерне развития новых технологий (известном как цикл ажиотажа) событие, обычно технологический прорыв, создает рекламу, которая подпитывается сама собой, чтобы создать «пик завышенных ожиданий», за которым следует «впадина разочарования». Поскольку научно-технический прогресс не успевает за ростом ожиданий инвесторов и других заинтересованных сторон, вызванного оглаской, должен последовать крах. Технология искусственного интеллекта, похоже, не исключение из этого правила. [ необходима цитата ]

Например, в 1960-х годах осознание того, что компьютеры могут моделировать одноуровневые нейронные сети, привело к циклу шумихи вокруг нейронных сетей, который длился до публикации в 1969 году книги « Персептроны», которая сильно ограничила набор проблем, которые можно было оптимально решить с помощью одноуровневых сетей. слойные сети. В 1985 году осознание того, что нейронные сети могут использоваться для решения задач оптимизации, в результате известных работ Хопфилда и Танка [52] [53] вместе с угрозой японского проекта 5-го поколения, привело к возобновлению интереса и применения.

Институциональные факторы [ править ]

Другой фактор - место ИИ в организации университетов. Исследования ИИ часто принимают форму междисциплинарных исследований . Следовательно, ИИ подвержен тем же проблемам, с которыми сталкиваются другие типы междисциплинарных исследований. Финансирование направляется через существующие отделы, и во время урезания бюджета будет тенденция скрывать «основное содержание» каждого отдела за счет междисциплинарных и менее традиционных исследовательских проектов.

Экономические факторы [ править ]

Спад в национальной экономике страны приводит к сокращению бюджета университетов. Тенденция «основного содержания» ухудшает влияние на исследования ИИ, и инвесторы на рынке, вероятно, вкладывают свои деньги в менее рискованные предприятия во время кризиса. Вместе это может превратить экономический спад в зиму искусственного интеллекта. Стоит отметить, что отчет Lighthill появился во время экономического кризиса в Великобритании [54], когда университеты были вынуждены сократить расходы, и вопрос заключался только в том, какие программы следует принять.

Недостаточная вычислительная мощность [ править ]

В начале истории вычислительной техники потенциал нейронных сетей понимался, но так и не был реализован. Довольно простые сети требуют значительных вычислительных мощностей даже по сегодняшним стандартам.

Пустой конвейер [ править ]

Принято рассматривать взаимосвязь между фундаментальными исследованиями и технологиями как конвейер. Достижения в фундаментальных исследованиях приводят к успехам в прикладных исследованиях, которые, в свою очередь, приводят к новым коммерческим приложениям. Исходя из этого, часто утверждают, что отсутствие фундаментальных исследований приведет к падению рыночных технологий через несколько лет. Эту точку зрения высказал Джеймс Хендлер в 2008 г. [29]когда он утверждал, что падение экспертных систем в конце 80-х произошло не из-за неотъемлемой и неизбежной хрупкости экспертных систем, а из-за сокращения финансирования фундаментальных исследований в 1970-х. Эти экспертные системы развивались в 1980-х годах благодаря прикладным исследованиям и разработке продуктов, но к концу десятилетия трубопровод иссяк, и экспертные системы были неспособны производить улучшения, которые могли бы преодолеть эту хрупкость и обеспечить дальнейшее финансирование.

Неспособность адаптироваться [ править ]

Падение рынка машин LISP и крах компьютеров пятого поколения были случаями, когда дорогие передовые продукты были вытеснены более простыми и дешевыми альтернативами. Это соответствует определению низкоуровневой прорывной технологии , при которой производители LISP-машин находятся в маргинальном положении. Экспертные системы были перенесены на новые настольные компьютеры, например, с помощью CLIPS , поэтому падение рынка машин LISP и падение экспертных систем, строго говоря, являются двумя отдельными событиями. Тем не менее, неспособность адаптироваться к таким изменениям во внешней вычислительной среде упоминается как одна из причин зимы 80-х, связанной с искусственным интеллектом. [29]

Аргументы и дебаты о прошлом и будущем ИИ [ править ]

Несколько философов, когнитивистов и компьютерных ученых размышляли о том, где ИИ мог потерпеть неудачу и что ждет его в будущем. Хьюберт Дрейфус подчеркнул ошибочные предположения исследований ИИ в прошлом и еще в 1966 году правильно предсказал, что первая волна исследований ИИ не сможет выполнить те самые публичные обещания, которые она давала. Другие критики, такие как Ноам Хомски , утверждали, что ИИ движется в неправильном направлении, отчасти из-за его сильной зависимости от статистических методов. [55] Комментарии Хомского вписываются в более широкую дискуссию с Питером Норвигом , сосредоточенную вокруг роли статистических методов в ИИ. Обмен между ними начался с комментариев, сделанных Хомским на симпозиуме в MIT.[56], на что Норвиг написал ответ. [57]

См. Также [ править ]

  • Эффект ИИ
  • История искусственного интеллекта
  • Программный кризис

Примечания [ править ]

  1. ^ AI Expert Информационный бюллетень: W для зимней архивации 9 ноября 2013в Wayback Machine
  2. ^ а б в г Кревье 1993 , стр. 203.
  3. ^ a b c Создатели мозга: гений, эго и жадность в поисках мыслящих машин . Нью-Йорк: Macmillan / SAMS. 1994. ISBN 978-0-9885937-1-8.
  4. ^ a b Курцвейл 2005 , стр. 263.
  5. ^ a b Курцвейл 2005 , стр. 264.
  6. ^ В разных источниках используются разные даты зимы AI. Рассмотрим: (1) Хоу, 1994 : «Отчет Лайтхилла [1973] вызвал массовую потерю доверия к ИИ академическим истеблишментом в Великобритании (и, в меньшей степени, в США). Он сохранялся в течение десятилетия - так называемый «AI Winter», (2) Russell & Norvig 2003 , стр. 24: «В целом индустрия искусственного интеллекта выросла с нескольких миллионов долларов в 1980 году до миллиардов долларов в 1988 году. Вскоре после этого наступил период, названный« AI ». Зима'".
  7. ^ a b Джон Хатчинс 2005 Краткая история машинного перевода.
  8. ^ Хатчинс, Джон. 1995. «Виски был невидим», или Устойчивые мифы МТ. Получено с http://www.hutchinsweb.me.uk/MTNI-11-1995.pdf
  9. ^ Russell & Норвиг 2003 , стр. 21.
  10. ^ McCorduck 2004 , стр. 52-107
  11. ^ Памела Мак-Кордак цитирует одного коллегукак говорят, «Он был мечтой пресс агента, настоящий знахарь». ( МакКордак 2004 , с. 105)
  12. ^ a b Crevier 1993 , стр. 102–5
  13. ^ Кревьер 1993 , стр. 102-105, McCorduck 2004 , стр. 104-107, Russell & Норвиг 2003 , стр. 22
  14. ^ Кревьер 1993 , стр. 214-6и Russell & Норвиг 2003 , стр. 25
  15. ^ a b Crevier 1993 , стр. 117 , Рассел и Норвиг 2003 , стр. 22 , Howe 1994 и см. Также Lighthill 1973
  16. ^ "BBC Controversy Lighthill дебаты 1973" . BBC "Споры" из серии дебатов . ИСКУССТВЕННЫЕ_ИНТЕЛЛЕКТУАЛЬНЫЕ ПРИЛОЖЕНИЯ ¯ ИНСТИТУТ. 1973 . Проверено 13 августа 2010 года .
  17. ^ Маккарти, Джон (1993). «Обзор отчета Лайтхилла» . Архивировано 30 сентября 2008 года . Проверено 10 сентября 2008 года .
  18. ^ Кревьер 1993 , стр. 65
  19. ^ a b NRC 1999 , в разделе «Переход к прикладным исследованиям увеличивает инвестиции» ( к текущему обсуждению относятся только разделы до 1980 г.).
  20. ^ Кревьер 1993 , стр. 115
  21. ^ Кревьер 1993 , стр. 117
  22. ^ Russell & Норвиг 2003 , стр. 25
  23. ^ NRC 1999
  24. ^ Кревьер 1993 , стр. 115-116(на которых основана эта учетная запись). Другие точки зрения включают McCorduck 2004 , pp. 306–313и NRC 1999 в разделе «Успех в распознавании речи».
  25. ^ NRC 1999 в разделе «Успех в распознавании речи».
  26. ^ Newquist 1994 , стр. 189-201
  27. ^ Кревьер 1993 , стр. 161-2, 197-203
  28. ^ Брукс, Родни. «Дизайн оптимизирующего компилятора с динамической перенацеливанием для общего LISP» (PDF) . Lucid, Inc. Архивировано из оригинального (PDF) 20 августа 2013 года.
  29. ^ a b c Как избежать еще одного искусственного интеллекта Винтер , Джеймс Хендлер, Интеллектуальные системы IEEE (март / апрель 2008 г. (том 23, № 2), стр. 2–4)
  30. ^ Кревьер 1993 , стр. 209-210
  31. ^ Ньюквист 1994 , стр. 296
  32. ^ Кревьер 1993 , стр. 204-208
  33. ^ Newquist 1994 , стр. 431-434
  34. ^ Кревьер 1993 , стр. 211-212
  35. ^ McCorduck 2004 , стр. 426-429
  36. ^ McCorduck 2004 , стр. 430-431
  37. ^ Алекс Кастро в Ты говоришь со мной? The Economist Technology Quarterly (7 июня 2007 г.). Архивировано 13 июня 2008 г. в Wayback Machine.
  38. ^ Робототехнические фирмы испытывают трудности с привлечением средств, а венчурный капитал стесняется . Пэтти Таскарелла. Pittsburgh Business Times (11 августа 2006 г.). Архивировано 26 марта 2014 г. в Wayback Machine.
  39. ^ a b Марков, Джон (14 октября 2005 г.). «За искусственным интеллектом - эскадрилья ярких реальных людей» . Нью-Йорк Таймс . Проверено 30 июля 2007 года .
  40. ^ Ньюквист 1994 , стр. 423
  41. ^ NRC 1999 в разделе «Искусственный интеллект в 90-х»
  42. AI должен превзойти мощность человеческого мозга CNN.com (26 июля 2006 г.). Архивировано 3 ноября 2006 г., Wayback Machine.
  43. ^ Russell & Норвиг 2003 , стр. 28
  44. ^ Информацию о новейших достижениях в распознавании речи на основе ИИ см. В разделе « Ты говоришь со мной?» Архивировано 13 июня 2008 года в Wayback Machine.
  45. ^ a b «Системы на основе искусственного интеллекта уже стали неотъемлемой частью многих повседневных технологий, таких как поисковые системы в Интернете, банковское программное обеспечение для обработки транзакций и медицинской диагностики». Ник Бостром, искусственный интеллект превзойдет мощность человеческого мозга CNN.com (26 июля 2006 г.). Архивировано 3 ноября 2006 г., Wayback Machine.
  46. ^ Что касается использования ИИ в Google, см . Человека за кулисами Google , Google поддерживает распознавание символов и шпионит за интеллектуальной поисковой системой .
  47. ^ Touareg Короткое Нажмите Введение , Volkswagen Америки архивной 16 февраля 2012 в Wayback Machine
  48. ^ Grand Challenge Home архивации 24 декабря 2010 в Wayback Machine
  49. DARPA. Архивировано 6 марта 2009 года в Wayback Machine.
  50. ^ Информационные и коммуникационные технологии в FP7 [ постоянная мертвая ссылка ] , обзорный документ для финансирования Европейского Союза. Проверено 20 сентября 2007 года.
  51. ^ Ньюквист, HP (2018). Создатели мозга, второе издание . Нью-Йорк, Нью-Йорк: Группа ретрансляторов. п. 491.
  52. ^ Хопфилд, JJ; Танк, DW (июль 1985 г.). « « Нейронное »вычисление решений в задачах оптимизации» . 52 . Биологическая кибернетика.
  53. ^ Хопфилд, JJ; Танк, DW (август 1986). «Вычисления с нейронными сетями» . 233 (4764). Наука.
  54. ^ https://www.theguardian.com/obituaries/story/0,,2122424,00.html некролог Дональда Мичи в The Guardian. Архивировано 27 января 2008 г. в Wayback Machine.
  55. ^ Yarden Кац, "Ноам Хомский на Где Искусственный интеллект пошло не так" , The Atlantic, 1 ноября 2012 архивации 3 ноября 2012 в Wayback Machine
  56. Ноам Хомский, «Вопросы и ответы Пинкера / Хомского с панели MIT150». Архивировано 17 мая 2013 г. на Wayback Machine.
  57. Питер Норвиг, «О Хомском и двух культурах статистического обучения». Архивировано 27 мая 2011 г. в Wayback Machine.

Ссылки [ править ]

  • Кревье, Даниэль (1993), AI: Бурный поиск искусственного интеллекта , Нью-Йорк, Нью-Йорк: BasicBooks, ISBN 0-465-02997-3 
  • Хендлер, Джеймс (2007). «Где все умные агенты?». Интеллектуальные системы IEEE . 22 (3): 2–3. DOI : 10.1109 / MIS.2007.62 .
  • Хау, Дж. (Ноябрь 1994 г.). «Искусственный интеллект в Эдинбургском университете: перспектива» . Архивировано 17 августа 2007 года . Проверено 30 августа 2007 года .
  • Каплан, Андреас ; Haenlein, Майкл (2018). «Siri, Siri в моей руке, кто самый справедливый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты . Бизнес-горизонты 62 (1). 62 : 15–25. DOI : 10.1016 / j.bushor.2018.08.004 .
  • Курцвейл, Рэй (2005). «Сингулярность рядом» . Викинг Пресс. Cite journal requires |journal= (help)
  • Лайтхилл, профессор сэр Джеймс (1973). «Искусственный интеллект: общий обзор». Искусственный интеллект: бумажный симпозиум . Научно-исследовательский совет.
  • Минский, Марвин ; Паперт, Сеймур (1969). «Персептроны: Введение в вычислительную геометрию». MIT Press. Cite journal requires |journal= (help)
  • МакКордак, Памела (2004), Машины, которые думают (2-е изд.), Натик, Массачусетс: AK Peters, Ltd., ISBN 1-56881-205-1
  • NRC (1999). «Разработки в области искусственного интеллекта» . Финансирование революции: государственная поддержка компьютерных исследований . Национальная академия прессы. Архивировано 12 января 2008 года . Проверено 30 августа 2007 года .CS1 maint: bot: original URL status unknown (link)
  • Ньюквист, HP (1994). Создатели мозга: гений, эго и жадность в поисках мыслящих машин . Macmillan / SAMS. ISBN 978-0-9885937-1-8.
  • Рассел, Стюарт Дж .; Норвиг, Питер (2003), Искусственный интеллект: современный подход (2-е изд.), Верхняя река Сэдл, Нью-Джерси: Prentice Hall, ISBN 0-13-790395-2

Дальнейшее чтение [ править ]

  • Маркус, Гэри , «Я человек ?: Исследователям нужны новые способы отличить искусственный интеллект от естественного», Scientific American , vol. 316, нет. 3 (март 2017 г.), стр. 58–63. Необходимы многочисленные тесты эффективности искусственного интеллекта , потому что «так же, как не существует единого теста спортивного мастерства, не может быть единого окончательного теста интеллекта ». Один из таких тестов, «Строительный вызов», будет проверять восприятие и физическое действие - «два важных элемента разумного поведения, которые полностью отсутствовали в исходном тесте Тьюринга.«Еще одно предложение заключалось в том, чтобы дать машинам те же стандартизированные тесты по науке и другим дисциплинам, которые проходят школьники. Пока что непреодолимым камнем преткновения для искусственного интеллекта является неспособность надежного устранения неоднозначности» . [V] Практически каждое предложение [, которое люди генерируют] является неоднозначным , часто по-разному ». Яркий пример известен как« проблема устранения неоднозначности местоимения »: машина не имеет возможности определить, для кого или какое местоимение в предложении - например,« он »,« она »или« это относится.
  • Люк Мюльхаузер (сентябрь 2016 г.). «Что мы должны узнать из прошлых прогнозов AI?» . Открыть проект благотворительности.

Внешние ссылки [ править ]

  • Статья ComputerWorld (февраль 2005 г.)
  • Информационный бюллетень AI Expert (январь 2005 г.)
  • «Если это работает, то это не ИИ: коммерческий взгляд на стартапы с искусственным интеллектом»
  • Паттерны программного обеспечения - сборник эссе Ричарда П. Габриэля , включая несколько автобиографических эссе
  • Обзор книги `` Искусственный интеллект: общий обзор от Джона Маккарти
  • Другие ресурсы о роботах Freddy II Включает ссылку на 90-минутные дебаты 1973 года « Противоречие » в Королевской академии Лайтхилла против Мичи, Маккарти и Грегори в ответ на отчет Лайтхилла британскому правительству.