Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Общий искусственный интеллект ( AGI ) - это гипотетическая [1] способность интеллектуального агента понимать или изучать любую интеллектуальную задачу, которую может выполнить человек . Это основная цель некоторых исследований искусственного интеллекта и общая тема в научной фантастике и исследованиях будущего . AGI также можно назвать сильным AI , [2] [3] [4] полным AI , [5] или общим интеллектуальным действием . [6] Некоторые академические источники резервируют термин «сильный ИИ» для компьютерных программ, которые могутощутите чувствительность , самосознание и сознание . [7] Предполагается, что сегодняшний искусственный интеллект находится на расстоянии десятилетий от AGI. [8] [9]

В отличие от сильного ИИ, слабый ИИ [10] (также называемый узким ИИ [3] ) не предназначен для реализации человеческих когнитивных способностей и личности ; скорее, слабый ИИ ограничивается использованием программного обеспечения для изучения или выполнения определенных заранее изученных задач или задач рассуждения ( экспертные системы ). [11]

По состоянию на 2017 год более сорока организаций активно исследуют AGI. [12]

Характеристики [ править ]

Были предложены различные критерии интеллекта (наиболее известный из них - тест Тьюринга ), но на сегодняшний день нет определения, которое бы удовлетворило всех. [а] Тем не менее, это широкое согласие среди исследователей искусственного интеллекта , что интеллект необходимо сделать следующее: [14]

  • рассуждать , использовать стратегию, решать головоломки и делать суждения в условиях неопределенности ;
  • представляют знания , включая здравый смысл ;
  • план ;
  • учиться ;
  • общаться на естественном языке ;
  • и объединить все эти навыки для достижения общих целей.

Другие важные способности включают способность чувствовать (например, видеть ) и способность действовать (например, перемещать и манипулировать объектами ) в мире, где должно наблюдаться разумное поведение. [15] Это будет включать способность обнаруживать опасность и реагировать на нее . [16] Многие междисциплинарные подходы к интеллекту (например, когнитивная наука , вычислительный интеллект и принятие решений ), как правило, подчеркивают необходимость учитывать дополнительные черты, такие как воображение (принимаемое как способность формировать мысленные образы и концепции, которые не были запрограммированы) [17 ] иавтономия . [18] Компьютерные системы, которые демонстрируют многие из этих возможностей, действительно существуют (например, см. Вычислительное творчество , автоматизированное мышление , систему поддержки принятия решений , робот , эволюционные вычисления , интеллектуальный агент ), но еще не на человеческом уровне.

Тесты для подтверждения ОИИ человеческого уровня[ редактировать ]

Были рассмотрены следующие тесты для подтверждения AGI человеческого уровня: [19] [20]

Тест Тьюринга ( Тьюринга )
И машина, и человек незримо общаются со вторым человеком, который должен оценить, какая из двух является машиной, которая проходит тест, если он может обмануть оценщика значительную часть времени. Примечание: Тьюринг не предписывает, что следует квалифицировать как интеллект, только то, что знание того, что это машина, должно его дисквалифицировать.
Кофейный тест ( Возняк )
Чтобы войти в средний американский дом и выяснить, как приготовить кофе, требуется машина: найти кофемашину, найти кофе, долить воды, найти кружку и сварить кофе, нажимая соответствующие кнопки.
Тест студента колледжа роботов ( Герцель )
Машина поступает в университет, берет и проходит те же курсы, что и люди, и получает ученую степень.
Тест на трудоустройство ( Нильссон )
Машина выполняет экономически важную работу, выполняя ту же работу не хуже, чем человек.

Проблемы, требующие решения AGI [ править ]

Наиболее сложные проблемы для компьютеров неофициально известны как «AI-complete» или «AI-hard», подразумевая, что их решение эквивалентно общим способностям человеческого интеллекта или сильному AI, за пределами возможностей целевого алгоритма. [21]

Предполагается, что проблемы с ИИ включают общее компьютерное зрение , понимание естественного языка и работу с неожиданными обстоятельствами при решении любой реальной проблемы. [22]

Проблемы, связанные с искусственным интеллектом, не могут быть решены только с помощью современных компьютерных технологий, а также требуют человеческих вычислений . Это свойство может быть полезно, например, для проверки присутствия людей, как это делают CAPTCHA ; и для компьютерной безопасности для отражения атак методом перебора . [23] [24]

История [ править ]

Классический ИИ [ править ]

Современные исследования ИИ начались в середине 1950-х годов. [25] Первое поколение исследователей ИИ было убеждено, что общий искусственный интеллект возможен и что он будет существовать всего через несколько десятилетий. Пионер искусственного интеллекта Герберт Саймон писал в 1965 году: «В течение двадцати лет машины будут способны выполнять любую работу, которую может выполнять человек». [26] Их предсказания послужили источником вдохновения для персонажа Стэнли Кубрика и Артура Кларка HAL 9000 , который воплотил то, что, по мнению исследователей ИИ, они могли создать к 2001 году. Пионер ИИ Марвин Мински был консультантом [27]о проекте сделать HAL 9000 максимально реалистичным в соответствии с общепринятыми прогнозами того времени; Кревье цитирует его слова по этому поводу в 1967 году: «В течение одного поколения ... проблема создания« искусственного интеллекта »будет существенно решена» [28], хотя Мински заявляет, что он был неправильно процитирован. [ необходима цитата ]

Однако в начале 1970-х годов стало очевидно, что исследователи сильно недооценили сложность проекта. Финансовые агентства стали скептически относиться к AGI и оказали на исследователей все большее давление, чтобы они создавали полезный «прикладной ИИ». [b] В начале 80-х годов Японский компьютерный проект пятого поколения возродил интерес к AGI, установив десятилетний график, который включал такие цели AGI, как «вести непринужденный разговор». [32] В ответ на это, а также на успех экспертных систем , как промышленность, так и правительство закачивали деньги обратно в эту область. [30] [33] Однако в конце 1980-х годов доверие к ИИ резко упало, и цели компьютерного проекта пятого поколения так и не были достигнуты.[34] Второй раз за 20 лет было показано, что исследователи ИИ, предсказавшие неизбежное достижение AGI, в корне ошибались. К 1990-м годам исследователи ИИ приобрели репутацию тех, кто дает пустые обещания. Они стали неохотно делать прогнозы вообще [c] и избегать любого упоминания об искусственном интеллекте «человеческого уровня» из-за страха быть названным «мечтателем с безумными глазами». [36]

Узкое исследование ИИ [ править ]

В 1990-х и начале 21-го века основной ИИ добился гораздо большего коммерческого успеха и академической респектабельности, сосредоточившись на конкретных подзадачах, где они могут давать проверяемые результаты, и коммерческих приложениях, таких как искусственные нейронные сети и статистическое машинное обучение . [37] Эти «прикладные системы искусственного интеллекта» теперь широко используются в технологической индустрии, и исследования в этом направлении очень сильно финансируются как в академических кругах, так и в промышленности. В настоящее время разработка этого месторождения считается развивающейся тенденцией, и ожидается, что она станет зрелой более чем через 10 лет. [38]

Большинство основных исследователей ИИ надеются, что сильный ИИ можно разработать, объединив программы, решающие различные подзадачи. Ганс Моравец писал в 1988 году:

«Я уверен, что этот восходящий путь к искусственному интеллекту однажды встретится с традиционным нисходящим маршрутом более чем на полпути, готовый предоставить реальную компетенцию и здравый смысл, которые так удручающе неуловимы в программах рассуждений. Полностью умные машины появятся, когда метафорический золотой шип будет запущен, объединив два усилия ». [39]

Однако даже эта фундаментальная философия оспаривается; например, Стеван Харнад из Принстона завершил свою статью 1990 года о гипотезе заземления символа , заявив:

«Часто высказывалось ожидание, что« нисходящие »(символические) подходы к моделированию познания каким-то образом встретятся с« восходящими »(сенсорными) подходами где-то посередине. Если обосновывающие соображения в этой статье верны, то это ожидание справедливо. безнадежно модульный, и на самом деле существует только один жизнеспособный путь от смысла к символам: с нуля. Свободно плавающий символический уровень, такой как уровень программного обеспечения компьютера, никогда не будет достигнут этим путем (или наоборот) - и это не ясно почему мы должны даже пытаться достичь такого уровня, поскольку кажется, что достижение этого уровня означало бы просто искоренить наши символы из их внутреннего значения (тем самым просто уменьшив себя до функционального эквивалента программируемого компьютера) ». [40]

Современные исследования общего искусственного интеллекта [ править ]

Термин «общий искусственный интеллект» был использован еще в 1997 году Марком Губрудом [41] при обсуждении последствий полностью автоматизированного военного производства и операций. Этот термин был вновь введен и популяризировал Шейн Легг и Бен Герцеля около 2002. [42] Целью исследования является намного старше, например , Дуг Ленат «s Cyc проекта (который начался в 1984 году), и Аллен Ньюэлл » s Сор проект является рассматривается как входящая в сферу действия AGI. Исследовательскую деятельность AGI в 2006 году описали Пей Ван и Бен Герцель [43].как «подготовка публикаций и предварительных результатов». Первая летняя школа AGI была организована в Сямэне, Китай, в 2009 году [44] Лабораторией искусственного мозга Университета Сямэня и OpenCog. Первый университетский курс был прочитан Тодором Арнаудовым в 2010 [45] и 2011 [46] в Пловдивском университете, Болгария. В 2018 году Массачусетский технологический институт представил курс AGI, организованный Лексом Фридманом с участием ряда приглашенных лекторов. Однако пока что большинство исследователей искусственного интеллекта уделяют мало внимания ОИИ, а некоторые утверждают, что интеллект слишком сложен, чтобы его можно было полностью воспроизвести в ближайшем будущем. Однако небольшое количество компьютерных ученых активно участвует в исследованиях AGI, и многие из этой группы участвуют в серии конференций AGI.. Исследования чрезвычайно разнообразны и часто носят новаторский характер. В предисловии к своей книге [47] Гертцель говорит, что оценки времени, необходимого для создания действительно гибкого ОИИ, варьируются от 10 лет до более чем столетия, но в исследовательском сообществе ОИИ, по-видимому, единодушное мнение о том, что сроки, обсуждаемые Рэй Курцвейл в книге «Сингулярность близка» [48] (т.е. между 2015 и 2045 годами) вполне правдоподобен. [49]

Тем не менее, основные исследователи ИИ высказали широкий спектр мнений о том, будет ли прогресс столь быстрым. Мета-анализ 95 таких мнений 2012 года выявил предвзятость в отношении предсказания того, что начало AGI произойдет в течение 16–26 лет, как для современных, так и для исторических прогнозов. Позже было обнаружено, что в наборе данных некоторые эксперты были указаны как неспециалисты, и наоборот. [50]

Организации явно преследующие AGI включают в себя лаборатории Swiss AI IDSIA , [51] Nnaisense, [52] Vicarious , Maluuba , [12] OpenCog Foundation , адаптивный А.И., ЛИДА , и Numenta и связанный Redwood Neuroscience институт . [53] Кроме того, были созданы такие организации, как Исследовательский институт машинного интеллекта [54] и OpenAI [55] , чтобы повлиять на путь развития AGI. Наконец, такие проекты, как Human Brain Project [56]имеют цель построить симуляцию функционирования человеческого мозга. В опросе AGI, проведенном в 2017 году, было классифицировано сорок пять известных «активных научно-исследовательских проектов», которые явно или неявно (посредством опубликованных исследований) исследуют AGI, из которых самыми крупными являются DeepMind , Human Brain Project и OpenAI . [12]

В 2017 году, [ править ] Бен Goertzel основал платформу AI SingularityNET с целью содействия демократическим, децентрализованное управление AGI , когда он приходит. [57]

В 2017 году исследователи Фэн Лю, Юн Ши и Ин Лю провели тесты интеллекта на общедоступных и свободно доступных слабых ИИ, таких как Google AI, Apple Siri и других. В максимуме эти ИИ достигли значения IQ около 47, что примерно соответствует шестилетнему ребенку в первом классе. Взрослый человек в среднем составляет около 100 человек. Подобные тесты были проведены в 2014 году, при этом показатель IQ достиг максимального значения 27. [58] [59]

В 2019 году программист видеоигр и аэрокосмический инженер Джон Кармак объявил о планах исследования AGI. [60]

В 2020 году OpenAI разработал GPT-3 , языковую модель, способную выполнять множество разнообразных задач без специального обучения. По словам Гэри Гроссмана в статье VentureBeat , несмотря на то, что существует консенсус в отношении того, что GPT-3 не является примером AGI, некоторые считают его слишком продвинутым, чтобы классифицировать его как узкую систему искусственного интеллекта. [61]

Моделирование мозга [ править ]

Эмуляция всего мозга [ править ]

Популярным обсуждаемым подходом к достижению общего разумного действия является эмуляция всего мозга . Модель мозга низкого уровня создается путем сканирования и детального отображения биологического мозга и копирования его состояния в компьютерную систему или другое вычислительное устройство. Компьютер запускает имитационную модель, настолько точную, что и оригинал, что она будет вести себя практически так же, как исходный мозг, или для всех практических целей, неотличимо. [62] Эмуляция всего мозга обсуждается в вычислительной нейробиологии и нейроинформатике в контексте моделирования мозга для медицинских исследовательских целей. Это обсуждается висследования искусственного интеллекта [49] как подход к сильному ИИ. Технологии нейровизуализации, которые могут обеспечить необходимое детальное понимание, быстро улучшаются, и футурист Рэй Курцвейл в книге «Сингулярность близка» [48] предсказывает, что карта достаточного качества станет доступной в том же масштабе времени, что и требуемые вычислительные мощности.

Ранние оценки [ править ]

Оценки того, сколько вычислительной мощности требуется для имитации человеческого мозга на различных уровнях (от Рэя Курцвейла, Андерса Сандберга и Ника Бострома ), а также самого быстрого суперкомпьютера из TOP500, отображаемого по годам. Обратите внимание на логарифмический масштаб и экспоненциальную линию тренда, которые предполагают, что вычислительные мощности удваиваются каждые 1,1 года. Курцвейл полагает, что загрузка разума станет возможной при нейронном моделировании, в то время как в отчете Сандберга и Бострома меньше уверенности в том, где возникает сознание . [63]

Для низкоуровневого моделирования мозга потребуется чрезвычайно мощный компьютер. Человеческий мозг имеет огромное количество синапсов . Каждый из 10 11 (ста миллиардов) нейронов имеет в среднем 7000 синаптических связей (синапсов) с другими нейронами. Было подсчитано, что мозг трехлетнего ребенка имеет около 10 15 синапсов (1 квадриллион). Это число снижается с возрастом и стабилизируется к зрелому возрасту. Для взрослого человека оценки варьируются от 10 14 до 5 × 10 14 синапсов (от 100 до 500 триллионов). [64] Оценка вычислительной мощности мозга, основанная на простой модели переключения нейронной активности, составляет около 10 14(100 триллионов) синаптических обновлений в секунду ( SUPS ). [65] В 1997 году Курцвейл рассмотрел различные оценки оборудования, необходимого для того, чтобы соответствовать человеческому мозгу, и принял показатель 10 16 вычислений в секунду (cps). [d] (Для сравнения, если «вычисление» было эквивалентно одной « операции с плавающей запятой » - мера, используемая для оценки текущих суперкомпьютеров - то 10 16 «вычислений» были бы эквивалентны 10 петафлопсам , достигнутым в 2011 году.). Он использовал эту цифру, чтобы спрогнозировать, что необходимое оборудование будет доступно где-то между 2015 и 2025 годами, если экспоненциальный рост мощности компьютеров на момент написания статьи продолжится.

Более детальное моделирование нейронов [ править ]

Модель искусственного нейрона, предложенная Курцвейлом и используемая во многих современных реализациях искусственных нейронных сетей, проста по сравнению с биологическими нейронами . Моделирование мозга, вероятно, должно было бы фиксировать детальное клеточное поведение биологических нейронов , которое в настоящее время понимается только в самом широком смысле. Накладные расходы, связанные с полным моделированием биологических, химических и физических деталей нейронного поведения (особенно в молекулярном масштабе), потребуют вычислительных мощностей на несколько порядков больше, чем оценка Курцвейла. Кроме того, оценки не учитывают глиальные клетки., которые, по крайней мере, так же многочисленны, как нейроны, и которые могут превосходить по численности нейроны до 10: 1, и, как теперь известно, играют роль в когнитивных процессах. [68]

Текущее исследование [ править ]

Есть несколько исследовательских проектов, которые исследуют моделирование мозга с использованием более сложных нейронных моделей, реализованных на обычных вычислительных архитектурах. В 2005 году в рамках проекта « Система искусственного интеллекта » было реализовано моделирование «мозга» (с 10–11 нейронами) не в реальном времени. Чтобы смоделировать 1 секунду модели, потребовалось 50 дней на кластере из 27 процессоров. [69] Blue Brain проект использовал один из самых быстрых архитектур суперкомпьютеров в мире, IBM «s Blue Gene платформу, чтобы создать в реальное время моделирования одиночной крысы неокортекса колонны , состоящей из приблизительно 10 000 нейронов и 10 8 синапсов в 2006 году.[70] Долгосрочная цель - построить детальное функциональное моделирование физиологических процессов в человеческом мозге: «Человеческий мозг не невозможно построить, и мы можем сделать это за 10 лет», - Генри Маркрам , директор Об этом заявил проект Blue Brain в 2009 году на конференции TED в Оксфорде. [71] Были также спорные утверждения о том, что имитировали мозг кошки . Нейро-кремниевые интерфейсы были предложены в качестве альтернативной стратегии реализации, которая может лучше масштабироваться. [72]

Ганс Моравек обратился к приведенным выше аргументам («мозг сложнее», «нейроны необходимо моделировать более подробно») в своей статье 1997 года «Когда компьютерное оборудование будет соответствовать человеческому мозгу?». [67] Он измерил способность существующего программного обеспечения моделировать функциональность нервной ткани, в частности сетчатки. Его результаты не зависят ни от количества глиальных клеток, ни от того, какие типы обрабатывающих нейронов и где они выполняют.

Фактическая сложность моделирования биологических нейронов была исследована в проекте OpenWorm, который был нацелен на полное моделирование червя, имеющего всего 302 нейрона в своей нейронной сети (из примерно 1000 ячеек в общей сложности). Нейронная сеть животного была хорошо задокументирована до начала проекта. Однако, хотя вначале задача казалась простой, модели, основанные на общей нейронной сети, не работали. В настоящее время усилия сосредоточены на точной имитации биологических нейронов (частично на молекулярном уровне), но результат пока нельзя назвать полным успехом. Даже если количество задач, которые необходимо решить в модели человеческого мозга, не пропорционально количеству нейронов, объем работы на этом пути очевиден.

Критика подходов, основанных на моделировании [ править ]

Фундаментальная критика подхода, основанного на моделировании мозга, исходит из воплощенного познания, в котором человеческое воплощение рассматривается как важнейший аспект человеческого интеллекта. Многие исследователи считают, что воплощение необходимо для обоснования смысла. [73] Если эта точка зрения верна, любая полностью функциональная модель мозга должна будет охватывать не только нейроны (например, тело робота). Гертцель [49] предлагает виртуальное воплощение (как в Second Life ), но пока неизвестно, будет ли этого достаточно.

Настольные компьютеры, использующие микропроцессоры, способные производить более 10 9 циклов в секунду (нестандартная единица «вычислений в секунду» Курцвейла, см. Выше), доступны с 2005 года. Согласно оценкам мощности мозга, используемым Курцвейлом (и Моравеком), этот компьютер должен быть способен поддерживать моделирование мозга пчелы, но, несмотря на некоторый интерес [74], такого моделирования не существует. [ необходима цитата ] Для этого есть как минимум три причины:

  1. Модель нейрона кажется слишком упрощенной (см. Следующий раздел).
  2. Недостаточно понимания высших когнитивных процессов [e], чтобы точно установить, с чем коррелирует нервная активность мозга, наблюдаемая с использованием таких методов, как функциональная магнитно-резонансная томография .
  3. Даже если наше понимание познания улучшится, ранние программы моделирования, вероятно, будут очень неэффективными и, следовательно, потребуют значительно большего количества оборудования.
  4. Мозг организма, хотя и имеет решающее значение, может не быть подходящей границей для когнитивной модели. Чтобы смоделировать мозг пчелы, может потребоваться смоделировать тело и окружающую среду. Тезис о расширенном разуме формализует философскую концепцию, а исследования головоногих моллюсков продемонстрировали четкие примеры децентрализованной системы. [76]

Кроме того, масштабы человеческого мозга в настоящее время плохо ограничены. По одной оценке, человеческий мозг насчитывает около 100 миллиардов нейронов и 100 триллионов синапсов. [77] [78] По другой оценке, 86 миллиардов нейронов, из которых 16,3 миллиарда находятся в коре головного мозга и 69 миллиардов - в мозжечке . [79] Количество синапсов глиальных клеток в настоящее время не определено, но известно, что их очень много.

Философская перспектива [ править ]

В 1980 году философ Джон Сирл ввел термин «сильный ИИ» как часть своей аргументации в пользу китайской комнаты . [80] Он хотел провести различие между двумя различными гипотезами об искусственном интеллекте: [f]

  • Система искусственного интеллекта может думать и иметь разум . (Слово «разум» имеет особое значение для философов, оно используется в « проблеме разума и тела » или « философии разума ».)
  • Система искусственного интеллекта может (только) действовать так, как она думает и имеет разум.

Первая называется « гипотезой сильного ИИ», а вторая - « гипотезой слабого ИИ», потому что первая делает более сильное утверждение: она предполагает, что с машиной произошло что-то особенное, что выходит за рамки всех ее возможностей, которые мы можем проверить. Сирл назвал «гипотезу сильного ИИ» «сильным ИИ». Это использование также распространено в академических исследованиях ИИ и учебниках. [81]

Гипотеза слабого ИИ эквивалентна гипотезе о возможности искусственного интеллекта в целом. По словам Рассела и Норвига , «большинство исследователей ИИ принимают гипотезу слабого ИИ как должное и не заботятся о сильной гипотезе ИИ». [82]

В отличие от Сёрла, Рэй Курцвейл использует термин «сильный ИИ» для описания любой системы искусственного интеллекта, которая действует так, как будто у нее есть разум [48], независимо от того, сможет ли философ определить, действительно ли у нее есть разум или нет. В научной фантастике ОИИ ассоциируется с такими чертами, как сознание , разумность , разумность и самосознание, наблюдаемыми у живых существ. Однако, по словам Серла, вопрос о том, достаточно ли общего интеллекта для сознания, остается открытым. «Сильный ИИ» (как определено выше Курцвейлом) не следует путать с « сильной гипотезой ИИ» Серла.. »Сильная гипотеза ИИ - это утверждение, что компьютер, который ведет себя так же разумно, как и человек, также обязательно должен иметь разум и сознание . AGI относится только к количеству интеллекта, который машина отображает, с разумом или без него.

Сознание [ править ]

Помимо интеллекта, существуют и другие аспекты человеческого разума, которые имеют отношение к концепции сильного ИИ, которые играют важную роль в научной фантастике и этике искусственного интеллекта :

  • Сознание : иметь субъективный опыт и мысли . [грамм]
  • самосознание : осознавать себя как отдельную личность, особенно осознавать свои собственные мысли.
  • разумность : способность «чувствовать» восприятие или эмоции субъективно.
  • разум : способность к мудрости.

Эти черты имеют моральное измерение, потому что машина с такой формой сильного ИИ может иметь права, аналогичные правам животных, не являющихся людьми . Таким образом, была проведена предварительная работа по подходам к интеграции полных этических агентов с существующими правовыми и социальными структурами. Эти подходы сосредоточены на правовом положении и правах «сильного» ИИ. [84]

Однако Билл Джой , среди прочих, утверждает, что машина с такими чертами может представлять угрозу для жизни или достоинства человека. [85] Остается показать ли какие - либо из этих признаков являются необходимым для сильного ИИ. Роль сознания не ясна, и в настоящее время нет согласованного теста на его присутствие. Если машина построена с устройством, которое имитирует нейронные корреляты сознания , будет ли у нее автоматически самоосознание? Также возможно, что некоторые из этих свойств, такие как разум, естественным образом возникают из полностью интеллектуальной машины, или что становится естественным приписыватьэти свойства для машин, когда они начинают действовать явно разумным образом. Например, разумного действия может быть достаточно для восприятия, а не наоборот.

Исследование искусственного сознания [ править ]

Хотя роль сознания в сильном AI / AGI спорна, многие исследователи AGI [75] считают исследования, изучающие возможности реализации сознания, жизненно важными. В своей ранней работе Игорь Александр [86] утверждал, что принципы создания сознательной машины уже существовали, но чтобы научить такую ​​машину понимать язык, потребуется сорок лет .

Возможные объяснения медленного прогресса исследований ИИ [ править ]

С момента начала исследований искусственного интеллекта в 1956 году рост этой области со временем замедлился и поставил в тупик цели создания машин, обладающих умными способностями к действию на человеческом уровне. [87] Возможное объяснение этой задержки заключается в том, что компьютерам не хватает достаточного объема памяти или вычислительной мощности. [87] Кроме того, уровень сложности, связанный с процессом исследования ИИ, также может ограничивать прогресс исследований ИИ. [87]

Хотя большинство исследователей ИИ считают, что сильный ИИ может быть достигнут в будущем, есть такие люди, как Хуберт Дрейфус и Роджер Пенроуз, которые отрицают возможность создания сильного ИИ. [87] Джон Маккарти был одним из различных компьютерных ученых, которые полагали, что ИИ на человеческом уровне будет совершен, но дату нельзя точно предсказать. [88]

Концептуальные ограничения - еще одна возможная причина медлительности исследований ИИ. [87] Исследователям ИИ, возможно, потребуется изменить концептуальные рамки своей дисциплины, чтобы обеспечить более прочную основу и внести свой вклад в поиски сильного ИИ. Как писал Уильям Клоксин в 2003 году: «концепция начинается с наблюдения Вейценбаума о том, что интеллект проявляется только в определенных социальных и культурных контекстах». [87]

Кроме того, исследователи ИИ смогли создать компьютеры, которые могут выполнять работу, сложную для людей, такую ​​как математика, но, наоборот, они изо всех сил пытались разработать компьютер, способный выполнять задачи, простые для людей. такие как ходьба ( парадокс Моравца ). [87] Проблема, описанная Дэвидом Гелернтером, состоит в том, что некоторые люди считают мышление и рассуждение эквивалентными. [89] Однако идея о том, изолированы ли мысли и создатель этих мыслей индивидуально, заинтриговала исследователей ИИ. [89]

Проблемы, с которыми столкнулись исследования ИИ за последние десятилетия, еще больше затруднили прогресс ИИ. Неудачные прогнозы, обещанные исследователями ИИ, и отсутствие полного понимания человеческого поведения помогли принизить основную идею ИИ человеческого уровня. [49] Хотя прогресс исследований ИИ принес как улучшения, так и разочарование, большинство исследователей с оптимизмом смотрят на возможное достижение цели ИИ в 21 веке. [49]

Были предложены и другие возможные причины длительного исследования развития сильного ИИ. Сложность научных проблем и необходимость полного понимания человеческого мозга с помощью психологии и нейрофизиологии ограничивают многих исследователей в имитации функции человеческого мозга в компьютерном оборудовании. [90] Многие исследователи склонны недооценивать любые сомнения, связанные с будущими предсказаниями ИИ, но, не принимая эти проблемы всерьез, люди могут упустить из виду решения проблемных вопросов. [49]

Клоксин говорит, что концептуальное ограничение, которое может препятствовать прогрессу исследований ИИ, заключается в том, что люди могут использовать неправильные методы для компьютерных программ и внедрения оборудования. [87] Когда исследователи ИИ впервые начали стремиться к созданию искусственного интеллекта, главным интересом было человеческое мышление. [91] Исследователи надеялись установить вычислительные модели человеческих знаний с помощью рассуждений и выяснить, как разработать компьютер для решения конкретной когнитивной задачи. [91]

Практика абстракции, которую люди склонны переопределять при работе с определенным контекстом исследования, позволяет исследователям сосредоточиться всего на нескольких концепциях. [91] Наиболее продуктивное использование абстракции в исследованиях искусственного интеллекта происходит от планирования и решения проблем. [91] Хотя цель состоит в том, чтобы увеличить скорость вычислений, роль абстракции поставила вопросы об участии операторов абстракции. [92]

Возможная причина медлительности ИИ связана с признанием многими исследователями ИИ того, что эвристика - это раздел, который содержит значительный разрыв между производительностью компьютера и производительностью человека. [90] Конкретные функции, которые запрограммированы для компьютера, могут учитывать многие требования, которые позволяют ему соответствовать человеческому интеллекту. Эти объяснения не обязательно являются фундаментальными причинами задержки в достижении сильного ИИ, но они широко признаны многочисленными исследователями.

Многие исследователи искусственного интеллекта спорят о том, следует ли создавать машины с помощью эмоций . В типичных моделях ИИ нет эмоций, и некоторые исследователи говорят, что программирование эмоций в машинах позволяет им иметь собственное мнение. [87] Эмоции суммируют переживания людей, потому что они позволяют им помнить эти переживания. [89] Дэвид Гелернтер пишет: «Ни один компьютер не будет творческим, если не сможет имитировать все нюансы человеческих эмоций». [89] Это беспокойство по поводу эмоций создало проблемы для исследователей ИИ и связано с концепцией сильного ИИ по мере продвижения его исследований в будущее. [93]

Споры и опасности [ править ]

Осуществимость [ править ]

По состоянию на август 2020 года AGI остается спекулятивным [8] [94], поскольку такая система еще не была продемонстрирована. Мнения расходятся как относительно того, появится ли вообще искусственный интеллект , и когда это произойдет. С одной стороны, пионер ИИ Герберт А. Саймон предположил в 1965 году: «В течение двадцати лет машины будут способны выполнять любую работу, которую может выполнять человек». Однако это предсказание не сбылось. Соучредитель Microsoft Пол Аллен считал, что такой интеллект маловероятен в 21 веке, потому что он потребует «непредвиденных и принципиально непредсказуемых прорывов» и «глубокого научного понимания познания». [95] Запись в The GuardianРобототехник Алан Уинфилд заявил, что пропасть между современными вычислениями и искусственным интеллектом человеческого уровня так же велика, как пропасть между текущим космическим полетом и практическим космическим полетом со скоростью быстрее света. [96]

Взгляды экспертов AI на осуществимость AGI увеличиваются и уменьшаются, и, возможно, в 2010-х годах они возродились. Четыре опроса, проведенные в 2012 и 2013 годах, показали, что среднее предположение экспертов относительно того, когда они будут на 50% уверены в появлении AGI, составляет 2040–2050, в зависимости от опроса, при среднем значении 2081. Из экспертов 16,5% ответили « никогда », когда ему задают тот же вопрос, но с вероятностью 90%. [97] [98] Дальнейшие текущие соображения относительно прогресса AGI можно найти ниже Тесты для подтверждения AGI человеческого уровня .

Потенциальная угроза человеческому существованию[ редактировать ]

Тезис о том, что ИИ представляет собой риск для существования и что этот риск требует гораздо большего внимания, чем ему уделяется в настоящее время, был поддержан многими общественными деятелями; пожалуй, самые известные - Илон Маск , Билл Гейтс и Стивен Хокинг . Наиболее известным исследователем искусственного интеллекта, поддержавшим этот тезис, является Стюарт Дж. Рассел . Сторонники тезиса иногда выражают недоумение скептикам: Гейтс заявляет, что он «не понимает, почему некоторые люди не обеспокоены» [99], а Хокинг подверг критике широко распространенное безразличие в своей редакционной статье 2014 года:

«Итак, столкнувшись с возможными непредсказуемыми выгодами и рисками в будущем, эксперты, несомненно, делают все возможное, чтобы обеспечить наилучший результат, верно? Неправильный. Если бы высшая инопланетная цивилизация отправила нам сообщение: «Мы прибудем через несколько десятилетий», мы бы просто ответили: «Хорошо, позвоните нам, когда доберетесь сюда - мы оставим свет включенным?» Наверное, нет - но это более или менее то, что происходит с ИИ ». [100]

Многие ученые, обеспокоенные экзистенциальным риском, считают, что лучшим путем вперед было бы провести (возможно, массовое) исследование для решения сложной « проблемы управления », чтобы ответить на вопрос: какие типы защиты, алгоритмы или архитектуры могут реализовать программисты. чтобы максимизировать вероятность того, что их рекурсивно улучшающийся ИИ продолжит вести себя дружелюбно, а не деструктивно после того, как достигнет суперинтеллекта? [84] [101]

У тезиса о том, что ИИ может представлять опасность для существования, также есть много сильных противников. Скептики иногда заявляют, что этот тезис является крипторелигиозным, с иррациональной верой в возможность суперинтеллекта заменить иррациональную веру во всемогущего Бога; в крайнем случае, Джарон Ланье утверждает, что вся концепция о том, что современные машины хоть как-то разумны, является «иллюзией» и «колоссальным обманом» богатых. [102]

Многие критики утверждают, что AGI маловероятен в краткосрочной перспективе. Ученый-компьютерщик Гордон Белл утверждает, что человечество уничтожит себя еще до того, как достигнет технологической сингулярности . Гордон Мур , изначальный сторонник закона Мура , заявляет: «Я скептик. Я не верю, что [технологическая сингулярность] может произойти, по крайней мере, в течение длительного времени. И я не знаю, почему я чувствую это способ." [103] Бывший вице-президент и главный научный сотрудник Baidu Эндрю Нг утверждает, что экзистенциальный риск ИИ «похож на беспокойство о перенаселенности Марса, когда мы еще даже не ступили на эту планету». [104]

Учреждения, работающие на базе ИИ, могут преодолеть эти потенциальные угрозы человеческим ресурсам путем разработки кросс-функциональных стратегий, в которых используются интегрированные знания, навыки и способности человека и ИИ при выполнении бизнес-функций, продвигаемых ИИ (например, прогнозирование мошенничества и оценка кредитных рисков в финансах, ИИ -возможное прогнозирование и решение проблем в управлении производством и цепочками поставок, автоматическое прогнозирование покупательского поведения потребителей в маркетинге и принятие стратегических решений). [105]

См. Также [ править ]

  • Искусственный мозг
  • Проблема управления ИИ
  • Автоматизированное машинное обучение
  • Инициатива BRAIN
  • Китайский мозговой проект
  • Институт будущего человечества
  • Общая игра
  • Проект человеческого мозга
  • Повышение интеллекта (IA)
  • Машинная этика
  • Многозадачное обучение
  • Схема искусственного интеллекта
  • Очертание трансгуманизма
  • Суперинтеллект
  • Синтетический интеллект
  • Передача обучения

Заметки [ править ]

  1. ^ Основатель ИИ Джон Маккарти пишет: «Мы еще не можем в целом охарактеризовать, какие виды вычислительных процедур мы хотим назвать интеллектуальными». [13] (Для обсуждения некоторых определений интеллекта, используемых исследователями искусственного интеллекта , см. Философию искусственного интеллекта .)
  2. ^ Отчет Лайтхилл конкретно критиковал «грандиозные цели» AI и привел разборку исследований ИИ в Англии. [29] В США DARPA решило финансировать только «целевые прямые исследования, а не фундаментальные ненаправленные исследования». [30] [31]
  3. ^ Какпишетоснователь ИИ Джон Маккарти, «было бы большим облегчением для остальных сотрудников ИИ, если бы изобретатели новых общих формализмов выразили бы свои надежды в более осторожной форме, чем это было иногда». [35]
  4. ^ В "Mind Children" [66] используется 10 15 гц. Совсем недавно, в 1997 г. [67] Моравек утверждал, что 10 8 MIPS примерно соответствуют 10 14 cps. Моравец использует термины MIPS, а не «cps», что является нестандартным термином, введенным Курцвейлом.
  5. ^ В книге Гертцельса AGI Юдковский предлагает 5 уровней организации, которые необходимо понять - код / ​​данные, сенсорная модальность, концепция и категория, мысль и обдумывание (сознание) - чтобы использовать доступное оборудование. [75]
  6. ^ Как определено в стандартном учебнике ИИ: «Утверждение, что машины могут действовать разумно (или, что лучше, действовать так, как если бы они были разумными), философы называют гипотезой« слабого ИИ », и утверждение, что машины, которые так поступают, действительно думают (в отличие от моделирования мышления), называется гипотезой «сильного ИИ» ». [65]
  7. ^ Обратите внимание, что сознание сложно определить. Популярное определение, данное Томасом Нагелем , состоит в том, что быть сознательным «похоже» на что-то. Если мы не в сознании, тогда это ни на что не похоже. Нагель использует пример летучей мыши: мы можем разумно спросить: «Каково это быть летучей мышью?» Однако вряд ли мы спросим: «А каково быть тостером?» Нагель приходит к выводу, что летучая мышь, кажется, находится в сознании (т.е. имеет сознание), а тостер - нет. [83]

Ссылки [ править ]

  1. Рианна Ходсон, Хэл (1 марта 2019 г.). «DeepMind и Google: битва за контроль над искусственным интеллектом» . 1843 . Архивировано 7 июля 2020 года . Дата обращения 7 июля 2020 . AGI означает общий искусственный интеллект, гипотетическую компьютерную программу ...
  2. Перейти ↑ Kurzweil 2005 , p. 260.
  3. ^ a b Курцвейл, Рэй (5 августа 2005a), "Да здравствует AI" , Forbes: Курцвейл описывает сильный ИИ как «машинный интеллект с полным спектром человеческого интеллекта».
  4. ^ Treder, Mike (10 августа 2005), "Advanced Human ntelligence" , Ответственный Nanotechnology , архивируются с оригинала на 16 октября 2019
  5. ^ «Эпоха искусственного интеллекта: Джордж Джон на TEDxLondonBusinessSchool 2013» . Архивировано 26 февраля 2014 года . Проверено 22 февраля 2014 года .
  6. ^ Newell & Simon 1976 , Это термин, который они используют для "человеческого уровня" интеллекта вгипотезе физической системы символов .
  7. ^ Searle 1980 , См. Ниже происхождение термина «сильный ИИ» и см. Академическое определение « сильного ИИ » в статье « Китайская комната» .
  8. ^ a b Буше, Филипп (март 2019 г.). «Заключительные замечания». Как работает искусственный интеллект (PDF) (Отчет). Европейская парламентская исследовательская служба. Архивировано 3 марта 2020 года (PDF) . Дата обращения 3 марта 2020 . Сегодняшний ИИ мощный и полезный, но он далек от предполагаемого AGI или ASI.
  9. Грейс, Катя; Сальватье, Джон; Дефо, Аллан; Чжан, Баобао; Эванс, Оуайн (31 июля 2018 г.). «Точка зрения: когда ИИ превзойдет человеческие возможности? Данные экспертов по ИИ» . Журнал исследований искусственного интеллекта . 62 : 729–754. DOI : 10.1613 / jair.1.11222 . ISSN 1076-9757 . 
  10. ^ «Открытый университет сильного и слабого ИИ» . Архивировано из оригинального 25 сентября 2009 года . Проверено 8 октября 2007 года .
  11. ^ «Философия будет ключом к открытию искусственного интеллекта | Неврология | Хранитель» . Архивировано 6 февраля 2021 года. CS1 maint: обескураженный параметр ( ссылка )
  12. ^ a b c Баум, Сет (12 ноября 2017 г.), «Обзор проектов общего искусственного интеллекта с точки зрения этики, рисков и политики», SSRN , SSRN 3070741 , Рабочий документ Института глобального катастрофического риска 17-1 
  13. ^ Маккарти, Джон (2007a). «Основные вопросы» . Стэнфордский университет . Архивировано 26 октября 2007 года . Проверено 6 декабря 2007 года .
  14. ^ Этот список интеллектуальных качеств основан на темах, охваченных основными учебниками по искусственному интеллекту, в том числе: Russell & Norvig 2003 , Luger & Stubblefield 2004 , Poole, Mackworth & Goebel 1998 и Nilsson 1998 .
  15. ^ Пфайфер, Р. и Бонгард Дж. К., Как тело формирует образ нашего мышления: новый взгляд на интеллект (MIT Press, 2007). ISBN 0-262-16239-3 
  16. ^ Уайт, RW (1959). «Мотивация по-новому: понятие компетентности». Психологический обзор . 66 (5): 297–333. DOI : 10.1037 / h0040934 . PMID 13844397 . 
  17. ^ Джонсон 1987
  18. ^ де Чармс, Р. (1968). Личная причинно-следственная связь. Нью-Йорк: Academic Press.
  19. ^ Muehlhauser, Лука (11 августа 2013). "Что такое AGI?" . Научно-исследовательский институт машинного интеллекта. Архивировано 25 апреля 2014 года . Дата обращения 1 мая 2014 .
  20. ^ «Что такое общий искусственный интеллект (AGI)? | 4 теста для обеспечения общего искусственного интеллекта» . Talky Blog . 13 июля 2019 года. Архивировано 17 июля 2019 года . Проверено 17 июля 2019 .
  21. ^ Шапиро, Стюарт С. (1992). «Искусственный интеллект» (PDF) . В Стюарте С. Шапиро (ред.). Энциклопедия искусственного интеллекта (второе изд.). Нью-Йорк: Джон Вили. С. 54–57. Архивировано (PDF) из оригинала 1 февраля 2016 года. (Раздел 4 посвящен «Задачи, выполняемые ИИ».)
  22. Ямпольский, Роман В. (2012). Синь-Шэ Ян (ред.). «Тест Тьюринга как определяющая характеристика AI-полноты» (PDF) . Искусственный интеллект, эволюционные вычисления и метаэвристика (AIECM) : 3–17. Архивировано 22 мая 2013 года (PDF) из оригинала.
  23. ^ Луис фон Ан, Мануэль Блюм, Николас Хоппер и Джон Лэнгфорд. CAPTCHA: Использование сложных проблем искусственного интеллекта для обеспечения безопасности. Архивировано 4 марта 2016 года на Wayback Machine . В Proceedings of Eurocrypt, Vol. 2656 (2003), стр. 294–311.
  24. ^ Bergmair, Ричард (7 января 2006). "Стеганография естественного языка и" ИИ-полный "примитив безопасности". CiteSeer . CiteSeerX 10.1.1.105.129 . 
  25. ^ Кревьер 1993 , стр. 48-50
  26. ^ Саймон 1965 , стр. 96 цитируется по Crevier 1993 , p. 109
  27. ^ "Ученый на съемочной площадке: Интервью с Марвином Мински" . Архивировано 16 июля 2012 года . Проверено 5 апреля 2008 года .
  28. ^ Марвин Мински к Darrach (1970) , цитируемый в Кревьер (1993 , стр. 109).
  29. ^ Lighthill 1973 ; Хау 1994
  30. ^ a b NRC 1999 , «Переход к прикладным исследованиям увеличивает инвестиции».
  31. ^ Кревьер 1993 , стр 115-117. Russell & Norvig 2003 , стр. 21–22.
  32. ^ Кревьер 1993 , стр. 211, Russell & Norvig 2003 , стр. 24и см. Также Feigenbaum & McCorduck 1983
  33. ^ Кревьер 1993 , стр 161-162,197-203,240. Рассел и Норвиг 2003 , стр. 25.
  34. ^ Кревьер 1993 , стр. 209-212
  35. ^ Маккарти, Джон (2000). «Ответ Лайтхиллу» . Стэндфордский Университет. Архивировано 30 сентября 2008 года . Проверено 29 сентября 2007 года .
  36. ^ Markoff, Джон (14 октября 2005). «За искусственным интеллектом - эскадрилья ярких реальных людей» . Нью-Йорк Таймс . На его низком уровне некоторые компьютерные ученые и инженеры-программисты избегали термина «искусственный интеллект» из опасения, что их сочтут безумными мечтателями.
  37. ^ Russell & Норвиг 2003 , стр. 25-26
  38. ^ «Тенденции в Цикле Развивающихся Технологий» . Отчеты Gartner. Архивировано 22 мая 2019 года . Дата обращения 7 мая 2019 .
  39. Перейти ↑ Moravec 1988 , p. 20
  40. ^ Харнад S (1990). «Проблема заземления символа». Physica D . 42 (1–3): 335–346. arXiv : cs / 9906002 . Bibcode : 1990PhyD ... 42..335H . DOI : 10.1016 / 0167-2789 (90) 90087-6 .
  41. ^ Губруд 1997
  42. ^ «Кто придумал термин« AGI »?» Goertzel.org » . Архивировано 28 декабря 2018 года . Проверено 28 декабря 2018 ., via Life 3.0 : «Термин« AGI »популяризировали ... Шейн Легг, Марк Губруд и Бен Гертцель»
  43. ^ Wang & Goertzel 2007 . См. Также Wang (2006) [ требуется полная ссылка ] с обновленным резюме и множеством ссылок.
  44. ^ «Первая международная летняя школа в области общего искусственного интеллекта, Основная летняя школа: 22 июня - 3 июля 2009 г., OpenCog Lab: 6-9 июля 2009 г.» . Архивировано 28 сентября 2020 года . Дата обращения 11 мая 2020 .
  45. ^ «Избираеми дисциплини 2009/2010 - пролетен триместър» [Элективные курсы 2009/2010 - весенний триместр]. Факултет по математика и информатика [Факультет математики и информатики] (на болгарском языке). Архивировано 26 июля 2020 года . Дата обращения 11 мая 2020 .
  46. ^ "Избираеми дисциплини 2010/2011 - зимен триместър" [Элективные курсы 2010/2011 - зимний триместр]. Факултет по математика и информатика [Факультет математики и информатики] (на болгарском языке). Архивировано 26 июля 2020 года . Дата обращения 11 мая 2020 .
  47. ^ Goertzel & Pennachin 2006 .
  48. ^ a b c ( Курцвейл 2005 , стр. 260) или см. Advanced Human Intelligence, архивную копию 30 июня 2011 г. на Wayback Machine, где он определяет сильный ИИ как «машинный интеллект с полным спектром человеческого интеллекта».
  49. ^ a b c d e f Goertzel 2007 .
  50. ^ Катя Грейс (2016). «Ошибка в Армстронге и Сотале 2012» . AI Impacts (блог). Архивировано 4 декабря 2020 года . Проверено 24 августа 2020 .
  51. Маркус Хаттер (апрель 2004 г.). «Интеллектуальные машины, которые обучаются без посторонней помощи» (PDF) . ВПЕЧАТЛЕНИЕ . Тичино Рицерка. Архивировано 17 октября 2016 года (PDF) . Проверено 24 августа 2020 .
  52. ^ Марков, Джон (27 ноября 2016 г.). «Когда ИИ созревает, он может называть Юргена Шмидхубера« папой » » . Нью-Йорк Таймс . Архивировано 26 декабря 2017 года . Проверено 26 декабря 2017 года .
  53. ^ Джеймс Баррат (2013). «Глава 11: Жесткий взлет». Наше последнее изобретение: искусственный интеллект и конец человеческой эры (первое издание). Нью-Йорк: Издательство Св. Мартина. ISBN 9780312622374.
  54. ^ "О научно-исследовательском институте машинного интеллекта" . Научно-исследовательский институт машинного интеллекта . Архивировано 21 января 2018 года . Проверено 26 декабря 2017 года .
  55. ^ "О OpenAI" . OpenAI . Архивировано 22 декабря 2017 года . Проверено 26 декабря 2017 года .
  56. ^ Тейл, Стефан. «Беспокойство в уме» . Scientific American . С. 36–42. Bibcode : 2015SciAm.313d..36T . DOI : 10.1038 / Scientificamerican1015-36 . Архивировано 9 ноября 2017 года . Проверено 26 декабря 2017 года .
  57. ^ Вальй, Кэтлин (14 июля 2020). «На горизонте ли искусственный общий интеллект (AGI)? Интервью с доктором Беном Гертцеля, генеральным директором и основателем SingularityNET Foundation» . Forbes . Архивировано 6 ноября 2020 года . Проверено 16 октября 2020 года .Доктор Герцель является основателем SingularityNET, децентрализованной платформы искусственного интеллекта, которая позволяет нескольким агентам искусственного интеллекта совместно решать проблемы без какого-либо центрального контроллера. ... Доктор Гертцель создал SingularityNET по одной простой причине: «Я намерен создать AGI, и когда я разверну этот AGI, я хочу, чтобы он был развернут децентрализованным и демократически контролируемым способом, а не способом, который позволяет это сделать». должны контролироваться любым физическим, юридическим или государственным лицом ».
  58. ^ Лю, Фэн; Ши, Юн; Лю, Ин (2017). «Коэффициент интеллекта и уровень интеллекта искусственного интеллекта». Анналы науки о данных . 4 (2): 179–191. arXiv : 1709.10242 . Bibcode : 2017arXiv170910242L . DOI : 10.1007 / s40745-017-0109-0 . S2CID 37900130 . 
  59. Brien, Jörn (5 октября 2017 г.). «Google-KI doppelt so schlau wie Siri» [Google AI вдвое умнее Siri, но шестилетний ребенок лучше обоих] (на немецком языке). Архивировано 3 января 2019 года . Проверено 2 января 2019 .
  60. Лоулер, Ричард (13 ноября 2019 г.). «Джон Кармак делает шаг назад в Oculus, чтобы работать над человеческим ИИ» . Engadget . Архивировано 26 июля 2020 года . Проверено 4 апреля 2020 года .
  61. Гроссман, Гэри (3 сентября 2020 г.). «Мы входим в сумеречную зону ИИ между узким и общим ИИ» . VentureBeat . Архивировано 4 сентября 2020 года . Дата обращения 5 сентября 2020 . Конечно, есть и те, кто утверждает, что мы уже видим ранний пример системы AGI в недавно анонсированной нейронной сети обработки естественного языка (NLP) GPT-3. ... Так является ли GPT-3 первым примером системы AGI? Это спорно, но все согласны с тем, что это не AGI. ... Во всяком случае, GPT-3 говорит нам, что есть золотая середина между узким и общим ИИ.
  62. ^ Сандберг и Бострем 2008 . «Основная идея состоит в том, чтобы взять конкретный мозг, детально просканировать его структуру и построить его программную модель, которая настолько верна оригиналу, что при запуске на соответствующем оборудовании он будет вести себя практически так же, как оригинал. мозг."
  63. ^ Сандберг и Бострем 2008 .
  64. ^ Drachman 2005 .
  65. ^ а б Рассел и Норвиг 2003 .
  66. Перейти ↑ Moravec 1988 , p. 61.
  67. ^ а б Моравец 1998 .
  68. ^ Сваминатана, Нихилу (январь-февраль 2011). «Глия - другие клетки мозга» . Откройте для себя . Архивировано 8 февраля 2014 года . Проверено 24 января 2014 года .
  69. ^ Ижикевич, Евгений М .; Эдельман, Джеральд М. (4 марта 2008 г.). «Крупномасштабная модель таламокортикальной системы млекопитающих» (PDF) . PNAS . 105 (9): 3593–3598. Bibcode : 2008PNAS..105.3593I . DOI : 10.1073 / pnas.0712231105 . PMC 2265160 . PMID 18292226 . Архивировано из оригинального (PDF) 12 июня 2009 года . Проверено 23 июня 2015 года .   
  70. ^ "Вехи проекта" . Голубой мозг . Проверено 11 августа 2008 года .
  71. ^ "Искусственный мозг '10 лет спустя' 2009 Новости BBC" . 22 июля 2009 года архивация от оригинала 26 июля 2017 года . Проверено 25 июля 2009 года .
  72. ^ Новости Университета Калгари. Архивировано 18 августа 2009 г. в Wayback Machine , новости NBC News. Архивировано 4 июля 2017 г. в Wayback Machine.
  73. ^ Де Вега, Glenberg и Graesser 2008 . Широкий спектр взглядов в текущих исследованиях, все из которых в той или иной степени требуют обоснования.
  74. ^ "[ссылки на исследования мозга пчел]" . Мозг медоносной пчелы . Архивировано 25 июля 2008 года . Проверено 30 марта 2010 года .CS1 maint: неподходящий URL ( ссылка )
  75. ^ а б Юдковский 2006 .
  76. ^ Yekutieli, Y; Сагив-Зохар, Р; Ааронов, Р; Энгель, У; Hochner, B; Флэш, Т (август 2005 г.). «Динамическая модель руки осьминога. I. Биомеханика движения осьминога, достигающего движения». J. Neurophysiol . 94 (2): 1443–58. DOI : 10,1152 / jn.00684.2004 . PMID 15829594 . 
  77. ^ Уильямс и Херруп 1988
  78. ^ "нервная система, человек". Британская энциклопедия . 9 января 2007 г.
  79. ^ Азеведо и др. 2009 .
  80. ^ Сирл 1980
  81. ^ Например:
    • Рассел и Норвиг, 2003 г. ,
    • Психологический словарь Oxford University Press. Архивировано 3 декабря 2007 г. в Wayback Machine (цитируется в «Энциклопедии дальнего света»),
    • MIT Энциклопедия когнитивной науки архивной 19 июля 2008 в Wayback Machine (цитируется в «AITopics»)
    • Planet Math. Архивировано 19 сентября 2007 года в Wayback Machine.
    • Смогут ли биологические компьютеры превратить машины с искусственным интеллектом в людей? Архивировано 13 мая 2008 года в Wayback Machine Энтони Тонген.
  82. ^ Russell & Норвиг 2003 , стр. 947.
  83. Перейти ↑ Nagel 1974 .
  84. ^ а б Сотала, Кай; Ямпольский, Роман В. (19 декабря 2014 г.). «Ответы на катастрофический риск AGI: обзор» . Physica Scripta . 90 (1). DOI : 10.1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 . 
  85. Джой, Билл (апрель 2000 г.). «Почему мы не нужны будущему». Проводной .
  86. Александр 1996 .
  87. ^ a b c d e f g h i Часы в 2003 году .
  88. ^ Маккарти 2003 .
  89. ^ а б в г Гелернтер 2010 .
  90. ^ а б Маккарти 2007 .
  91. ^ а б в г Holte & Choueiry 2003 .
  92. Перейти ↑ Zucker 2003 .
  93. ^ Каплан, Андреас; Хенлайн, Майкл (2019). «Каплан Андреас и Хэляйн Майкл (2019) Siri, Siri, в моей руке: кто самый справедливый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты . 62 : 15–25. DOI : 10.1016 / j.bushor.2018.08.004 .
  94. ^ itu.int: Beyond Mad ?: The Race For Artificial General Intelligence Архивировано 9 ноября 2020 года в Wayback Machine : «AGI представляет собой уровень силы, который на сегодняшний день твердо остается в сфере спекулятивной фантастики». 2 февраля 2018 г., получено 3 марта 2020 г.
  95. ^ Аллен, Пол. «Сингулярности нет рядом» . Обзор технологий Массачусетского технологического института . Проверено 17 сентября 2014 года .
  96. ^ Уинфилд, Алан. «Искусственный интеллект не превратится в монстра Франкенштейна» . Хранитель . Архивировано 17 сентября 2014 года . Проверено 17 сентября 2014 года .
  97. ^ Раффи Хачатурян (23 ноября 2015). «Изобретение Судного дня: принесет ли нам искусственный интеллект утопию или разрушение?» . Житель Нью-Йорка . Архивировано 28 января 2016 года . Проверено 7 февраля +2016 .
  98. Перейти ↑ Müller, VC, & Bostrom, N. (2016). Будущий прогресс в области искусственного интеллекта: обзор мнения экспертов. В «Фундаментальные вопросы искусственного интеллекта» (стр. 555–572). Спрингер, Чам.
  99. ^ Роулинсон, Кевин. «Билл Гейтс из Microsoft настаивает, что ИИ представляет собой угрозу» . BBC News . Архивировано 29 января 2015 года . Проверено 30 января 2015 года .
  100. ^ «Стивен Хокинг:« Трансцендентность рассматривает последствия использования искусственного интеллекта - но достаточно ли серьезно мы относимся к ИИ? » » . Индепендент (Великобритания) . Архивировано 25 сентября 2015 года . Проверено 3 декабря 2014 .
  101. ^ Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии (Первое изд.). ISBN 978-0199678112.
  102. ^ "Но что будет для меня конец человечества?" . Атлантика . 9 мая 2014. Архивировано 4 июня 2014 года . Проверено 12 декабря 2015 года .
  103. ^ "Светильники техники обращаются к сингулярности" . IEEE Spectrum: Новости технологий, техники и науки (СПЕЦИАЛЬНЫЙ ОТЧЕТ: ОСОБЕННОСТЬ). 1 июня 2008. Архивировано 30 апреля 2019 года . Проверено 8 апреля 2020 .
  104. ^ Shermer, Майкл (1 марта 2017). «Апокалипсис AI» . Scientific American . п. 77. Bibcode : 2017SciAm.316c..77S . DOI : 10.1038 / Scientificamerican0317-77 . Архивировано 1 декабря 2017 года . Проверено 27 ноября 2017 года .
  105. ^ Юнис, RAA; Адель, HM (2020). Стратегия искусственного интеллекта, управление персоналом, ориентированное на творчество, и качество обмена знаниями: эмпирический анализ индивидуальной и организационной эффективности предприятий, использующих искусственный интеллект . Лондон, Соединенное Королевство: Материалы ежегодной международной конференции Британской академии менеджмента (BAM) 2020: инновации для устойчивого будущего. ISBN 978-0-9956413-3-4.

Источники [ править ]

  • Александр, Игорь (1996), Impossible Minds , World Scientific Publishing Company, ISBN 978-1-86094-036-1
  • Азеведо Ф.А., Карвалью Л.Р., Гринберг Л.Т., Фарфель Дж. И др. (Апрель 2009), «Равные количества нейронов и ненейронных клетки делают человеческий мозг изометрический уменьшенным до мозга приматов» , Журнал сравнительной неврологии , 513 (5): 532-41, DOI : 10.1002 / cne.21974 , PMID  19226510 , заархивировано из оригинала 18 февраля 2021 года , извлечено 4 сентября 2013 года.
  • Берглас, Энтони (2008 г.), « Искусственный интеллект убьет наших внуков» , заархивировано из оригинала 23 июля 2014 г. , получено 31 августа 2012 г.
  • Чалмерс, Дэвид (1996), Сознательный разум , Oxford University Press.
  • Clocksin, Уильям (август 2003), "Искусственный интеллект и будущее", Философские труды Королевского общества А , 361 (1809): 1721-1748, Bibcode : 2003RSPTA.361.1721C , DOI : 10.1098 / rsta.2003.1232 , PMID  12952683 , S2CID  31032007.
  • Кревье, Даниэль (1993), AI: Бурный поиск искусственного интеллекта , Нью-Йорк, Нью-Йорк: BasicBooks, ISBN 0-465-02997-3 
  • Даррах, Брэд (20 ноября 1970 г.), «Познакомьтесь с Шейки, первым электронным человеком», журнал Life , стр. 58–68.
  • Drachman, D (2005), "У нас есть мозг запасных?", Neurology , 64 (12): 2004-5, DOI : 10,1212 / 01.WNL.0000166914.38327.BB , PMID  15985565 , S2CID  38482114.
  • Фейгенбаум, Эдвард А .; МакКордак, Памела (1983), Пятое поколение: искусственный интеллект и компьютерный вызов Японии миру , Майкл Джозеф, ISBN 978-0-7181-2401-4
  • Гелернтер, Дэвид (2010), Логика сновидений, Интернет и искусственная мысль , заархивировано из оригинала 26 июля 2010 года , извлечено 25 июля 2010 года.
  • Герцель, Бен; Пенначин, Кассио, ред. (2006), Общий искусственный интеллект (PDF) , Springer, ISBN 978-3-540-23733-4, архивировано из оригинального (PDF) 20 марта 2013 г.
  • Герцель, Бен (декабрь 2007 г.), «Общий искусственный интеллект человеческого уровня и возможность технологической сингулярности: реакция на книгу Рэя Курцвейла« Сингулярность близка »и критика Курцвейла Макдермоттом» , « Искусственный интеллект» , 171 (18, Special Review Issue ): 1161–1173, doi : 10.1016 / j.artint.2007.10.011 , заархивировано из оригинала 7 января 2016 г. , получено 1 апреля 2009 г..
  • Губруд, Марк (ноябрь 1997 г.), «Нанотехнологии и международная безопасность» , Пятая конференция предвидения по молекулярным нанотехнологиям , заархивировано из оригинала 29 мая 2011 г. , извлечено 7 мая 2011 г.
  • Халяль, Уильям Э. "Серия статей TechCast: Автоматизация мысли" (PDF) . Архивировано из оригинального (PDF) 6 июня 2013 года.
  • Holte, RC; Choueiry, BY (2003), «Абстракция и переформулирование в искусственном интеллекте», Philosophical Transactions of the Royal Society B , 358 (1435): 1197–1204, DOI : 10.1098 / rstb.2003.1317 , PMC  1693218 , PMID  12903653.
  • Хоу Дж. (Ноябрь 1994 г.), « Искусственный интеллект в Эдинбургском университете: перспектива» , заархивировано из оригинала 17 августа 2007 г. , получено 30 августа 2007 г.
  • Джонсон, Марк (1987), Тело в уме , Чикаго, ISBN 978-0-226-40317-5
  • Курцвейл, Рэй (2005), Сингулярность близка , Viking Press
  • Лайтхилл, профессор сэр Джеймс (1973), «Искусственный интеллект: общий обзор», Искусственный интеллект: бумажный симпозиум , Совет по научным исследованиям
  • Люгер, Джордж; Стабблфилд, Уильям (2004), Искусственный интеллект: структуры и стратегии для решения сложных проблем (5-е изд.), Издательство Benjamin / Cummings Publishing Company, Inc., стр. 720 , ISBN 978-0-8053-4780-7
  • МакКарти, Джон (октябрь 2007), "Отсюда до уровня человеческого интеллекта", Искусственный интеллект , 171 (18): 1174-1182, DOI : 10.1016 / j.artint.2007.10.009.
  • МакКордак, Памела (2004), Машины, которые думают (2-е изд.), Натик, Массачусетс: AK Peters, Ltd., ISBN 1-56881-205-1
  • Moravec, Hans (1976), The Role of Raw Power in Intelligence , заархивировано из оригинала 3 марта 2016 года , извлечено 29 сентября 2007 года.
  • Моравец, Ганс (1988), Дети разума , издательство Гарвардского университета
  • Моравец, Ханс (1998), "Когда компьютерное оборудование будет соответствовать человеческому мозгу?" , Journal of Evolution and Technology , 1 , заархивировано из оригинала 15 июня 2006 г. , извлечено 23 июня 2006 г.
  • Nagel (1974), "Что значит быть летучей мышью" (PDF) , Философский обзор , 83 (4): 435-50, DOI : 10,2307 / 2183914 , JSTOR  2183914 , архивируются (PDF) с оригинала на 16 октября 2011 г. , дата обращения 7 ноября 2009 г..
  • Ньюэлл, Аллен ; Саймон, HA (1963), «GPS: программа, имитирующая человеческую мысль», в Feigenbaum, EA; Фельдман, Дж. (Ред.), Компьютеры и мысль , Нью-Йорк: Макгроу-Хилл.
  • Ньюэлл, Аллен ; Саймон, HA (1976). «Информатика как эмпирическое исследование: символы и поиск» . Коммуникации ACM . 19 (3): 113–126. DOI : 10.1145 / 360018.360022 .
  • Нильссон, Нильс (1998), Искусственный интеллект: новый синтез , издательство Morgan Kaufmann, ISBN 978-1-55860-467-4
  • NRC (1999), «Разработки в области искусственного интеллекта» , « Финансирование революции: государственная поддержка компьютерных исследований» , National Academy Press, заархивировано из оригинала 12 января 2008 г. , извлечено 29 сентября 2007 г.
  • Омохундро, Стив (2008 г.), «Природа самоулучшающегося искусственного интеллекта» , представленный и распространенный на саммите Singularity в 2007 г., Сан-Франциско, Калифорния.
  • Пул, Дэвид ; Макворт, Алан; Goebel, Randy (1998), Computational Intelligence: A Logical Approach , New York: Oxford University Press, архивировано из оригинала 25 июля 2009 г. , извлечено 6 декабря 2007 г.
  • Рассел, Стюарт Дж .; Норвиг, Питер (2003), Искусственный интеллект: современный подход (2-е изд.), Верхняя река Сэдл, Нью-Джерси: Prentice Hall, ISBN 0-13-790395-2
  • Сандберг, Андерс; Бострем, Ник (2008 г.), Эмуляция всего мозга: дорожная карта (PDF) , Технический отчет № 2008-3, Институт будущего человечества, Оксфордский университет, архив (PDF) из оригинала 25 марта 2020 г. , извлечен 5 апреля 2009 г.
  • Сирл, Джон (1980), «Умы, мозг и программы» (PDF) , Behavioral and Brain Sciences , 3 (3): 417–457, doi : 10.1017 / S0140525X00005756 , заархивировано (PDF) из оригинала 17 марта 2019 г. , получено 3 сентября 2020
  • Саймон, HA (1965), Форма автоматизации для мужчин и управления , Нью-Йорк: Harper & Row
  • Сазерленд, Дж. Г. (1990), «Голографическая модель памяти, обучения и выражения», Международный журнал нейронных систем , 1–3 : 256–267.
  • де Вега, Мануэль; Гленберг, Артур; Грэссер, Артур, ред. (2008), Символы и воплощение: дебаты о значении и познании , Oxford University Press, ISBN 978-0-19-921727-4.
  • Ван, Пей; Герцель, Бен (2007). «Введение: аспекты общего искусственного интеллекта» . Достижения в области общего искусственного интеллекта: концепции, архитектуры и алгоритмы: материалы семинара AGI 2006 . С. 1–16. ISBN 978-1-58603-758-1. Архивировано 18 февраля 2021 года . Проверено 13 декабря 2020 .
  • Williams RW, Herrup К (1988), "Контроль количества нейронов", Годовой обзор Neuroscience , 11 : 423-53, DOI : 10,1146 / annurev.ne.11.030188.002231 , PMID  3284447.
  • Юдковски Элиэзер (2006), "Искусственный интеллект General" (PDF) , Годовой обзор психологии , Springer, 49 : 585-612, DOI : 10,1146 / annurev.psych.49.1.585 , ISBN 978-3-540-23733-4, PMID  9496632 , архивировано из оригинального (PDF) 11 апреля 2009 г..
  • Юдковский, Элиэзер (2008), «Искусственный интеллект как положительный и отрицательный фактор глобального риска», Global Catastrophic Risks , Bibcode : 2008gcr..book..303Y.
  • Цукер, Жан-Даниэль (июль 2003 г.), «Обоснованная теория абстракции в искусственном интеллекте», Philosophical Transactions of the Royal Society B , 358 (1435): 1293–1309, doi : 10.1098 / rstb.2003.1308 , PMC  1693211 , PMID  12903672.

Внешние ссылки [ править ]

  • Портал AGI, поддерживаемый Пей Ван
  • Genesis Group в CSAIL Массачусетского технологического института - Современные исследования вычислений, лежащих в основе человеческого интеллекта
  • OpenCog - проект с открытым исходным кодом для разработки ИИ человеческого уровня
  • Имитация логического мышления человека
  • Что мы знаем о графиках работы ИИ? - Литературный обзор