Из Википедии, бесплатной энциклопедии
  (Перенаправлено из Philosophy of AI )
Перейти к навигации Перейти к поиску

Философии искусственного интеллекта является ветвью философии техники , которая исследует искусственный интеллект и его последствия для познания и понимания интеллекта , этики , сознания , гносеологии и свободной воли . [1] Кроме того, технология связана с созданием искусственных животных или искусственных людей (или, по крайней мере, искусственных существ; см. Искусственную жизнь ), поэтому эта дисциплина представляет значительный интерес для философов. [2] Эти факторы способствовали появлениюфилософия искусственного интеллекта . Некоторые ученые утверждают, что игнорирование философии сообществом ИИ пагубно. [3]

Философия искусственного интеллекта пытается ответить на такие вопросы следующим образом: [4]

  • Может ли машина действовать разумно? Может ли он решить любую проблему, которую человек решил бы, думая?
  • Человеческий интеллект и машинный интеллект - это одно и то же? По сути, человеческий мозг - это компьютер?
  • Может ли машина иметь разум , ментальные состояния и сознание в том же смысле, что и человек? Можно ли чувствовать себя , как обстоит дело ?

Подобные вопросы отражают различные интересы исследователей ИИ , ученых-когнитивистов и философов соответственно. Научные ответы на эти вопросы зависят от определения понятий «интеллект» и «сознание» и от того, какие именно «машины» обсуждаются.

Важные положения философии ИИ включают некоторые из следующих:

  • «Вежливое соглашение» Тьюринга : если машина ведет себя так же разумно, как человек, то она так же разумна, как и человек. [5]
  • Предложение Дартмута : «Каждый аспект обучения или любая другая особенность интеллекта может быть описана настолько точно, что можно создать машину для его моделирования». [6]
  • Аллен Ньюэлл и Герберт А. Саймон «s физическая система символов гипотеза:„Физическая символическая система имеет необходимые и достаточные средства общего интеллектуального действия.“ [7]
  • Джон Серл «s сильная гипотеза AI :„соответствующим образом запрограммировать компьютер с нужными входами и выходами будет , таким образом , иметь ум в точно такой же смысл у людей есть разум.“ [8]
  • Механизм Гоббса : «Потому что« разум »... есть не что иное, как« расчет », то есть сложение и вычитание последствий общих названий, согласованных для« маркировки »и« обозначения »наших мыслей ...» [ 9]

Может ли машина показать общий интеллект? [ редактировать ]

Возможно ли создать машину, которая сможет решить все проблемы, которые люди решают с помощью своего интеллекта? Этот вопрос определяет объем того, что машины могут делать в будущем, и определяет направление исследований ИИ. Он касается только поведения машин и игнорирует вопросы, интересующие психологов , ученых-когнитивистов и философов ; чтобы ответить на этот вопрос, не имеет значения , является ли машина действительно думает (как думает человек) или просто действует как это мышление. [10]

Основная позиция большинства исследователей искусственного интеллекта резюмируется в этом заявлении, которое появилось в предложении для семинара в Дартмуте 1956 года:

  • «Каждый аспект обучения или любая другая особенность интеллекта может быть описана с такой точностью, что можно создать машину для его моделирования». [6]

Аргументы против основной посылки должны показать, что создание работающей системы ИИ невозможно, потому что есть некоторый практический предел возможностей компьютеров или что есть какое-то особое качество человеческого разума, которое необходимо для разумного поведения и которое, тем не менее, не может быть воспроизведено каким-либо человеком. машина (или методами текущего исследования ИИ). Аргументы в пользу основной посылки должны показать, что такая система возможна.

Также можно обойти связь между двумя частями вышеуказанного предложения. Например, машинное обучение, начавшееся с печально известного предложения Тьюринга о дочерних машинах [11], по сути, обеспечивает желаемую интеллектуальную способность без точного описания во время разработки того, как именно это будет работать. Учет неявных знаний роботов [12] устраняет необходимость в точном описании.

Первый шаг к ответу на вопрос - дать четкое определение «интеллекта».

Интеллект [ править ]

«Стандартная интерпретация» теста Тьюринга. [13]

Тест Тьюринга [ править ]

Алан Тьюринг [14] свел проблему определения интеллекта к простому вопросу о разговоре. Он предполагает, что: если машина может ответить на любой заданный ей вопрос, используя те же слова, что и обычный человек, то мы можем назвать эту машину интеллектуальной. Современная версия его экспериментального проекта будет использовать онлайн- чат , где один из участников - реальный человек, а один из участников - компьютерная программа. Программа проходит проверку, если никто не может сказать, кто из двух участников - человек. [5] Тьюринг отмечает, что никто (кроме философов) никогда не задает вопрос «могут ли люди думать?» Он пишет: «Вместо того, чтобы постоянно спорить по этому поводу, обычно принято вежливое соглашение, о котором думают все».[15] Тест Тьюринга распространяет это вежливое соглашение на машины:

  • Если машина действует так же разумно, как человек, то она так же разумна, как и человек.

Одна из критических замечаний по поводу теста Тьюринга состоит в том, что он измеряет только «человечность» поведения машины, а не «интеллект» поведения. Поскольку человеческое поведение и разумное поведение - не одно и то же, тест не может измерить интеллект. Стюарт Дж. Рассел и Питер Норвиг пишут, что «тексты по авиационной инженерии не определяют цель своей области как« создание машин, которые летают так точно, как голуби, что они могут обмануть других голубей ». [16]

Определение интеллектуального агента [ править ]

Простой рефлекторный агент

Исследования ИИ XXI века определяют интеллект в терминах интеллектуальных агентов . «Агент» - это то, что воспринимает окружающую среду и действует в ней. «Показатель производительности» определяет, что считается успехом для агента.[17]

  • «Если агент действует так, чтобы максимизировать ожидаемое значение показателя производительности, основанного на прошлом опыте и знаниях, тогда он умный». [18]

Подобные определения пытаются уловить сущность интеллекта. У них есть то преимущество, что, в отличие от теста Тьюринга, они также не проверяют неразумные человеческие черты, такие как опечатки [19] или способность быть оскорбленными.[20] У них есть недостаток, заключающийся в том, что они не могут различать «вещи, которые думают» и «вещи, которые не думают». Согласно этому определению, даже термостат имеет элементарный интеллект.[21]

Аргументы, что машина может отображать общий интеллект [ править ]

Мозг можно смоделировать [ править ]

МРТ сканирования нормального взрослого человеческого мозга

Хьюберт Дрейфус описывает этот аргумент как утверждение, что «если нервная система подчиняется законам физики и химии, а у нас есть все основания предполагать, что она подчиняется, то ... мы ... должны быть в состоянии воспроизвести поведение нервной системы. нервная система с каким-то физическим устройством ". [22] Этот аргумент, впервые представленный еще в 1943 году [23] и ярко описанный Хансом Моравеком в 1988 году, [24] теперь ассоциируется с футуристом Рэем Курцвейлом , который считает, что мощности компьютера будет достаточно для полного моделирования мозга с помощью год 2029. [25] Моделирование таламокортикальной модели, которая имеет размер человеческого мозга, не в режиме реального времени (10 11нейроны) был выполнен в 2005 году [26], и потребовалось 50 дней, чтобы смоделировать 1 секунду динамики мозга на кластере из 27 процессоров.

Немногие [ количественно ] не согласны с тем, что моделирование мозга теоретически возможно, [ необходима цитата ] [ согласно кому? ] даже критики ИИ, такие как Хуберт Дрейфус и Джон Сирл. [27] Однако Сирл указывает, что в принципе все может быть смоделировано компьютером; таким образом, доведение определения до критической точки приводит к выводу, что любой процесс вообще может технически считаться «вычислением». «Мы хотели знать, что отличает разум от термостатов и печени», - пишет он. [28]Таким образом, простое копирование функционирования мозга само по себе было бы признанием невежества в отношении интеллекта и природы разума [ необходимая цитата ] .

Человеческое мышление - это обработка символов [ править ]

В 1963 году Аллен Ньюэлл и Герберт А. Саймон предположили, что «манипулирование символами» является сутью как человеческого, так и машинного интеллекта. Они написали:

  • «Система физических символов обладает необходимыми и достаточными средствами общего разумного действия». [7]

Это утверждение очень сильное: оно подразумевает, что человеческое мышление является разновидностью манипулирования символами (поскольку система символов необходима для интеллекта) и что машины могут быть разумными (поскольку системы символов достаточно для интеллекта). [29] Другая версия этой позиции была описана философом Хьюбертом Дрейфусом, который назвал ее «психологическим допущением»:

  • «Разум можно рассматривать как устройство, оперирующее битами информации в соответствии с формальными правилами». [30]

«Символы», которые обсуждали Ньюэлл, Саймон и Дрейфус, были словесными и высокоуровневыми - символами, которые напрямую соотносятся с объектами в мире, такими как <собака> и <хвост>. В большинстве программ ИИ, написанных между 1956 и 1990 годами, использовались такие символы. Современный ИИ, основанный на статистике и математической оптимизации, не использует высокоуровневую «обработку символов», о которой говорили Ньюэлл и Саймон.

Аргументы против обработки символов [ править ]

Эти аргументы показывают, что человеческое мышление не состоит (исключительно) из высокоуровневых манипуляций с символами. Они не показывают, что искусственный интеллект невозможен, только то, что требуется нечто большее, чем обработка символов.

Геделианские антимеханистские аргументы [ править ]

В 1931 году Курт Гёдель доказал с помощью теоремы о неполноте, что всегда можно построить « утверждение Гёделя », которое данная непротиворечивая формальная система логики (например, высокоуровневая программа манипулирования символами) не может доказать. Несмотря на то, что это истинное утверждение, построенное утверждение Гёделя недоказуемо в данной системе. (Истинность построенного утверждения Гёделя зависит от согласованности данной системы; применение того же процесса к слегка несовместимой системе будет казаться успешным, но вместо этого фактически приведет к ложному «утверждению Гёделя».) [ Необходима цитата ]Говоря более умозрительно, Гёдель предположил, что человеческий разум может в конечном итоге правильно определить истинность или ложность любого хорошо обоснованного математического утверждения (включая любое возможное утверждение Гёделя), и что, следовательно, сила человеческого разума не сводится к механизму . [31] Философ Джон Лукас (с 1961 г.) и Роджер Пенроуз (с 1989 г.) отстаивали этот философский антимеханистский аргумент. [32]Геделианские антимеханистские аргументы имеют тенденцию полагаться на кажущееся безобидным утверждение о том, что система математиков-людей (или некоторая идеализация математиков-людей) одновременно последовательна (полностью свободна от ошибок) и полностью верит в свою собственную непротиворечивость (и может сделать все логичными). выводы, которые следуют из его собственной последовательности, включая веру в его утверждение Гёделя) [ необходима цитата ] . Это, очевидно, невозможно для машины Тьюринга [ требуется пояснение ] (и, в неформальном смысле, для любого известного типа механического компьютера); поэтому гёделианец заключает, что человеческое мышление слишком мощно, чтобы его можно было уловить в машине [ сомнительно ] .

Однако современное мнение в научном и математическом сообществе состоит в том, что реальные человеческие рассуждения непоследовательны; что любая последовательная «идеализированная версия» H человеческого рассуждения будет логически вынуждена принять здоровый, но противоречащий интуиции непредубежденный скептицизм по поводу непротиворечивости H (в противном случае H доказуемо несовместимо); и что теоремы Гёделя не приводят ни к какому действительному аргументу о том, что люди обладают способностями к математическому мышлению, превышающими то, что машина могла бы когда-либо воспроизвести. [33] [34] [35] Этот консенсус о том, что антимеханистские аргументы Гёделя обречены на провал, четко сформулирован в искусственном интеллекте : « любойпопытка использовать (результаты Гёделя о неполноте) для атаки на тезис вычислителей обречена на неправомерность, поскольку эти результаты полностью согласуются с тезисом вычислителей » [36].

Более прагматично, Рассел и Норвиг отмечают, что аргумент Гёделя применим только к тому, что может быть доказано теоретически с учетом бесконечного количества памяти и времени. На практике реальные машины (включая людей) имеют ограниченные ресурсы, и им будет сложно доказать многие теоремы. Необязательно все доказывать, чтобы быть умным [ когда определяется как? ] . [37]

Менее формально, Хофштадтер в его Пулитцеровской премии победы книги Гедель, Эшер, Бах: An Eternal Golden Braid , говорится , что это «Гедель-заявление» всегда относится к самой системе, проводя аналогию с тем , как Эпименид парадокса виды использования заявлением, ссылаются на себя, например, «это утверждение ложно» или «я лгу». [38] Но, конечно, парадокс Эпименида применим ко всему, что делает заявления, будь то машины или люди, даже к самому Лукасу. Учитывать:

  • Лукас не может подтвердить истинность этого утверждения. [39]

Это утверждение верно, но Лукас не может его утверждать. Это показывает, что сам Лукас подвержен тем же ограничениям, которые он описывает для машин, как и все люди, и поэтому аргумент Лукаса бессмыслен. [40]

Сделав вывод о том, что человеческое мышление не поддается вычислению, Пенроуз продолжил спорную гипотезу о том, что некие гипотетические невычислимые процессы, включающие коллапс квантово-механических состояний, дают людям особое преимущество перед существующими компьютерами. Существующие квантовые компьютеры способны только уменьшить сложность вычислимых по Тьюрингу задач и по-прежнему ограничены задачами в рамках машин Тьюринга. [ необходима цитата ] [ требуется разъяснение ] . Согласно аргументам Пенроуза и Лукаса, существующих квантовых компьютеров недостаточно [ необходима цитата ] [ требуется разъяснение ] [ почему? ], поэтому Пенроуз ищет какой-то другой процесс, включающий новую физику, например квантовую гравитацию, которая могла бы проявить новую физику в масштабе массы Планка через спонтанный квантовый коллапс волновой функции. Он предположил, что эти состояния возникают как внутри нейронов, так и охватывают более одного нейрона. [41] Однако другие ученые отмечают, что в мозгу нет правдоподобного органического механизма для использования каких-либо квантовых вычислений, и, кроме того, временная шкала квантовой декогеренции кажется слишком быстрой, чтобы влиять на срабатывание нейронов. [42]

Дрейфус: примат неявных навыков [ править ]

Хьюберт Дрейфус утверждал, что человеческий интеллект и опыт зависят в первую очередь от неявных навыков, а не явных символических манипуляций, и утверждал, что эти навыки никогда не будут отражены в формальных правилах. [43]

Аргумент Дрейфуса предвосхитил Тьюринг в его статье 1950 года « Вычислительные машины и интеллект» , где он классифицировал это как «аргумент, основанный на неформальности поведения». [44] Тьюринг в ответ утверждал, что то, что мы не знаем правил, управляющих сложным поведением, не означает, что таких правил не существует. Он писал: «Мы не можем так легко убедить себя в отсутствии полных законов поведения ... Единственный известный нам способ найти такие законы - это научное наблюдение, и мы, конечно, не знаем никаких обстоятельств, при которых мы могли бы сказать:« Мы достаточно искали. Таких законов нет » [45].

Рассел и Норвиг отмечают, что за годы, прошедшие с тех пор, как Дрейфус опубликовал свою критику, был достигнут прогресс в открытии «правил», управляющих бессознательными рассуждениями. [46] расположен движение в области робототехники исследований попытки захватить наши бессознательные навыки в восприятии и внимании. [47] Парадигмы вычислительного интеллекта , такие как нейронные сети , эволюционные алгоритмы и т. Д., В основном направлены на моделирование бессознательного мышления и обучения. Статистические подходы к ИИ могут делать прогнозы, которые приближаются к точности интуитивных предположений человека. Исследование здравого смысласосредоточился на воспроизведении «фона» или контекста знаний. Фактически, исследования ИИ в целом отошли от манипуляции символами высокого уровня к новым моделям, которые предназначены для большей части наших бессознательных рассуждений. [46] Историк и исследователь искусственного интеллекта Даниэль Кревье писал, что «время доказало точность и восприимчивость некоторых комментариев Дрейфуса. Если бы он сформулировал их менее агрессивно, конструктивные действия, по их мнению, могли бы быть предприняты гораздо раньше». [48]

Может ли машина иметь разум, сознание и психические состояния? [ редактировать ]

Это философский вопрос, связанный с проблемой других умов и трудной проблемой сознания . Вопрос вращается вокруг позиции, определенной Джоном Сирлом как «сильный ИИ»:

  • Система физических символов может иметь ум и ментальные состояния. [8]

Сирл отличал эту позицию от того, что он называл «слабым ИИ»:

  • Система физических символов может действовать разумно. [8]

Сирл ввел термины для отделения сильного ИИ от слабого, чтобы он мог сосредоточиться на том, что, по его мнению, было более интересным и спорным вопросом. Он утверждал, что даже если мы предположим, что у нас есть компьютерная программа, которая действует точно так же, как человеческий разум, все равно останется сложный философский вопрос, на который необходимо ответить. [8]

Ни одна из двух позиций Сирла не имеет большого значения для исследований ИИ, поскольку они не дают прямого ответа на вопрос «может ли машина проявлять общий интеллект?» (если также нельзя показать, что сознание необходимо для интеллекта). Тьюринг писал: «Я не хочу создавать впечатление, будто я думаю, что в сознании нет никакой тайны… [b] но я не думаю, что эти тайны обязательно нужно разгадывать, прежде чем мы сможем ответить на вопрос [могут ли машины думать]. " [49] Рассел и Норвиг соглашаются: «Большинство исследователей ИИ принимают гипотезу слабого ИИ как должное и не заботятся о сильной гипотезе ИИ». [50]

Есть несколько исследователей, которые считают, что сознание является важным элементом интеллекта, например Игорь Александер , Стэн Франклин , Рон Сан и Пентти Хайконен , хотя их определение «сознания» очень близко к «разуму». (См. Искусственное сознание .)

Прежде чем мы сможем ответить на этот вопрос, мы должны четко понимать, что мы подразумеваем под «умами», «ментальными состояниями» и «сознанием».

Сознание, умы, психические состояния, значение [ править ]

Слова « разум » и « сознание » используются разными сообществами по-разному. Некоторые мыслители нового века , например, используют слово «сознание» для описания чего-то похожего на « élan vital » Бергсона : невидимый энергетический флюид, пронизывающий жизнь и особенно разум. Фантасты авторы используют слово , чтобы описать некоторые существенное свойство , которое делает нас человеком: машина или иностранец , который является «сознательным» будет представлен как полностью человеческий характер, с интеллектом, желаниями, будет , понимание, гордость и так далее. (Писатели-фантасты также используют слова «разум», «разум»,«- как в манге и аниме « Призрак в доспехах »- для описания этого важного человеческого свойства). Для других [ кто? ] слова« разум »или« сознание »используются как своего рода светские синонимы души .

Для философов , нейробиологов и когнитивистов эти слова используются более точным и приземленным образом: они относятся к знакомому повседневному опыту наличия «мысли в голове», такой как восприятие, сон, намерение или план, и к тому , как мы знаем , что - то, или среднее что - то или понять что - то [ править ] . «Нетрудно дать здравое определение сознания», - замечает философ Джон Сирл. [51] Загадочным и увлекательным является не столько то, что это такое, сколько то, как это: как кусок жировой ткани и электричества дает начало этому (знакомому) опыту восприятия, значения или мышления?

Философы называют это трудной проблемой сознания . Это последняя версия классической проблемы философии разума, которая называется « проблема разума и тела ». [52] Смежная проблема - это проблема значения или понимания (которую философы называют « интенциональностью »): какова связь между нашими мыслями и тем, о чем мы думаем (то есть объектами и ситуациями в мире)? Третья проблема - проблема опыта (или феноменологии"): Если два человека видят одно и то же, имеют ли они одинаковый опыт? Или есть вещи« внутри их головы »(называемые« квалиа »), которые могут отличаться от человека к человеку? [53]

Нейробиологи полагают, что все эти проблемы будут решены, когда мы начнем определять нейронные корреляты сознания : фактические отношения между механизмами в наших головах и их коллективными свойствами; такие как ум, опыт и понимание. Некоторые из самых резких критиков искусственного интеллекта соглашаются с тем, что мозг - это просто машина, а сознание и интеллект являются результатом физических процессов в мозге. [54] Сложный философский вопрос заключается в следующем: может ли компьютерная программа, работающая на цифровой машине, которая перемешивает двоичные цифры нуля и единицы, дублировать способность нейроновсоздавать умы с ментальными состояниями (такими как понимание или восприятие) и, в конечном итоге, с опытом сознания ?

Аргументы, что компьютер не может иметь разум и психические состояния [ править ]

Китайская комната Сирла [ править ]

Джон Сирл просит нас рассмотреть мысленный эксперимент : предположим, мы написали компьютерную программу, которая проходит тест Тьюринга и демонстрирует разумное действие в целом. Предположим, конкретно, что программа может свободно разговаривать на китайском языке. Напишите программу на карточках 3х5 и отдайте их обычному человеку, не владеющему китайским языком. Заприте человека в комнате и попросите его следовать инструкциям на карточках. Он будет копировать китайские иероглифы и передавать их в комнату и выходить через прорезь. Со стороны может показаться, что в китайской комнате находится полностью умный человек, говорящий по-китайски. Вопрос в следующем: есть ли в комнате кто-нибудь (или что-нибудь), кто понимает по-китайски? То есть есть ли что-нибудь, что имеет ментальное состояние понимания, или кто сознательно осведомлен о том, что обсуждается на китайском языке? Мужчина явно не в курсе. Комната не может быть осведомлена. Эти карты , конечно , не знают. Сёрл приходит к выводу, что китайская комната или любая другая система физических символов не может иметь разума. [55]

Сирл продолжает утверждать, что действительные психические состояния и сознание требуют (еще предстоит описать) «фактических физико-химических свойств реального человеческого мозга». [56] Он утверждает, что существуют особые «причинные свойства» мозга и нейронов, которые порождают умы : по его словам «мозг порождает умы». [57]

Связанные аргументы: мельница Лейбница, телефонная станция Дэвиса, китайская нация Блока и Болван [ править ]

Готфрид Лейбниц привел, по сути, тот же аргумент, что и Серл в 1714 году, используя мысленный эксперимент по расширению мозга до размеров мельницы . [58] В 1974 году Лоуренс Дэвис вообразил дублирование мозга с помощью телефонных линий и офисов, укомплектованных людьми, а в 1978 году Нед Блок вообразил, что все население Китая будет вовлечено в такую ​​симуляцию мозга. Этот мысленный эксперимент называется «Китайская нация» или «Китайский спортзал». [59] Нед Блок также предложил свой аргумент «Болванчик» , который представляет собой версию китайской комнаты, в которой программа была переработана. в простой набор правил в форме «смотри это, делай то», устраняющий всю тайну из программы.

Ответы на китайскую комнату [ править ]

Отзывы о китайской комнате подчеркивают несколько разных моментов.

  • Системы ответа и виртуальный ум ответ : [60] Этот ответ утверждает , что система , в том числе человека, программы, комнаты, и карты, это то , что понимает китайский. Сирл утверждает, что человек в комнате - единственное, что могло бы «иметь разум» или «понимать», но другие не соглашаются, утверждая, что два разума могут находиться в одном и том же физическом месте, аналогично тому, как это происходит. компьютер может одновременно «быть» двумя машинами: одной физической (например, Macintosh ) и одной « виртуальной » (например, текстовым процессором ).
  • Скорость, мощность и сложность ответов : [61] Некоторые критики отмечают, что человеку в комнате, вероятно, потребуются миллионы лет, чтобы ответить на простой вопрос, и ему потребуются «картотеки» астрономических размеров. Это ставит под сомнение ясность интуиции Сирла.
  • Ответ робота : [62] Некоторые считают, что Китайской Комнате нужны глаза и руки, чтобы по-настоящему понять. Ханс Моравек пишет: «Если бы мы могли привить робота к программе рассуждений, нам больше не нужен был бы человек, который бы передавал смысл: он пришел бы из физического мира» [63].
  • Ответ имитатора мозга : [64] Что, если программа имитирует последовательность нервных импульсов в синапсах реального мозга говорящего по-китайски? Мужчина в комнате будет имитировать настоящий мозг. Это вариант «системного ответа», который кажется более правдоподобным, потому что «система» теперь явно работает как человеческий мозг, что усиливает интуицию о том, что помимо человека в комнате есть что-то, что могло бы понимать китайский язык.
  • Другие умы отвечают, и эпифеномены отвечают : [65] Некоторые люди отметили, что аргумент Сирла - это просто версия проблемы других разумов , примененная к машинам. Поскольку трудно решить, думают ли люди «на самом деле», не следует удивляться тому, что трудно ответить на тот же вопрос о машинах.
С этим связан вопрос, существует ли «сознание» (как его понимает Сирл). Сирл утверждает, что переживание сознания нельзя обнаружить, исследуя поведение машины, человека или любого другого животного. Дэниел Деннет указывает, что естественный отбор не может сохранить свойство животного, которое не влияет на поведение животного, и, следовательно, сознание (как его понимает Сирл) не может быть произведено естественным отбором. Следовательно, либо естественный отбор не породил сознание, либо «сильный ИИ» верен в том смысле, что сознание может быть обнаружено с помощью соответственно разработанного теста Тьюринга.

Мышление - это своего рода вычисление? [ редактировать ]

Вычислительная теория разума или « computationalism претензий» , что связь между разумом и мозгом похожа (если не идентична) взаимосвязью между управлением программой и компьютером. Эта идея имеет философские корни у Гоббса (который утверждал, что рассуждение было «не более чем расчетом»), Лейбница (который пытался создать логическое исчисление всех человеческих идей), Юма (который считал, что восприятие можно свести к «атомарным впечатлениям») и даже Кант (который анализировал весь опыт как контролируемый формальными правилами). [66] Последняя версия связана с философами Хилари Патнэм иДжерри Фодор . [67]

Этот вопрос связан с нашими предыдущими вопросами: если человеческий мозг - это разновидность компьютера, то компьютеры могут быть как разумными, так и сознательными, отвечая как на практические, так и на философские вопросы ИИ. Что касается практического вопроса об ИИ («Может ли машина проявлять общий интеллект?»), Некоторые версии вычислительной техники утверждают, что (как писал Гоббс ):

  • Рассуждение - это не что иное, как расчет. [9]

Другими словами, наш интеллект происходит от формы вычисления , подобной арифметике . Это гипотеза физической системы символов, обсуждаемая выше, и она подразумевает, что искусственный интеллект возможен. Что касается философского вопроса об ИИ («Может ли машина иметь разум, психические состояния и сознание?»), Большинство версий вычислительного подхода утверждают, что (как его характеризует Стеван Харнад ):

  • Психические состояния - это просто реализация (правильных) компьютерных программ. [68]

Это «сильный ИИ» Джона Сирла, о котором говорилось выше, и он является реальной целью аргументации китайской комнаты (по словам Харнада ). [68]

Другие связанные вопросы [ править ]

Может ли машина вызывать эмоции? [ редактировать ]

Если « эмоции » определяются только с точки зрения их влияния на поведение или на то, как они функционируют внутри организма, тогда эмоции можно рассматривать как механизм, который интеллектуальный агент использует для максимизации полезности своих действий. Учитывая такое определение эмоций, Ханс Моравец считает, что «роботы в целом будут довольно эмоциональны, если будут хорошими людьми». [69] Страх - источник неотложной помощи. Сочувствие - необходимый компонент хорошего взаимодействия человека с компьютером . Он говорит, что роботы «будут пытаться доставить вам удовольствие, очевидно, самоотверженно, потому что они получат острые ощущения от этого положительного подкрепления. Вы можете интерпретировать это как своего рода любовь».[69] Даниэль Кревье пишет: «Точка зрения Моравека состоит в том, что эмоции - это всего лишь средства для направления поведения в направлении, благоприятном для выживания вида». [70]

Может ли машина осознавать себя? [ редактировать ]

« Самосознание », как отмечалось выше, иногда используется писателями-фантастами как название важного человеческого свойства, которое делает персонажа полностью человечным. Тьюринг отбрасывает все другие свойства человека и сводит вопрос к следующему: «Может ли машина быть предметом собственного мышления?» Может ли оно думать о себе ? С этой точки зрения можно написать программу, которая может сообщать о своих внутренних состояниях, например отладчик . [71] Хотя, возможно, самосознание часто предполагает немного больше возможностей; машина, которая может каким-то образом приписывать смысл не только своему собственному состоянию, но и в целом постулировать вопросы без твердых ответов: контекстуальная природа своего существования сейчас; как он сравнивается с прошлыми состояниями или планами на будущее, с ограничениями и ценностью своего рабочего продукта, как он воспринимает свою работу, чтобы ее оценили или сравнили с другими.

Машина может быть оригинальной или креативной? [ редактировать ]

Тьюринг сводит это к вопросу о том, может ли машина «застать нас врасплох», и утверждает, что это, очевидно, правда, что может подтвердить любой программист. [72] Он отмечает, что при достаточном объеме памяти компьютер может вести себя астрономическим количеством различных способов. [73] Для компьютера, который может представлять идеи, должно быть возможно, даже тривиально, объединить их по-новому. ( « Автоматизированный математик» Дугласа Лената , например, объединил идеи, чтобы открыть новые математические истины.) Каплан и Хенлейн предполагают, что машины могут проявлять научное творчество, в то время как кажется вероятным, что люди будут иметь преимущество в том, что касается художественного творчества. [74]

В 2009 году ученые из Университета Аберистуита в Уэльсе и Кембриджского университета в Великобритании разработали робота по имени Адам, который, по их мнению, станет первой машиной, которая самостоятельно придумала новые научные открытия. [75] Также в 2009 году исследователи из Корнелла разработали Eureqa , компьютерную программу, которая экстраполирует формулы в соответствии с введенными данными, например, нахождение законов движения маятника.

Может машина быть доброжелательной или враждебной? [ редактировать ]

Этот вопрос (как и многие другие в философии искусственного интеллекта) можно представить в двух формах. «Враждебность» может быть определена в терминах функции или поведения , и в этом случае «враждебный» становится синонимом «опасного». Или это можно определить в терминах намерения: может ли машина «сознательно» намереваться причинить вред? Последний вопрос - "может ли машина иметь сознательные состояния?" (например, намерения ) в другой форме. [49]

Вопрос о том, опасны ли высокоинтеллектуальные и полностью автономные машины, подробно исследовали футуристы (например, Институт сингулярности ). Очевидный элемент драмы также сделал эту тему популярной в научной фантастике , которая рассматривала множество различных возможных сценариев, в которых интеллектуальные машины представляют угрозу человечеству; см. Искусственный интеллект в художественной литературе .

Одна из проблем заключается в том, что машины могут очень быстро приобрести автономность и интеллект, необходимые для того, чтобы быть опасными. Вернор Виндж предположил, что всего за несколько лет компьютеры внезапно станут в тысячи или миллионы раз умнее людей. Он называет это « сингулярностью ». [76] Он предполагает, что это может быть в некоторой степени или, возможно, очень опасно для человека. [77] Это обсуждается философией под названием сингулярность .

В 2009 году ученые и технические эксперты посетили конференцию, на которой обсудили потенциальное влияние роботов и компьютеров и влияние гипотетической возможности того, что они смогут стать самодостаточными и иметь возможность принимать собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могут получить любой уровень автономии, и в какой степени они могут использовать такие способности, чтобы, возможно, представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли «тараканьего интеллекта». Они отметили, что самосознаниекак изображено в научной фантастике, вероятно, маловероятно, но были и другие потенциальные опасности и подводные камни. [76]

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда таким роботам дается некоторая степень автономности. [78] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [79] [80]

Президент Ассоциации развития искусственного интеллекта заказал исследование, чтобы изучить этот вопрос. [81] Они указывают на такие программы, как Language Acquisition Device, которые могут имитировать человеческое взаимодействие.

Некоторые высказали предположение о необходимости создания « Дружественного ИИ », что означает, что достижения, которые уже происходят с ИИ, должны также включать в себя попытку сделать ИИ по своей сути дружественным и гуманным. [82]

Может ли машина имитировать все человеческие характеристики? [ редактировать ]

Тьюринг сказал: «Принято ... предлагать немного утешения в форме заявления о том, что машина никогда не сможет воспроизвести какую-то специфически человеческую характеристику ... Я не могу предложить такого утешения, поскольку считаю, что нет такие границы могут быть установлены ". [83]

Тьюринг отметил, что есть много аргументов в форме «машина никогда не сделает X», где X может быть множеством вещей, например:

Будьте добры, находчивы, красивы, дружелюбны, проявляйте инициативу, обладайте чувством юмора, отличите хорошее от плохого, совершайте ошибки, влюбляйтесь, наслаждайтесь клубникой и сливками, заставляйте кого-то влюбиться в них, учитесь на опыте, правильно используйте слова , быть предметом собственной мысли, иметь такое же разнообразие поведения, как мужчина, делать что-то действительно новое. [71]

Тьюринг утверждает, что эти возражения часто основаны на наивных предположениях об универсальности машин или являются «замаскированными формами аргументации от сознания». Написание программы, демонстрирующей одно из этих поведений, «не произведет большого впечатления». [71] Все эти аргументы касаются основной предпосылки ИИ, если только нельзя показать, что одна из этих черт важна для общего интеллекта.

Может ли у машины быть душа? [ редактировать ]

Наконец, те, кто верит в существование души, могут возразить, что «мышление - это функция бессмертной души человека» . Алан Тьюринг назвал это «теологическим возражением». Он написал

Пытаясь построить такие машины, мы не должны непочтительно узурпировать Его силу созидания душ, как и в случае деторождения: скорее, в любом случае мы являемся инструментами Его воли, обеспечивающими обители для душ, которые Он создает. [84]

Взгляды на роль философии [ править ]

Некоторые ученые утверждают, что игнорирование философии сообществом ИИ пагубно. В Стэнфордской энциклопедии философии некоторые философы утверждают, что роль философии в ИИ недооценивается. [2] Физик Дэвид Дойч утверждает, что без понимания философии или ее концепций разработка ИИ пострадала бы от отсутствия прогресса. [85]

Конференции [ править ]

Основная серия конференций по этому вопросу - «Философия и теория искусственного интеллекта» (PT-AI), проводимая Винсентом К. Мюллером .

Основная библиография по этой теме с несколькими подразделами находится на PhilPapers .

См. Также [ править ]

  • Захват искусственного интеллекта
  • Искусственный мозг
  • Искусственное сознание
  • Искусственный интеллект
  • Искусственная нейронная сеть
  • Чаттербот
  • Китайская комната
  • Вычислительная теория разума
  • Вычислительная техника и интеллект
  • Критика искусственного интеллекта Дрейфусом
  • Экзистенциальный риск от продвинутого искусственного интеллекта
  • Функционализм
  • Многоагентная система
  • Философия информатики
  • Философия информации
  • Философия разума
  • Система физических символов
  • Смоделированная реальность
  • Сверхразум: пути, опасности, стратегии
  • Синтетический интеллект

Заметки [ править ]

  1. ^ Маккарти, Джон. «Философия ИИ и ИИ философии» . jmc.stanford.edu . Архивировано из оригинала на 2018-10-23 . Проверено 18 сентября 2018 .
  2. ^ a b Bringsjord, Сельмер; Говиндараджулу, Навин Сундар (2018), «Искусственный интеллект» , в Zalta, Эдвард Н. (ред.), Стэнфордская энциклопедия философии (издание осень 2018 г.), Исследовательская лаборатория метафизики, Стэнфордский университет, архив с оригинала на 2019- 11.09 , дата обращения 18.09.2018
  3. ^ Дойч, Дэвид (2012-10-03). «Философия будет ключом к открытию искусственного интеллекта | Дэвид Дойч» . Хранитель . ISSN 0261-3077 . Проверено 29 апреля 2020 . 
  4. ^ Russell & Норвиг 2003 , стр. 947определяют философию ИИ как состоящую из первых двух вопросов и дополнительного вопроса этики искусственного интеллекта . Фирн 2007 , стр. 55 пишет: «В современной литературе философия играет две главные роли: определять, будут ли такие машины сознательными, и, во-вторых, предсказывать, возможны ли такие машины». Последний вопрос касается первых двух.
  5. ^ a b Это перефразирование существенного момента теста Тьюринга . Turing 1950 , Haugeland 1985 , стр. 6–9, Crevier 1993 , p. 24, Russell & Norvig 2003 , стр. 2–3 и 948
  6. ^ а б Маккарти и др. 1955 . Это утверждение было напечатано в программе Дартмутской конференции 1956 года, которую многие считают «рождением искусственного интеллекта». Также Crevier 1993 , p. 28 год
  7. ^ a b Ньюэлл и Саймон 1976 и Рассел и Норвиг 2003 , стр. 18
  8. ^ a b c d Эта версия взята из Searle (1999) и также цитируется у Dennett 1991 , p. 435. Первоначальная формулировка Сирла заключалась в следующем: «Соответственно запрограммированный компьютер на самом деле является разумом в том смысле, что можно буквально сказать, что компьютеры, получившие правильные программы, понимают и имеют другие когнитивные состояния». ( Серл 1980 , стр. 1). Сильный ИИ определяется аналогично Russell & Norvig (2003 , стр. 947).: «Утверждение, что машины могут действовать разумно (или, что лучше, действовать так, как если бы они были разумными), философы называют гипотезой« слабого ИИ », а утверждение, что машины, которые так поступают, на самом деле думают (в отличие от моделирования мышление) называется гипотезой «сильного ИИ» ".
  9. ^ a b Гоббс 1651 , гл. 5
  10. См. Russell & Norvig 2003 , p. 3, где они делают различие между действуя рационально и быть рациональным, и определить ИИкак изучение первого.
  11. ^ Тьюринг, Алан М. (1950). «Вычислительная техника и интеллект» . Разум . 49 : 433–460 - через зубчатые отпечатки.
  12. ^ Хедер, Михали; Пакси, Даниэль (2012). «Автономные роботы и неявное знание» . Оценка . 9 (2): 8–14 - через academia.edu.
  13. ^ Сайгин 2000 .
  14. Turing 1950 и см. Russell & Norvig 2003 , p. 948, где они называют его статью «известной» и пишут: «Тьюринг исследовал широкий спектр возможных возражений против возможности создания интеллектуальных машин, включая практически все возражения, выдвинутые за полвека с момента появления его статьи».
  15. ^ Тьюринг 1950 под «Аргументом от сознания»
  16. ^ Russell & Норвиг 2003 , стр. 3
  17. Russell & Norvig, 2003 , стр. 4–5, 32, 35, 36 и 56.
  18. ^ Рассел и Норвиг предпочли бы слово « рациональный »слову«умный».
  19. ^ «Искусственная глупость». Экономист . 324 (7770): 14. 1 августа 1992 г.
  20. ^ Сайгин, AP; Чичекли, И. (2002). «Прагматика в разговоре человек-компьютер». Журнал прагматики . 34 (3): 227–258. CiteSeerX 10.1.1.12.7834 . DOI : 10.1016 / S0378-2166 (02) 80001-7 . 
  21. ^ Russell & Norvig (2003 , стр. 48–52)рассматривают термостат как простую форму интеллектуального агента , известного как рефлекторный агент . Для более глубокого изучения роли термостата в философии см. Chalmers (1996 , стр. 293–301) «4. Вездесущ ли опыт?» подразделы Каково быть термостатом? , Куда девать панпсихизм? , и Ограничение принципа двойного аспекта .
  22. Перейти ↑ Dreyfus 1972 , p. 106
  23. Питтс и Маккалоу, 1943 г.
  24. ^ Моравец 1988
  25. Перейти ↑ Kurzweil 2005 , p. 262. См. Также Russell & Norvig , p. 957and Crevier 1993 , pp. 271 и 279. Наиболее крайняя форма этого аргумента (сценарий замены мозга) была выдвинута Кларком Глаймором в середине 1970-х годов и затронута Зеноном Пилишином и Джоном Сирлом в 1980 году.
  26. ^ Евгений Izhikevich (2005-10-27). "Евгений Михайлович Ижикевич, Масштабное моделирование человеческого мозга" . Vesicle.nsi.edu. Архивировано из оригинала на 2009-05-01 . Проверено 29 июля 2010 .
  27. ^ Хьюберт Дрейфус пишет: «В общем, принимая фундаментальные предположения, что нервная система является частью физического мира и что все физические процессы могут быть описаны в математическом формализме, которым, в свою очередь, можно манипулировать с помощью цифрового компьютера, один может прийти к убедительному утверждению, что поведение, являющееся результатом человеческой «обработки информации», независимо от того, формализуется она прямо или нет, всегда может быть косвенно воспроизведено на цифровой машине ». ( Дрейфус 1972 , стр. 194–5). Джон Сирлпишет: «Может ли машина, созданная человеком, думать? Если предположить, что можно искусственно создать машину с нервной системой, ... ответ на вопрос кажется очевидным, да ... Может ли цифровой компьютер думать? 'вы имеете в виду все, что имеет уровень описания, на котором это может быть правильно описано как реализация компьютерной программы, то опять же ответ, конечно, да, поскольку мы являемся экземплярами любого количества компьютерных программ, и мы можем думать ». ( Searle 1980 , стр.11)
  28. Перейти ↑ Searle 1980 , p. 7
  29. ^ Сирл пишет: «Мне нравится прямолинейность утверждения». Searle 1980 , стр. 4
  30. Перейти ↑ Dreyfus 1979 , p. 156
  31. Gödel, Kurt , 1951, Некоторые основные теоремы об основах математики и их применение у Соломона Фефермана , изд., 1995. Сборник работ / Kurt Gödel, Vol. III . Oxford University Press: 304-23. - В этой лекции Гёдель использует теорему о неполноте, чтобы прийти к следующей дизъюнкции: (а) человеческий разум не является последовательной конечной машиной, или (б) существуют диофантовы уравнениядля которого он не может решить, существуют ли решения. Гёдель находит (б) неправдоподобным и, таким образом, кажется, полагал, что человеческий разум не эквивалентен конечной машине, т. Е. Его мощность превышала мощность любой конечной машины. Он признал, что это всего лишь предположение, поскольку никто не может опровергнуть (б). Тем не менее, он считал дизъюнктивный вывод «несомненным фактом».
  32. ^ Lucas 1961 , Russell & Норвиг 2003 , стр. 949-950, Хофштадтер 1979 , стр. 471-473,476-477
  33. ^ Грей Оппи (20 января 2015). «Теоремы Гёделя о неполноте» . Стэнфордская энциклопедия философии . Проверено 27 апреля 2016 года . Однако эти гёделевские антимеханистские аргументы проблематичны, и существует широкий консенсус в отношении их несостоятельности.
  34. ^ Стюарт Дж. Рассел ; Питер Норвиг (2010). «26.1.2: Философские основы / Слабый ИИ: могут ли машины действовать разумно? / Математическое возражение». Искусственный интеллект: современный подход (3-е изд.). Река Аппер Сэдл, штат Нью-Джерси: Prentice Hall . ISBN 978-0-13-604259-4. ... даже если мы допустим, что у компьютеров есть ограничения на то, что они могут доказать, нет никаких доказательств того, что люди застрахованы от этих ограничений.
  35. ^ Марк Коливан. Введение в философию математики. Cambridge University Press , 2012. Из 2.2.2, «Философское значение результатов Геделя о неполноте»: «Общепринятая мудрость (с которой я согласен) состоит в том, что аргументы Лукаса-Пенроуза терпят неудачу».
  36. ^ LaForte, G., Hayes, PJ, Ford, KM 1998. Почему теорема Гёделя не может опровергнуть вычислительный подход. Искусственный интеллект , 104: 265-286, 1998.
  37. ^ Russell & Норвиг 2003 , стр. 950 Они указывают, что реальные машины с конечной памятью можно моделировать, используя логику высказываний , которая формально разрешима , и аргумент Гёделя к ним вообще не применим.
  38. Хофштадтер, 1979
  39. ^ Согласно Хофстадтером 1979 , стр. 476-477, это утверждение было впервые предложено CH Уайтли
  40. ^ Хофштадтер 1979 , стр. 476-477, Russell & Норвиг 2003 , стр. 950, Тьюринг 1950 в разделе «Аргумент из математики», где он пишет: «Хотя установлено, что существуют ограничения для возможностей любой конкретной машины, но было только заявлено, без каких-либо доказательств, что такие ограничения не применяются к человеческому роду. интеллект ".
  41. ^ Пенроуз 1989
  42. ^ Литт, Абниндер; Элиасмит, Крис; Kroon, Frederick W .; Вайнштейн, Стивен; Тагард, Пол (6 мая 2006 г.). "Является ли мозг квантовым компьютером?" . Когнитивная наука . 30 (3): 593–603. DOI : 10.1207 / s15516709cog0000_59 . PMID 21702826 . 
  43. Перейти ↑ Dreyfus 1972 , Dreyfus 1979 , Dreyfus & Dreyfus 1986 . См. Также Russell & Norvig 2003 , стр. 950–952,Crevier 1993 , стр. 120–132 и Hearn 2007 , стр. 50–51.
  44. ^ Russell & Норвиг 2003 , стр. 950-51
  45. ^ Тьюринг 1950 под "(8) Аргумент от неформальности поведения"
  46. ^ a b Russell & Norvig 2003 , стр. 52
  47. См. Брукс 1990 г. и Моравец 1988 г.
  48. ^ Кревьер 1993 , стр. 125
  49. ^ a b Тьюринг 1950 в разделе «(4) Аргумент от сознания». См. Также Russell & Norvig , pp. 952–953 , где они отождествляют аргумент Сирла с «аргументом сознания» Тьюринга.
  50. ^ Russell & Норвиг 2003 , стр. 947
  51. ^ «[П] люди всегда говорят мне, что было очень сложно дать определение сознанию, но я думаю, если вы просто ищете вид здравого смысла, который вы получаете в начале исследования, а не твердое научное определение что приходит в конце, нетрудно дать здравое определение сознания ". Зона философа: вопрос о сознании . Также см. Dennett 1991
  52. Перейти ↑ Blackmore 2005 , p. 2
  53. ^ Russell & Норвиг 2003 , стр. 954-956
  54. ^ Например, Джон Сирл пишет: «Может ли машина мыслить? Ответ очевиден - да. Мы как раз и являемся такими машинами». ( Searle 1980 , стр.11)
  55. Перейти ↑ Searle 1980 . См. Также Cole 2004 , Russell & Norvig 2003 , стр. 958–960, Crevier 1993 , стр. 269–272 и Hearn 2007 , стр. 43–50.
  56. Перейти ↑ Searle 1980 , p. 13
  57. ^ Сирл 1984
  58. ^ Коул 2004 , 2.1, Лейбниц 1714 , 17
  59. ^ Коул 2004 , 2.3
  60. Searle 1980 в разделе «1. Ответ системы (Беркли)», Crevier 1993 , p. 269, Russell & Norvig 2003 , стр. 959, Коул 2004 , 4.1. Среди тех, кто придерживается «системной» позиции (по мнению Коула), - Нед Блок, Джек Коупленд , Дэниел Деннет , Джерри Фодор , Джон Хогеланд , Рэй Курцвейл и Джордж Рей . Среди тех, кто защищал ответ «виртуального разума», были Марвин Мински , Алан Перлис , Дэвид Чалмерс , Нед Блок и Дж. Коул (опять же, согласно Коулу 2004 г. )
  61. ^ Коул 2004 , 4.2 приписывает эту позицию Неду Блоку , Дэниелу Деннету, Тиму Модлину , Дэвиду Чалмерсу , Стивену Пинкеру , Патрисии Черчленд и другим.
  62. ^ Сирл 1980 под «2. Ответ робота (Йельский университет)». Коул 2004 , 4.3 приписывает эту должность Маргарет Боден , Тиму Крейну , Дэниелу Деннетту, Джерри Фодору, Стевану Харнаду , Гансу Моравеку и Жоржу Рей.
  63. Цитируется в Crevier 1993 , p. 272
  64. Searle 1980 в разделе «3. Ответ симулятора мозга (Беркли и Массачусетский технологический институт)» Коул 2004 приписывает эту позицию Полу и Патриции Черчленд и Рэю Курцвейлу.
  65. Searle 1980 в разделе «5. Ответ других умов», Cole 2004 , 4.4. Тьюринг 1950 дает этот ответ в рубрике «(4) Аргумент сознания». Коул приписывает эту позицию Дэниелу Деннетту и Гансу Моравеку.
  66. Перейти ↑ Dreyfus 1979 , p. 156, Haugeland 1985 , стр. 15–44.
  67. ^ Хорст 2005
  68. ^ а б Харнад 2001
  69. ^ a b Цитируется по Crevier 1993 , p. 266
  70. ^ Кревьер 1993 , стр. 266
  71. ^ a b c Тьюринг 1950 в разделе «(5) Аргументы от различных недугов»
  72. Тьюринг 1950 в разделе «(6) Возражение леди Лавлейс»
  73. ^ Тьюринг 1950 в разделе "(5) Аргумент от различных нарушений"
  74. ^ "Каплан Андреас; Майкл Хенлайн". Бизнес-горизонты . 62 (1): 15–25. Январь 2019. doi : 10.1016 / j.bushor.2018.08.004 .
  75. ^ Кац, Лесли (2009-04-02). «Робо-ученый сам делает открытие генов | Crave - CNET» . News.cnet.com . Проверено 29 июля 2010 .
  76. ^ a b Ученые беспокоятся, что машины могут перехитрить человека ДЖОН МАРКОФФ, NY Times, 26 июля 2009 г.
  77. ^ Грядущая технологическая сингулярность: как выжить в постчеловеческую эру , Вернор Виндж, Департамент математических наук, Государственный университет Сан-Диего, (c) 1993 Вернор Виндж.
  78. ^ Призыв к дискуссии о роботах-убийцах , Джейсон Палмер, репортер по науке и технологиям, BBC News, 8/3/09.
  79. ^ Science Новый финансируемый ВМФ отчет предупреждает о приближении боевых роботов к «Терминатору». Архивировано 28 июля 2009 г.на Wayback Machine Джейсоном Миком (блог), dailytech.com, 17 февраля 2009 г.
  80. ^ Отчет ВМФ предупреждает о восстании роботов, предлагает сильный моральный компас , Джозеф Л. Флэтли engadget.com, 18 февраля 2009 г.
  81. ^ Президентская группа AAAI по исследованию долгосрочного будущего ИИ на 2008-2009 гг. , Ассоциация по развитию искусственного интеллекта, по состоянию на 26 июля 2009 г.
  82. ^ Статья в Asimovlaws.com , июль 2004 года, доступ7/27/09. Архивировано 30 июня 2009 года в Wayback Machine.
  83. ^ «Могут ли цифровые компьютеры думать?». Беседа в Третьей программе BBC, 15 мая 1951 г. http://www.turingarchive.org/viewer/?id=459&title=8
  84. ^ Тьюринг 1950 в разделе «(1) Теологическое возражение», хотя он также пишет: «Я не очень впечатлен теологическими аргументами, какие бы они ни использовались для подтверждения»
  85. ^ Дойч, Дэвид (2012-10-03). «Философия будет ключом к открытию искусственного интеллекта | Дэвид Дойч» . Хранитель . Проверено 18 сентября 2018 .

Ссылки [ править ]

  • Адам, Элисон (nd). Искусственное знание: гендер и мыслительная машина. Рутледж и CRC Press . https://www.routledge.com/Artificial-Knowing-Gender-and-the-Thinking-Machine/Adam/p/book/9780415129633. Доступ 4 ноября 2020 г.
  • Бенджамин, Руха (2019). Гонка после технологии: инструменты аболиционистов для нового кодекса Джима . Вайли. ISBN 978-1-509-52643-7
  • Блэкмор, Сьюзен (2005), Сознание: очень краткое введение , Oxford University Press
  • Бостром, Ник (2014), Суперинтеллект: пути, опасности, стратегии , Oxford University Press, ISBN 978-0-19-967811-2 
  • Брукс, Родни (1990), "Слоны не играют в шахматы" (PDF) , робототехники и автономные системы , 6 (1-2): 3-15, CiteSeerX  10.1.1.588.7539 , DOI : 10.1016 / S0921-8890 ( 05) 80025-9 , извлекаются 2007-08-30
  • Чалмерс, Дэвид Дж (1996), Сознательный разум: в поисках фундаментальной теории , Oxford University Press, Нью-Йорк, ISBN 978-0-19-511789-9
  • Коул, Дэвид (осень 2004 г.), «Аргумент о китайской комнате», в Zalta, Эдвард Н. (ред.), Стэнфордская энциклопедия философии.
  • Кревье, Даниэль (1993), AI: Бурный поиск искусственного интеллекта , Нью-Йорк, Нью-Йорк: BasicBooks, ISBN 0-465-02997-3 
  • Деннет, Дэниел (1991), Сознание объяснено , Penguin Press, ISBN 978-0-7139-9037-9
  • Дрейфус, Хуберт (1972), Что компьютеры не могут сделать , Нью-Йорк: MIT Press, ISBN 978-0-06-011082-6
  • Дрейфус, Хуберт (1979), Что компьютеры все еще не могут сделать , Нью-Йорк: MIT Press.
  • Дрейфус, Хуберт ; Дрейфус, Стюарт (1986), Разум важнее машины: сила человеческой интуиции и опыта в эпоху компьютеров , Оксфорд, Великобритания: Blackwell
  • Фирн, Николас (2007), Последние ответы на самые старые вопросы: философское приключение с величайшими мыслителями мира , Нью-Йорк: Grove Press
  • Гладуэлл, Малкольм (2005), Blink: Сила мышления без мышления , Бостон: Little, Brown, ISBN 978-0-316-17232-5.
  • Харнад, Стеван (2001), «Что не так и правильно в аргументе Сирла о китайской комнате?», В Bishop, M .; Престон Дж. (Ред.), Очерки аргументации Сирла о китайской комнате , Oxford University Press
  • Харауэй, Донна (9 декабря 2020 г.). Манифест киборгов. В Википедии . https://en.wikipedia.org/w/index.php?title=A_Cyborg_Manifesto&oldid=993273232. Доступ 22 января 2021 г.
  • Хогеланд, Джон (1985), Искусственный интеллект: сама идея , Кембридж, Массачусетс: MIT Press.
  • Гоббс (1651 г.), Левиафан.
  • Хофштадтер, Дуглас (1979), Гедель, Эшер, Бах: вечная золотая коса.
  • Хорст, Стивен (2009), «Вычислительная теория разума», в Zalta, Эдвард Н. (редактор), Стэнфордская энциклопедия философии , Лаборатория метафизических исследований, Стэнфордский университет..
  • Каплан, Андреас ; Хенлайн, Майкл (2018), «Siri, Siri в моей руке, кто самый справедливый в стране? Об интерпретациях, иллюстрациях и значениях искусственного интеллекта», Business Horizons , 62 : 15–25, doi : 10.1016 / j.bushor .2018.08.004
  • Курцвейл, Рэй (2005), Сингулярность близка , Нью-Йорк: Viking Press, ISBN 978-0-670-03384-3.
  • Лукас, Джон (1961), «Умы, машины и Гёдель», в Андерсоне, А. Р. (ред.), « Умы и машины».
  • Малабу, Екатерина (2019). Морфинг интеллекта: от измерения IQ до искусственного мозга . (К. Шред, Пер.). Издательство Колумбийского университета.
  • Маккарти, Джон ; Минский, Марвин ; Рочестер, Натан ; Шеннон, Клод (1955), Предложение для Дартмутского летнего исследовательского проекта по искусственному интеллекту , заархивировано из оригинала 30 сентября 2008 г..
  • Макдермотт, Дрю (14 мая 1997 г.), «Насколько интеллектуален Deep Blue» , New York Times , заархивировано из оригинала 4 октября 2007 г. , извлечено 10 октября 2007 г.
  • Моравец, Ганс (1988), Дети разума , издательство Гарвардского университета
  • Ньюэлл, Аллен ; Саймон, HA (1963), «GPS: программа, имитирующая человеческую мысль», в Feigenbaum, EA; Фельдман, Дж. (Ред.), Компьютеры и мысль , Нью-Йорк: Макгроу-Хилл.
  • Ньюэлл, Аллен ; Саймон, HA (1976), «Компьютерные науки как эмпирическое исследование: символы и поиск», Коммуникации ACM , 19 , заархивировано из оригинала 2007-10-07
  • Рассел, Стюарт Дж .; Норвиг, Питер (2003), Искусственный интеллект: современный подход (2-е изд.), Верхняя Сэдл-Ривер, Нью-Джерси: Prentice Hall, ISBN 0-13-790395-2
  • Пенроуз, Роджер (1989), Новый разум императора: относительно компьютеров, разума и законов физики , Oxford University Press, ISBN 978-0-14-014534-2
  • Сирл, Джон (1980), «Умы, мозг и программы» (PDF) , Behavioral and Brain Sciences , 3 (3): 417–457, doi : 10.1017 / S0140525X00005756 , заархивировано из оригинала (PDF) на 2015-09- 23
  • Сирл, Джон (1992), Новое открытие разума , Кембридж, Массачусетс: MIT Press
  • Сирл, Джон (1999), Разум, язык и общество , Нью-Йорк, Нью-Йорк: Основные книги, ISBN 978-0-465-04521-1, OCLC  231867665
  • Тьюринг, Алан (октябрь 1950 г.), «Вычислительные машины и интеллект», Mind , LIX (236): 433–460, DOI : 10.1093 / mind / LIX.236.433 , ISSN  0026-4423
  • Йи, Ричард (1993), «Машины Тьюринга и обработка семантических символов: почему настоящие компьютеры не возражают против китайских императоров» (PDF) , Lyceum , 5 (1): 37–59
Номера страниц выше и содержание диаграмм относятся к распечатке статьи в PDF-формате Lyceum .