Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Китайский зал аргумент гласит , что цифровой компьютер выполняет программу , не может быть показан [1] , чтобы иметь « ум », « понимание » или « сознание », [а] независимо от того, насколько разумно или человека, как программа может сделать компьютер вести себя. Впервые этот аргумент был представлен философом Джоном Сёрлом в его статье «Разум, мозг и программы», опубликованной в журнале Behavioral and Brain Sciences в 1980 году. С тех пор он широко обсуждался. [2] В центре аргументации - мысленный эксперимент, известный как « Китайская комната» . [3]

Аргумент направлен против философских позиций в функционализме и computationalism , [4] , которые считают , что ум может рассматриваться в качестве информационной обработки операционной системы на формальных символах, и что моделирование данного психического состояния является достаточным для его присутствия. В частности, этот аргумент призван опровергнуть позицию, которую Сирл называет сильным ИИ : «Таким образом, правильно запрограммированный компьютер с правильными входами и выходами будет иметь разум в том же смысле, что и человеческие». [b]

Хотя изначально он был представлен как реакция на заявления исследователей искусственного интеллекта (ИИ), он не является аргументом против целей основных исследований ИИ, поскольку не показывает ограничения на количество «интеллектуального» поведения, которое машина может демонстрировать. . [5] Этот аргумент применим только к цифровым компьютерам, на которых выполняются программы, и не применим к машинам в целом. [6]

Мысленный эксперимент в китайской комнате [ править ]

Визуализация «Китайской комнаты» Джона Сирла .

Мысленный эксперимент Сирла начинается с этой гипотетической предпосылки: предположим, что исследованиям искусственного интеллекта удалось создать компьютер, который ведет себя так, как если бы он понимал китайский язык . Он принимает китайские символы в качестве входных данных и, следуя инструкциям компьютерной программы , производит другие китайские символы, которые он представляет в качестве выходных. Предположим, - говорит Сирл, - что этот компьютер выполняет свою задачу настолько убедительно, что с комфортом проходит тест Тьюринга.: он убеждает человека, говорящего по-китайски, что программа сама по себе является живым говорящим по-китайски. На все вопросы, которые задает человек, он дает соответствующие ответы, чтобы любой говорящий по-китайски был уверен, что он разговаривает с другим человеком, говорящим по-китайски.

Сирл хочет ответить на следующий вопрос: буквально ли машина «понимает» китайский язык? Или это просто имитация способности понимать китайский? [7] [c] Серл называет первую позицию « сильным ИИ », а вторую - «слабым ИИ». [d]

Затем Сирл предполагает, что он находится в закрытой комнате и имеет книгу с английской версией компьютерной программы, а также достаточное количество бумаг, карандашей, ластиков и шкафов для документов. Сирл мог принимать китайские иероглифы через прорезь в двери, обрабатывать их в соответствии с инструкциями программы и воспроизводить китайские иероглифы на выходе. Если бы компьютер прошел тест Тьюринга таким образом, то, по словам Сирла, он бы тоже сделал это, просто запустив программу вручную.

Сирл утверждает, что нет существенной разницы между ролями компьютера и им самим в эксперименте. Каждый просто следует программе, шаг за шагом, создавая поведение, которое затем интерпретируется пользователем как демонстрация разумного разговора. Однако сам Сирл не мог понять разговора. («Я не говорю по-китайски» [10], - отмечает он.) Следовательно, утверждает он, из этого следует, что компьютер также не сможет понять разговор.

Сирл утверждает, что без «понимания» (или « интенциональности ») мы не можем описать то, что машина делает, как «думает», и, поскольку она не думает, у нее нет «разума» ни в чем подобном нормальному пониманию слово. Таким образом, он приходит к выводу, что гипотеза «сильного ИИ» неверна.

История [ править ]

Готфрид Лейбниц в 1714 году выдвинул аналогичный аргумент против механизма (позиции, согласно которой разум - это машина, и не более того). Лейбниц использовал мысленный эксперимент по расширению мозга до размеров мельницы . [11] Лейбниц было трудно представить, что «разум», способный к «восприятию», может быть построен с использованием только механических процессов. [e] В рассказе Анатолия Днепрова «Игра» 1961 года стадион людей действует как переключатели и ячейки памяти, реализующие программу для перевода предложения на португальский язык, который никто из них не знает. [12] В 1974 году Лоуренс Дэвиспредставил дублирование мозга с помощью телефонных линий и офисов, укомплектованных людьми, и в 1978 году Нед Блок представил, что все население Китая будет вовлечено в такую ​​симуляцию мозга. Этот мысленный эксперимент называется мозгом Китая , также «Китайская нация» или «Китайский спортзал». [13]

Джон Сирл в декабре 2005 года

Аргумент китайской комнаты был представлен в статье Серла 1980 года «Разум, мозг и программы», опубликованной в журнале Behavioral and Brain Sciences . [14] В конечном итоге она стала «самой влиятельной целевой статьей» [2], вызвав огромное количество комментариев и откликов в последующие десятилетия, и Сирл продолжал отстаивать и уточнять аргументы во многих статьях, популярных статьях и книгах. Дэвид Коул пишет, что «аргумент о китайской комнате, вероятно, был наиболее широко обсуждаемым философским аргументом в когнитивной науке за последние 25 лет». [15]

Большая часть дискуссий состоит из попыток его опровергнуть. «Подавляющее большинство», - отмечает редактор BBS Стеван Харнад , [f] «все еще считает, что аргумент о китайской комнате абсолютно неверен». [16] Огромный объем литературы, выросшей вокруг него, вдохновил Пэта Хейса на комментарий, что область когнитивной науки следует переопределить как «текущую исследовательскую программу, показывающую ложность аргумента Сирла о китайской комнате». [17]

По словам Харнада, аргумент Сирла стал «чем-то вроде классики когнитивной науки». [16] Варол Акман соглашается и охарактеризовал исходный документ как «образец философской ясности и чистоты». [18]

Философия [ править ]

Хотя аргумент китайской комнаты был первоначально представлен как реакция на утверждения исследователей искусственного интеллекта , философы стали рассматривать его как важную часть философии разума . Это вызов функционализма и вычислительной теории разума , [г] и связана с такими вопросами , как проблема разума и тела , на проблемы других сознаний , с символом заземляющего задачи, и трудной проблемы сознания . [а]

Сильный ИИ [ править ]

Сирл определил философскую позицию, которую он называет «сильным ИИ»:

Таким образом, правильно запрограммированный компьютер с правильными входами и выходами будет иметь разум в том же смысле, в каком и человеческие существа. [b]

Определение зависит от различия между симуляцией ума и действительным умом. Сирл пишет, что «согласно Сильному ИИ, правильная симуляция - это действительно разум. Согласно Слабому ИИ, правильная симуляция - это модель разума». [8]

Это утверждение подразумевается в некоторых заявлениях ранних исследователей и аналитиков ИИ. Например, в 1955 году основатель искусственного интеллекта Герберт А. Саймон заявил, что «сейчас в мире есть машины, которые думают, учатся и создают». [24] Саймон вместе с Алленом Ньюэллом и Клиффом Шоу после завершения первой программы «ИИ», теоретика логики , заявили, что они «решили почтенную проблему разума и тела , объяснив, как система, состоящая из материи, может иметь свойства разума ". [25] Джон Хогеланд писал, что «ИИ нужен только подлинный товар: машины с разумом., в полном и буквальном смысле. Это не научная фантастика, а настоящая наука, основанная на теоретической концепции настолько глубокой, насколько это смелая: а именно, мы сами по сути являемся компьютерами » [26].

Сирл также приписывает следующие утверждения сторонникам сильного ИИ:

  • Системы ИИ можно использовать для объяснения разума; [d]
  • Изучение мозга не имеет отношения к изучению разума; [h] и
  • Тест Тьюринга подходит для установления существования психических состояний. [я]

Сильный ИИ как вычислитель или функционализм [ править ]

В более поздних презентациях аргумента о китайской комнате Сирл определил «сильный ИИ» как «компьютерный функционализм » (термин, который он приписывает Дэниелу Деннетту ). [4] [31] Функционализм - это позиция в современной философии разума, согласно которой мы можем определять ментальные феномены (такие как убеждения, желания и восприятия), описывая их функции по отношению друг к другу и к внешнему миру. Поскольку компьютерная программа может точно представлять функциональные отношения как отношения между символами, компьютер может иметь ментальные феномены, если он запускает правильную программу, согласно функционализму.

Стеван Харнад утверждает, что описания Сирлом сильного ИИ можно переформулировать как «узнаваемые принципы вычислительного подхода , позицию (в отличие от« сильного ИИ »), которую на самом деле придерживаются многие мыслители, и, следовательно, ее стоит опровергнуть». [32] Компьютационализм [j] - это позиция в философии разума, которая утверждает, что разум можно точно описать как систему обработки информации .

Каждое из следующих утверждений, согласно Харнаду, является «принципом» вычислительного подхода: [35]

  • Психические состояния - это вычислительные состояния (поэтому компьютеры могут иметь психические состояния и помогать объяснять разум);
  • Вычислительные состояния не зависят от реализации - другими словами, именно программное обеспечение определяет вычислительное состояние, а не оборудование (вот почему мозг, будучи аппаратным, не имеет значения); и это
  • Поскольку реализация не важна, единственные эмпирические данные, которые имеют значение, - это то, как функционирует система; следовательно, тест Тьюринга является окончательным.

Сильный ИИ против биологического натурализма [ править ]

Сирл придерживается философской позиции, которую он называет « биологическим натурализмом »: сознание [а] и понимание требуют определенных биологических механизмов, которые находятся в мозге. Он пишет, что «мозг порождает разум» [6] и что «реальные человеческие психические явления [зависят] от реальных физико-химических свойств реального человеческого мозга». [36] Сирл утверждает, что этот механизм (известный в нейробиологии как « нейронные корреляты сознания ») должен обладать некоторыми причинными силами, которые позволяют человеческому переживанию сознания. [37] Вера Серла в существование этих способностей подверглась критике. [k]

Серл не возражает против идеи, что машины могут обладать сознанием и пониманием, потому что, как он пишет, «мы являемся именно такими машинами». [6] Сирл считает, что мозг на самом деле является машиной, но что мозг дает начало сознанию и пониманию, используя механизмы, которые не являются вычислительными. Если нейробиология способна изолировать механический процесс, порождающий сознание, то Сирл допускает, что возможно создание машин, обладающих сознанием и пониманием. Однако Сирл не верит, что сознание может возникнуть без специального оборудования.

Биологический натурализм подразумевает, что невозможно определить, происходит ли переживание сознания, просто исследуя, как функционирует система, потому что особый механизм мозга важен. Таким образом, биологический натурализм прямо противоположен как бихевиоризму, так и функционализму (включая «компьютерный функционализм» или «сильный ИИ»). [38] Биологический натурализм подобен теории идентичности (позиция, согласно которой психические состояния «идентичны» или «состоят из» неврологических событий); однако у Сирла есть определенные технические возражения против теории идентичности. [39] [l] Биологический натурализм Серла и сильный ИИ противоположны картезианскому дуализму ,[38]классическая идея о том, что мозг и разум состоят из разных «субстанций». В самом деле, Сирл обвиняет сильный ИИ в дуализме, написав, что «сильный ИИ имеет смысл только при дуалистическом предположении, что в отношении разума мозг не имеет значения». [27]

Сознание [ править ]

Первоначальное представление Сирла подчеркивало «понимание», то есть ментальные состояния с тем, что философы называют « интенциональностью », и не касалось напрямую других тесно связанных идей, таких как «сознание». Однако в более поздних презентациях Сирл включил сознание как реальную цель аргументации. [4]

Вычислительных моделей сознания для сознания недостаточно. Вычислительная модель сознания относится к сознанию точно так же, как вычислительная модель чего-либо относится к моделируемой области. Никто не думает, что вычислительная модель ливней в Лондоне оставит нас всех мокрыми. Но они ошибаются, полагая, что вычислительная модель сознания каким-то образом сознательна. В обоих случаях это одна и та же ошибка. [40]

-  Джон Р. Сирл, Сознание и язык, с. 16

Дэвид Чалмерс пишет, что «совершенно ясно, что сознание лежит в основе дела» китайской комнаты. [41]

Колин Макгинн утверждает, что китайская комната является убедительным доказательством того, что сложная проблема сознания принципиально неразрешима. Аргумент, чтобы быть ясным, заключается не в том, может ли машина быть сознательной, а в том, можно ли показать ее (или что-то еще в этом отношении) сознательной. Понятно, что любой другой метод проверки обитателя китайской комнаты сопряжен с теми же принципиальными трудностями, что и обмен вопросами и ответами на китайском языке. Просто невозможно предугадать, обитает ли в комнате сознательная сила или какая-то умная симуляция. [1]

Сирл утверждает, что это верно только для наблюдателя вне комнаты. Вся суть мыслительного эксперимента поставить кого - то в комнате, где они могут непосредственно наблюдать за деятельностью сознания. Сирл утверждает, что с его выгодной позиции в комнате он не видит ничего, что могло бы вообразить сознание, кроме него самого, и ясно, что у него нет ума, который может говорить по-китайски. [ необходима цитата ]

Прикладная этика [ править ]

Сидеть в боевом информационном центре на борту военного корабля - предлагается как реальный аналог Китайской комнаты.

Патрик Хью использовал аргумент китайской комнаты, чтобы вывести требования из систем военного командования и управления , если они хотят сохранить моральную волю командира . Он провел аналогию между командиром в их командном центре и человеком в Китайской комнате и проанализировал это в свете представлений Аристотеля о «принудительном» и «незнании» . Информацию можно «преобразовать вниз» из смысла в символы и манипулировать символически, но моральная сила может быть подорвана, если не будет адекватного «преобразования вверх» в смысл. Хью привел примеры из инцидента с USS Vincennes . [42]

Информатика [ править ]

Аргумент китайской комнаты - это, прежде всего, аргумент философии разума , и как ведущие компьютерные ученые, так и исследователи искусственного интеллекта считают его неуместным для своей области. [5] Однако, некоторые концепции , разработанные на основе компьютерных ученых имеют важное значение для понимания аргумент, в том числе обработки символов , машины Тьюринга , Тьюринг полноту и тест Тьюринга .

Сильные исследования ИИ против ИИ [ править ]

Аргументы Сирла обычно не считаются проблемой для исследований ИИ. Стюарт Рассел и Питер Норвиг отмечают, что большинство исследователей ИИ «не заботятся о сильной гипотезе ИИ - пока программа работает, им все равно, назовете ли вы это симуляцией интеллекта или настоящим интеллектом». [5] Основная задача исследований искусственного интеллекта состоит только в создании полезных систем, которые действуют разумно, и не имеет значения, является ли интеллект «просто» симуляцией.

Сирл не возражает, что исследования искусственного интеллекта могут создавать машины, способные к очень интеллектуальному поведению. Аргумент «китайская комната» оставляет открытой возможность того, что можно построить цифровую машину, которая будет действовать более разумно, чем человек, но не имеет разума или намерений, как у мозга .

«Сильный ИИ» Сирла не следует путать с « сильным ИИ » по определению Рэя Курцвейла и других футурологов [43], которые используют этот термин для описания машинного интеллекта, который соперничает или превосходит человеческий интеллект. Курцвейла в первую очередь интересует количество интеллекта, отображаемого машиной, тогда как аргумент Сирла не устанавливает ограничений на это. Сирл утверждает, что даже сверхразумная машина не обязательно должна иметь разум и сознание.

Тест Тьюринга [ править ]

«Стандартная интерпретация» теста Тьюринга, в которой игроку C, допрашивающему, дается задача определить, какой игрок - A или B - является компьютером, а кто - человеком. Допрашивающий ограничивается использованием ответов на письменные вопросы для принятия решения. Изображение адаптировано из Сайгина и др. 2000. [44]

В китайской комнате реализована версия теста Тьюринга . [45] Алан Тьюринг представил тест в 1950 году, чтобы помочь ответить на вопрос «могут ли машины думать?» В стандартной версии судья-человек участвует в разговоре на естественном языке с человеком и машиной, предназначенной для создания производительности, неотличимой от человеческого существа. Все участники отделены друг от друга. Если судья не может достоверно отличить машину от человека, считается, что машина выдержала испытание.

Затем Тьюринг рассмотрел все возможные возражения против предложения «машины могут мыслить» и обнаружил, что есть простые и очевидные ответы, если вопрос будет демистифицирован таким образом. Однако он не предполагал, что тест будет измерять наличие «сознания» или «понимания». Он не считал, что это имеет отношение к проблемам, которые он решал. Он написал:

Я не хочу создавать впечатление, будто считаю, что в сознании нет никакой тайны. Есть, например, парадокс, связанный с любой попыткой его локализовать. Но я не думаю, что эти загадки обязательно нужно разгадывать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье. [45]

Для Сирла, как философа, исследующего природу разума и сознания , это соответствующие загадки. Китайская комната спроектирована так, чтобы показать, что теста Тьюринга недостаточно для обнаружения присутствия сознания, даже если комната может вести себя или функционировать как сознательный разум.

Обработка символов [ править ]

Китайская комната (и все современные компьютеры) манипулируют физическими объектами для проведения расчетов и моделирования. Исследователи искусственного интеллекта Аллен Ньюэлл и Герберт А. Саймон назвали такую ​​машину физической системой символов . Это также эквивалентно формальным системам, используемым в области математической логики .

Сирл подчеркивает тот факт, что этот вид манипуляции с символами является синтаксическим (заимствовал термин из изучения грамматики ). Компьютер манипулирует символами, используя форму синтаксических правил , без какого-либо знания семантики символа (то есть их значения ).

Ньюэлл и Саймон предположили, что физическая система символов (такая как цифровой компьютер) имеет все необходимые механизмы для «общего интеллектуального действия» или, как это известно сегодня, общего искусственного интеллекта . Они сформулировали это как философскую позицию, гипотезу о системе физических символов : «Система физических символов имеет необходимые и достаточные средства для общего разумного действия». [46] [47] Аргумент китайской комнаты не опровергает этого, потому что он сформулирован в терминах «разумного действия», то есть внешнего поведения машины, а не наличия или отсутствия понимания, сознания и разума.

Китайская комната и полнота Тьюринга [ править ]

Китайская комната имеет дизайн, аналогичный дизайну современного компьютера. Он имеет архитектуру фон Неймана , которая состоит из программы (книга инструкций), некоторой памяти (бумаги и картотеки), центрального процессора, который следует инструкциям (человек), и средства записи символов в память ( карандаш и ластик). Машина с такой конструкцией известна в теоретической информатике как « полная по Тьюрингу », потому что она имеет необходимый механизм для выполнения любых вычислений, которые может выполнять машина Тьюринга , и, следовательно, она способна выполнять пошаговое моделирование любая другая цифровая машина при наличии достаточного количества памяти и времени. Алан Тьюрингпишет: «Все цифровые компьютеры в некотором смысле эквивалентны». [48] Широко признанный тезис Черча – Тьюринга утверждает, что любая функция, вычислимая с помощью эффективной процедуры, вычислима с помощью машины Тьюринга.

Полнота китайской комнаты по Тьюрингу подразумевает, что она может делать то же, что и любой другой цифровой компьютер (хотя и намного медленнее). Таким образом, если китайская комната не содержит или не может содержать ум, говорящий по-китайски, то никакой другой цифровой компьютер не может содержать ум. Некоторые ответы Сирлу начинаются с утверждения, что в комнате, как описано, не может быть китайскоязычного ума. Аргументы такой формы, по словам Стевана Харнада , не являются «не опровержением (а скорее подтверждением)» [49] аргумента о китайской комнате, потому что эти аргументы фактически подразумевают, что никакие цифровые компьютеры не могут иметь разум. [29]

Некоторые критики, такие как Ханох Бен-Ями, утверждают, что китайская комната не может имитировать все возможности цифрового компьютера, такие как способность определять текущее время. [50]

Полный аргумент [ править ]

Сирл представил более формальную версию аргументации, частью которой является Китайская комната. Он представил первую версию в 1984 году версия , приведенная ниже с 1990 года [51] [м] Единственная часть аргумента , который должен быть спорным является A3 и именно этот момент , что китайская комната мысленный эксперимент призван доказать. [n]

Он начинает с трех аксиом:

(A1) «Программы формальные ( синтаксические )».
Программа использует синтаксис для управления символами и не обращает внимания на семантику символов. Он знает, где разместить символы и как их перемещать, но не знает, что они обозначают или что они означают. Для программы символы - это такие же физические объекты, как и любые другие.
(A2) «У ума есть ментальное содержание ( семантика )».
В отличие от символов, используемых программой, наши мысли имеют значение: они представляют вещи, и мы знаем, что они представляют.
(A3) «Синтаксис сам по себе не является ни составляющим, ни достаточным для семантики».
Это то, что мысленный эксперимент с китайской комнатой призван доказать: у китайской комнаты есть синтаксис (потому что там человек, перемещающий символы). Китайская комната не имеет семантики (потому что, по словам Серла, в комнате нет никого или ничего, что понимало бы, что означают символы). Следовательно, синтаксиса недостаточно для создания семантики.

Сирл утверждает, что это прямо приводит к такому выводу:

(C1) Программы не образуют и не достаточны для ума.
Это должно следовать без противоречий из первых трех: Программы не имеют семантики. У программ есть только синтаксис, а синтаксиса недостаточно для семантики. У каждого ума есть семантика. Поэтому никакие программы - это умы.

Эта большая часть аргумента направлена ​​на то, чтобы показать, что искусственный интеллект никогда не сможет создать машину с разумом, написав программы, которые манипулируют символами. Остальная часть аргумента касается другой проблемы. Запускает ли человеческий мозг программу? Другими словами, верна ли вычислительная теория разума ? [g] Он начинает с аксиомы, которая призвана выразить основной современный научный консенсус относительно мозга и разума:

(A4) Мозги порождают умы.

Сирл утверждает, что мы можем вывести «немедленно» и «тривиально» [52], что:

(C2) Любая другая система, способная вызывать умы, должна обладать каузальными способностями (по крайней мере), эквивалентными таковым у мозга.
В мозгу должно быть что-то, что заставляет разум существовать. Науке еще предстоит точно определить, что это такое, но оно должно существовать, потому что существуют умы. Сирл называет это «причинными силами». «Причинные силы» - это все, что мозг использует для создания разума. Если что-то еще может вызвать существование разума, оно должно обладать «эквивалентными причинными силами». «Эквивалентные причинные силы» является то , что еще , что можно было бы использовать , чтобы сделать ум.

Из этого он делает следующие выводы:

(C3) Любой артефакт, вызывающий ментальные феномены, любой искусственный мозг, должен был бы иметь возможность дублировать специфические причинные силы мозга, а он не мог этого сделать, просто запустив формальную программу.
Это следует из C1 и C2: поскольку никакая программа не может порождать разум, а «эквивалентные причинные силы» порождают умы, отсюда следует, что программы не имеют «эквивалентных причинных сил».
(C4) Способ, которым человеческий мозг на самом деле производит ментальные феномены, не может происходить исключительно благодаря запуску компьютерной программы.
Поскольку программы не имеют «эквивалентных причинных сил», «эквивалентные причинные силы» порождают умы, а мозг порождает умы, из этого следует, что мозг не использует программы для создания разума.

Ответы [ править ]

Ответы на аргумент Серла можно классифицировать в соответствии с тем, что они утверждают: [o]

  • Те, которые определяют, кто говорит по-китайски
  • Те, которые демонстрируют, как бессмысленные символы могут стать значимыми
  • Те, которые предполагают, что китайская комната должна быть каким-то образом переделана
  • Те, кто утверждает, что аргумент Сирла вводит в заблуждение
  • Те, кто утверждает, что этот аргумент делает ложные предположения о субъективном сознательном опыте и, следовательно, ничего не доказывает

Некоторые аргументы (например, моделирование роботов и мозга) делятся на несколько категорий.

Ответы систем и виртуального разума: обретение разума [ править ]

В этих ответах делается попытка ответить на вопрос: если человек в комнате не говорит по-китайски, то где же его «разум»? Эти ответы обращаются к ключевым онтологическим проблемам разума против тела и симуляции против реальности. Все ответы, которые идентифицируют разум в комнате, являются версиями «ответа системы».

Ответ системы [ править ]

В базовой версии утверждается, что «вся система» понимает китайский язык. [57] [p] В то время как этот человек понимает только английский язык, когда его объединяют с программой, бумагой для заметок, карандашами и картотечными шкафами, они образуют систему, которая может понимать китайский язык. «Здесь понимание не приписывается простому человеку; скорее, оно приписывается всей системе, частью которой он является», - объясняет Сирл. [30] Тот факт, что человек не понимает китайский язык, не имеет значения, потому что важна только система в целом.

Сирл отмечает, что (в этой простой версии ответа) «система» - не что иное, как совокупность обычных физических объектов; он дает силу понимания и сознания «соединению этого человека и кусочков бумаги» [30], не прилагая никаких усилий, чтобы объяснить, как эта груда объектов стала сознательным, мыслящим существом. Сирл утверждает, что ни один разумный человек не должен быть удовлетворен ответом, если он не находится «во власти идеологии»; [30] Для того, чтобы этот ответ был хотя бы отдаленно правдоподобным, нужно принять как должное, что сознание может быть продуктом «системы» обработки информации и не требует чего-либо, напоминающего реальную биологию мозга.

Затем Сирл отвечает, упрощая этот список физических объектов: он спрашивает, что произойдет, если человек запомнит правила и будет отслеживать все в своей голове? Тогда вся система состоит только из одного объекта: самого человека. Сирл утверждает, что если человек не понимает китайского, то и система не понимает китайский, потому что теперь «система» и «человек» описывают один и тот же объект. [30]

Критики ответа Серла утверждают, что программа позволила человеку иметь два разума в одной голове. [ кто? ] Если мы предположим, что «разум» - это форма обработки информации, то теория вычислений может объяснить два вычисления, происходящие одновременно, а именно (1) вычисление для универсальной программируемости (которое является функцией, созданной человеком и примечанием - взятие материалов независимо от какого-либо конкретного содержания программы) и (2) вычисление машины Тьюринга, которая описывается программой (которая создается всем, включая конкретную программу). [59]Таким образом, теория вычислений формально объясняет открытую возможность того, что второе вычисление в Китайской комнате могло повлечь за собой семантическое понимание китайских входных данных, эквивалентное человеческому. Основное внимание уделяется машине Тьюринга программы, а не человеку. [60] Однако, с точки зрения Серла, этот аргумент является циркулярным. Возникает вопрос, является ли сознание формой обработки информации, и этот ответ требует, чтобы мы сделали это предположение.

Более сложные версии системного ответа пытаются более точно определить, что такое «система», и они различаются тем, как именно они ее описывают. Согласно этим ответам, [ кто? ] «разум, говорящий по-китайски» может быть таким, как: «программное обеспечение», «программа», «работающая программа», симуляция «нейронных коррелятов сознания», «функциональная система», «симулированная разум »,« возникающее свойство »или« виртуальный разум »( версия ответа системы Марвина Мински , описанная ниже).

Ответ виртуального разума [ править ]

Термин « виртуальный » используется в информатике для описания объекта, который кажется существующим «в» компьютере (или компьютерной сети) только потому, что программное обеспечение создает впечатление, что он существует. Все объекты «внутри» компьютеров (включая файлы, папки и т. Д.) Являются «виртуальными», за исключением электронных компонентов компьютера. Точно так же, утверждает Мински , компьютер может содержать «разум», который виртуален в том же смысле, что и виртуальные машины , виртуальные сообщества и виртуальная реальность . [q]
Чтобы прояснить различие между простым ответом системы, приведенным выше, и ответом виртуального разума, Дэвид Коул отмечает, что в одной системе могут одновременно выполняться два моделирования: одно говорит на китайском, а другое - на корейском. Хотя существует только одна система, может быть несколько «виртуальных умов», поэтому «система» не может быть «умом». [64]

Сирл отвечает, что такой разум в лучшем случае является симуляцией , и пишет: «Никто не думает, что компьютерное моделирование пожара с пятью тревогами сожжет весь район или что компьютерное моделирование ливня оставит нас всех мокрыми». [65] Николас Фирн отвечает, что для некоторых вещей симуляция ничуть не хуже реальной. «Когда мы вызываем функцию карманного калькулятора на настольном компьютере, на экране появляется изображение карманного калькулятора. Мы не жалуемся, что« на самом деле это не калькулятор », потому что физические характеристики устройства не соответствуют иметь значение." [66]Вопрос в том, состоит ли человеческий разум, как карманный калькулятор, по существу из информации? Или разум, подобный ливню, является чем-то другим, кроме компьютера, и не может быть полностью реализован с помощью компьютерного моделирования? На протяжении десятилетий этот вопрос моделирования заставлял исследователей и философов искусственного интеллекта задуматься о том, является ли термин « синтетический интеллект » более подходящим, чем обычное описание такого разума как «искусственный».

В этих ответах объясняется, кто именно понимает китайский язык. Если в комнате есть кто-то, кроме человека, который понимает по-китайски, Сирл не может утверждать, что (1) этот человек не понимает китайского, следовательно, (2) никто в комнате не понимает китайский. Это, по мнению тех, кто дает этот ответ, показывает, что аргумент Сирла не может доказать, что «сильный ИИ» ложен. [р]

Однако эти ответы сами по себе не дают никаких доказательств того, что сильный ИИ верен . Они не показывают, что система (или виртуальный разум) понимает китайский язык, кроме гипотетической предпосылки, что она проходит тест Тьюринга . Сирл утверждает, что, если мы считаем Strong AI отдаленно правдоподобным, Китайская комната является примером, требующим объяснения, и трудно или невозможно объяснить, как сознание может «появиться» из комнаты или как система будет иметь сознание. Как пишет Сирл, «ответ системы просто напрашивается на вопрос, настаивая на том, что система должна понимать китайский язык» [30], и, таким образом, уклоняется от вопроса или безнадежно циркулирует.

Ответы роботов и семантики: поиск смысла [ править ]

Что касается человека, находящегося в комнате, символы представляют собой бессмысленные «волнистые линии». Но если китайская комната действительно «понимает», о чем говорит, то символы должны откуда-то брать свое значение. Эти аргументы пытаются связать символы с вещами, которые они символизируют. Эти ответы решения проблем Серла о преднамеренности , символ заземления и синтаксис против семантики .

Ответ робота [ править ]

Предположим, что вместо комнаты программа была помещена в робота, который мог бродить и взаимодействовать со своим окружением. Это позволит установить « причинную связь» между символами и вещами, которые они представляют. [68] [s] Ганс Моравец комментирует: «Если бы мы могли привить робота к программе рассуждений, нам больше не нужен был бы человек, который бы придавал смысл: он пришел бы из физического мира». [70] [т]
Ответ Сирла состоит в том, чтобы предположить, что без ведома человека, находящегося в китайской комнате, некоторые входные данные поступали непосредственно с камеры, установленной на роботе, а некоторые выходы использовались для управления руками и ногами робота. Тем не менее, человек в комнате по-прежнему просто следует правилам и не знает, что означают символы. Сирл пишет: «Он не видит того, что попадает в глаза роботу». [72] (См . Комнату Мэри для подобного мысленного эксперимента.)

Производное значение [ править ]

Некоторые отвечают , что в комнате, так как Searle описывает его, как связи с миром: через говорящих на китайском языке , что он «говорить» и через программистов , которые проектировали базу знаний в его картотеке. Символы, которыми манипулирует Сирл , уже значимы , но для него они просто не значимы . [73] [u]
Сёрл говорит, что символы имеют только «производное» значение, как и значения слов в книгах. Значение символов зависит от сознательного понимания говорящими на китайском языке и программистами за пределами комнаты. Комната, как книга, не имеет собственного понимания. [v]

Здравый смысл / ответ контекстуалиста [ править ]

Некоторые утверждали, что значения символов могут быть получены из обширного «фона» здравого смысла, закодированного в программе и картотеках. Это обеспечит « контекст », который придаст символам их значение. [71] [w]
Сирл согласен с тем, что этот фон существует, но не согласен с тем, что он может быть встроен в программы. Хьюберт Дрейфус также подверг критике идею о том, что «фон» может быть представлен символически. [76]

На каждое из этих предложений Сирл отвечает одинаково: независимо от того, сколько знаний записано в программу и как бы программа ни была связана с миром, он все еще находится в комнате, манипулируя символами в соответствии с правилами. Его действия синтаксичны, и это никогда не может объяснить ему, что означают символы. Сирл пишет: «Синтаксис недостаточен для семантики». [77] [x]

Однако для тех, кто согласен с тем, что действия Сирла моделируют разум, отдельный от его собственного, важным вопросом является не то, что символы значат для Сирла , важно то, что они значат для виртуального разума. В то время как Сирл заперт в комнате, виртуальный разум - нет: он связан с внешним миром через говорящих по-китайски, с которыми он разговаривает, через программистов, которые дали ему мировые знания, а также через камеры и другие датчики, которые могут предоставить робототехники .

Моделирование мозга и ответы коннекционистов: изменение дизайна комнаты [ править ]

Эти аргументы представляют собой все версии системного ответа, которые определяют особый вид системы как важную; они идентифицируют какую-то особую технологию, которая создаст осознанное понимание в машине. (Ответы «робот» и «здравый смысл» выше также указывают на важность определенного типа системы.)

Ответ симулятора мозга [ править ]

Предположим, что программа детально смоделировала действие каждого нейрона в мозгу говорящего по-китайски. [79] [y] Это укрепляет интуицию о том, что не будет значительной разницы между работой программы и работой живого человеческого мозга.
Сирл отвечает, что такое моделирование не воспроизводит важные особенности мозга - его причинные и интенциональные состояния. Сирл непреклонен в том, что «человеческие психические феномены [зависят] от реальных физико-химических свойств реального человеческого мозга». [27] Более того, он утверждает:

[Я] представляю себе, что вместо одноязычного человека в комнате, перетасовывающего символы, у нас есть человек, управляющий сложным набором водопроводных труб с клапанами, соединяющими их. Когда мужчина получает китайские символы, он ищет в программе, написанной на английском языке, какие клапаны он должен включать и выключать. Каждое водное соединение соответствует синапсу в китайском мозгу, и вся система настроена так, что после выполнения всех правильных запусков, то есть после включения всех правильных кранов, китайские ответы появляются в конце серии. труб. Где теперь понимание в этой системе? Он принимает китайский язык на входе, моделирует формальную структуру синапсов китайского мозга и дает китайский язык на выходе. Но этот человек точно не понимает китайского, как и водопроводные трубы,и если у нас возникает соблазн принять то, что я считаю абсурдным, что каким-то образом соединение человека и водопроводных труб понимается, помните, что в принципе человек может усвоить формальную структуру водопроводных труб и произвести все «срабатывания нейронов» в своем воображение.[81]

Два варианта ответа симулятора мозга - это китайский мозг и сценарий замены мозга.
Китайские мозги [ править ]
Что, если мы попросим каждого гражданина Китая смоделировать один нейрон, используя телефонную систему для моделирования связей между аксонами и дендритами ? В этой версии кажется очевидным, что ни один человек не понимал бы, что может говорить мозг. [82] [z] Также очевидно, что эта система будет функционально эквивалентна мозгу, поэтому, если сознание является функцией, эта система будет сознательной.
Сценарий замены мозга [ править ]
Здесь нас просят представить, что инженеры изобрели крошечный компьютер, который имитирует действие отдельного нейрона. Что произойдет, если мы заменим по одному нейрону за раз? Замена одного явно не повлияет на сознательное осознание. Замена всех из них создаст цифровой компьютер, имитирующий мозг. Если Сирл прав, тогда сознательное осознание должно исчезнуть во время процедуры (постепенно или полностью). Критики Серла утверждают, что во время процедуры не было бы никакого смысла, если бы он мог утверждать, что сознательное осознание заканчивается и начинается бездумное моделирование. [84] [аа]Сирл предсказывает, что, проходя мозговой протез, «к своему полному изумлению вы обнаруживаете, что действительно теряете контроль над своим внешним поведением. Например, вы обнаруживаете, что когда врачи проверяют ваше зрение, вы слышите, как они говорят:« Мы держат перед собой красный предмет; расскажите, пожалуйста, что вы видите ». Вы хотите кричать: «Я ничего не вижу. Я полностью ослеп». Но вы слышите, как ваш голос говорит совершенно не зависящим от вас образом: «Я вижу красный объект перед собой». [...] [Y] наш сознательный опыт постепенно превращается в ничто, в то время как ваше внешне наблюдаемое поведение остается прежним ». [86] (См. Аналогичный мысленный эксперимент в « Корабле Тесея» .)

Ответы Connectionist [ править ]

Тесно связанный с ответом симулятора мозга, это утверждает, что массивно-параллельная архитектура коннекционизма будет способна понять. [ab]

Комбинированный ответ [ править ]

Этот ответ объединяет ответ робота с ответом симуляции мозга, утверждая, что симуляция мозга, связанная с миром через тело робота, может иметь разум. [89]

Много особняков / ждать до следующего года ответ [ править ]

Более совершенные технологии будущего позволят компьютерам понимать. [28] [ac] Сирл согласен с тем, что это возможно, но считает этот момент несущественным. Сирл соглашается с тем, что могут быть конструкции, которые заставят машину иметь сознательное понимание.

Эти аргументы (и ответы робота или здравого смысла) указывают на некую особую технологию, которая поможет создать осознанное понимание в машине. Их можно интерпретировать двояко: либо они заявляют, что (1) эта технология необходима для сознания, китайская комната не реализует или не может реализовать эту технологию, и, следовательно, китайская комната не может пройти тест Тьюринга или (даже если бы прошла) ее. не имел бы сознательного понимания. Или они могут утверждать, что (2) легче увидеть, что у китайской комнаты есть разум, если мы визуализируем эту технологию как используемую для ее создания.

В первом случае, когда требуются такие функции, как корпус робота или архитектура коннекционизма, Сирл утверждает, что от сильного ИИ (в его понимании) отказались. [ad] Китайская комната имеет все элементы полной машины Тьюринга и, таким образом, способна моделировать любые цифровые вычисления. Если комната Сирла не может пройти тест Тьюринга, то нет другой цифровой технологии, которая могла бы пройти тест Тьюринга. Если комната Сирла может пройти тест Тьюринга, но все еще не имеет разума, тогда теста Тьюринга недостаточно, чтобы определить, есть ли в комнате «разум». В любом случае он отрицает ту или иную позицию, которую Сирл считает «сильным ИИ», подтверждая свой аргумент.

Мозговые аргументы, в частности, отрицают сильный ИИ, если они предполагают, что нет более простого способа описать разум, чем создать программу, столь же загадочную, как и мозг. Он пишет: «Я думал, что вся идея сильного ИИ заключалась в том, что нам не нужно знать, как работает мозг, чтобы знать, как он работает». [28] Если вычисления не дают объяснения человеческого разума, значит, сильный ИИ потерпел неудачу, согласно Сёрлу.

Другие критики считают, что комната, как ее описал Сирл, на самом деле имеет разум, однако они утверждают, что ее трудно увидеть - описание Сирла верно, но вводит в заблуждение. Создавая более реалистичный дизайн комнаты, они надеются сделать это более очевидным. В данном случае эти аргументы используются как апелляция к интуиции (см. Следующий раздел).

На самом деле, комнату можно так же легко изменить, чтобы ослабить нашу интуицию. Ned Block «s Blockhead аргумент [90] говорит о том , что программа, в теории, можно переписать в виде простой таблицы перекодировки из правил вида„если пользователь пишет S Ответить с P и Goto X“. По крайней мере, в принципе, любую программу можно переписать (или « рефакторировать ») в эту форму, даже симуляцию мозга. [ae] В сценарии с болваном все психическое состояние скрыто в букве X, которая представляет собой адрес памяти.- номер, связанный со следующим правилом. Трудно представить себе, что мгновение чьего-либо сознательного опыта может быть зафиксировано в одном большом количестве, но это именно то, что утверждает «сильный ИИ». С другой стороны, такая таблица поиска была бы смехотворно большой (до такой степени, что она была бы физически невозможной), и поэтому состояния могли бы быть чрезвычайно конкретными.

Сирл утверждает, что, как бы ни была написана программа или как бы машина ни была связана с миром, разум моделируется простой пошаговой цифровой машиной (или машинами). Эти машины всегда похожи на человека в комнате: они ничего не понимают и не говорят по-китайски. Они просто манипулируют символами, не зная, что они означают. Сирл пишет: «У меня может быть любая формальная программа, какая вам нравится, но я все равно ничего не понимаю». [10]

Скорость и сложность: обращается к интуиции [ править ]

Следующие аргументы (и интуитивная интерпретация приведенных выше аргументов) не объясняют напрямую, как человек, говорящий по-китайски, мог существовать в комнате Сирла или как символы, которыми он манипулирует, могли стать значимыми. Однако, вызывая сомнения в интуиции Сирла, они поддерживают другие позиции, такие как ответы системы и роботов. Эти аргументы, если они приняты, не позволяют Серлу утверждать, что его вывод очевиден, поскольку они подрывают интуицию, которой требует его уверенность.

Некоторые критики полагают, что аргумент Сирла полностью основан на интуиции. Нед Блок пишет: «Аргумент Серла зависит от интуиции, о которой не думают некоторые сущности». [91] Дэниел Деннет описывает аргумент китайской комнаты как вводящий в заблуждение « насос интуиции » [92] и пишет: «Мысленный эксперимент Сирла незаконно зависит от того, как вы представляете слишком простой случай, случай, не имеющий отношения к делу, и делаете из этого« очевидный »вывод. Это." [92]

Некоторые из приведенных выше аргументов также служат апелляцией к интуиции, особенно те, которые призваны сделать более правдоподобным тот факт, что китайская комната содержит разум, который может включать робота, здравый смысл, моделирование мозга и ответы коннекционистов. Некоторые из приведенных выше ответов также касаются конкретной проблемы сложности. В ответе коннекциониста подчеркивается, что работающая система искусственного интеллекта должна быть такой же сложной и взаимосвязанной, как человеческий мозг. Ответ, основанный на здравом смысле, подчеркивает, что любая программа, прошедшая тест Тьюринга, должна быть «чрезвычайно гибкой, сложной и многоуровневой системой, наполненной« мировым знанием », мета-знанием и мета-мета-знанием», как объясняет Дэниел Деннет. . [75]

Скорость и сложность ответов [ править ]

Скорость, с которой человеческий мозг обрабатывает информацию, составляет (по некоторым оценкам) 100 миллиардов операций в секунду. [93] Некоторые критики отмечают, что человеку в комнате, вероятно, потребуются миллионы лет, чтобы ответить на простой вопрос, и ему потребуются «картотеки» астрономических размеров. Это ставит под сомнение ясность интуиции Сирла. [94] [af]

Особенно яркая версия ответа о скорости и сложности была получена от Пола и Патрисии Черчленд . Они предлагают аналогичный мысленный эксперимент:

Светлая комната Черчленда [ править ]

"Представьте темную комнату, в которой человек держит стержневой магнит или заряженный объект. Если человек качает магнит вверх и вниз, то, согласно теории искусственной яркости Максвелла (AL), он инициирует распространение электромагнитных волн по кругу. и, таким образом, будет светиться. Но как хорошо известно всем, кто играл с магнитами или заряженными шарами, их силы (или любые другие силы в этом отношении), даже когда они приводятся в движение, вообще не производят яркости. Это немыслимо, чтобы вы может создать реальную яркость, просто перемещая силы вокруг! " [83] Проблема в том, что ему пришлось бы махать магнитом вверх и вниз примерно 450 триллионов раз в секунду, чтобы что-то увидеть. [96]

Стеван Харнад критически относится к скорости и сложности ответов, когда они выходят за рамки нашей интуиции. Он пишет : «Некоторые из них сделал культ скорости и времени, считая , что, когда ускоряется до правильной скорости, вычислительный может сделать фазовый переход в ментальном. Должно быть ясно , что это не контраргумент , а всего лишь специальная спекуляция ( как и точка зрения, что все это просто вопрос повышения до нужной степени «сложности».) " [97] [ag]

Сирл утверждает, что его критики также полагаются на интуицию, однако интуиции его оппонентов не имеют эмпирической основы. Он пишет, что для того, чтобы считать «ответ системы» хоть сколько-нибудь правдоподобным, человек должен находиться «во власти идеологии». [30] Ответ системы имеет смысл (для Серла) только в том случае, если предположить, что любая «система» может обладать сознанием только в силу того, что она является системой с правильным поведением и функциональными частями. Он утверждает, что это предположение не соответствует нашему опыту сознания.

Другие умы и зомби: бессмысленность [ править ]

Некоторые ответы утверждают, что аргумент Сирла неуместен, потому что его предположения о разуме и сознании ошибочны. Сирл считает, что люди ежедневно непосредственно испытывают свое сознание, интенциональность и природу ума, и что этот опыт сознания не подлежит сомнению. Он пишет, что мы должны «предполагать реальность и познаваемость ментального». [100]Эти ответы ставят вопрос о том, имеет ли Сирл право использовать свой собственный опыт сознания для определения того, что это нечто большее, чем механическая обработка символов. В частности, ответ «другие умы» утверждает, что мы не можем использовать наш опыт сознания для ответа на вопросы о других разумах (даже о разуме компьютера), а ответ «эпифеномены» утверждает, что сознание Сирла не «существует» в том смысле, в котором думает Сирл. оно делает.

Другие умы отвечают
Этот ответ указывает на то, что аргумент Сирла - это версия проблемы других умов , примененная к машинам. Мы не можем определить, совпадает ли субъективный опыт других людей с нашим собственным. Мы можем только изучать их поведение (т. Е. Давая им собственный тест Тьюринга ). Критики Сирла утверждают, что он ставит китайскую комнату на более высокий уровень, чем мы могли бы придерживаться обычного человека. [101] [ах]

Нильс Нильссон пишет: «Если программа ведет себя так, как если бы она умножалась, большинство из нас сказали бы, что на самом деле это умножение. Насколько мне известно, Сирл может вести себя только так, как если бы он глубоко размышлял об этих вопросах. Но, хотя я с ним не согласен, его симуляция довольно хороша, так что я готов отдать ему должное за настоящую мысль ». [103]

Алан Тьюринг предвосхитил аргументацию Сирла (которую он назвал «Аргументом сознания») в 1950 году и заставляет другие умы ответить. [104] Он отметил, что люди никогда не задумываются о проблеме других умов, когда общаются друг с другом. Он пишет, что «вместо того, чтобы постоянно спорить по этому поводу, обычно принято вежливое соглашение, как все думают». [105] Тест Тьюринга просто распространяет это «вежливое соглашение» на машины. Он не намеревается решать проблемы других умов (машин или людей) и не думает, что нам это нужно. [ai]

Исключительный ответ материализма
Некоторые философы утверждают, что сознания, как его описывает Сирл, не существует. Эту позицию иногда называют элиминативным материализмом : точка зрения, согласно которой сознание - это свойство, которое можно свести к строго механическому описанию, и что наш опыт сознания, как описывает его Дэниел Деннет, « пользовательская иллюзия ». [108] Другие ментальные свойства, такие как изначальная интенциональность (также называемая «значением», «содержанием» и «семантическим характером»), также обычно рассматриваются как нечто особенное в убеждениях и других пропозициональных установках. Исключительный материализмутверждает, что пропозициональные установки, такие как убеждения и желания, среди других интенциональных ментальных состояний, имеющих содержание, не существуют. Если элиминативный материализм является правильным научным объяснением человеческого познания, то предположение аргумента китайской комнаты о том, что «умы обладают ментальным содержанием ( семантикой )», должно быть отвергнуто. [109]

Стюарт Рассел и Питер Норвиг утверждают, что, если мы принимаем Сирлское описание интенциональности, сознания и разума, мы вынуждены признать, что сознание является эпифеноменальным : оно «не отбрасывает тени», что оно не обнаруживается во внешнем мире. Они утверждают, что Сирл, должно быть, ошибается в отношении «познаваемости ментального» и в своей вере в то, что в наших нейронах есть «причинные свойства», которые порождают разум. Они указывают на то, что, по собственному описанию Сирла, эти причинные свойства не могут быть обнаружены кем-либо вне разума, иначе Китайская комната не могла пройти тест Тьюринга.- люди снаружи смогут определить, что в комнате нет говорящего по-китайски, по их причинным свойствам. Поскольку они не могут обнаружить причинные свойства, они не могут обнаружить существование ментального. Короче говоря, «причинные свойства» Серла и само сознание необнаружимы, и все, что не может быть обнаружено, либо не существует, либо не имеет значения. [110]

Дэниел Деннет предлагает это расширение аргумента «эпифеномены».

Ответ Деннета от естественного отбора
Предположим, что в результате некоторой мутации рождается человек, который не обладает "причинными свойствами" Сирла, но, тем не менее, действует точно так же, как человек. (Этот вид животных называется « зомби » в мысленных экспериментах философии разума ). Это новое животное будет воспроизводиться так же, как и любой другой человек, и в конечном итоге этих зомби станет больше. Естественный отбор будет благоприятствовать зомби, поскольку их конструкция (можно предположить) немного проще. В конце концов люди вымрут. Поэтому, если Сирл прав, наиболее вероятно, что люди (какими мы их видим сегодня) на самом деле являются «зомби», которые, тем не менее, настаивают на том, что они сознательны. Невозможно узнать, все мы зомби или нет. Даже если мы все зомби,мы бы все равно верили, что это не так.[111]

Сирл не согласен с этим анализом и утверждает, что «изучение разума начинается с таких фактов, как то, что у людей есть убеждения, а у термостатов, телефонов и счетных машин нет ... мы хотели знать, что отличает разум от термостатов. и печень ". [72] Он считает очевидным, что мы можем обнаружить присутствие сознания, и отклоняет эти ответы как не относящиеся к делу.

Ньютона пламенный лазерный меч ответ
Майк Алдер утверждает, что весь аргумент является несерьезным, потому что он не верификационистский : не только различие между моделированием разума и наличием разума плохо определено, но также не имеет значения, потому что никакие эксперименты не предлагались или даже не могут быть предложены. чтобы различать эти два. [112]

Английский ответ [ править ]

Маргарет Боден представила этот ответ в своей статье «Побег из китайской комнаты». [113] В нем она предполагает, что даже если человек в комнате не понимает китайского, это не означает, что в комнате нет понимания. Человек в комнате, по крайней мере, понимает свод правил, используемый для выработки ответов.

В популярной культуре [ править ]

Аргумент о китайской комнате - центральная идея в романах Питера Уоттса « Слепота» и (в меньшей степени) « Эхопраксия» . [114] Это также центральная тема в видеоигре «Последняя награда добродетели» , которая связана с повествованием игры. [ необходима цитата ] В 4 сезоне американской криминальной драмы Numb3rs есть краткое упоминание о китайской комнате. [115]

The Chinese Room - это также название британской независимой студии разработки видеоигр, наиболее известной благодаря работе над экспериментальными играми от первого лица, такими как Everybody's Gone to the Rapture или Dear Esther . [116]

В видеоигре 2016 года «Тест Тьюринга» мысленный эксперимент «Китайская комната» объясняется игроку с помощью ИИ.

См. Также [ править ]

  • Вычислительные модели овладения языком
  • Эмерджентное поведение
  • Нет настоящего шотландца
  • Философский зомби
  • Парадокс соритеса
  • Синтетический интеллект
  • Я странная петля

Заметки [ править ]

  1. ^ a b c В разделе « Сознание» этой статьи обсуждается связь между аргументом китайской комнаты и сознанием.
  2. ^ a b Эта версия взята из книги Серла « Разум, язык и общество» [21] и также цитируется в книге Дэниела Деннета « Объяснение сознания» . [22] Первоначальная формулировка Сирла заключалась в следующем: «Соответственно запрограммированный компьютер на самом деле является разумом в том смысле, что можно буквально сказать, что компьютеры, получившие правильные программы, понимают и имеют другие когнитивные состояния». [23] Сильный ИИ определяется аналогичным образом Стюартом Расселом и Питером Норвигом.: «Утверждение, что машины могут действовать разумно (или, что лучше, действовать так, как если бы они были разумными), философы называют гипотезой« слабого ИИ », а утверждение, что машины, которые так поступают, на самом деле думают (в отличие от моделирования мышление) называется гипотезой «сильного ИИ» ". [5]
  3. ^ Сирл пишет, что «согласно Сильному ИИ, правильная симуляция - это действительно разум. Согласно Слабому ИИ, правильная симуляция - это модель разума». [8] Он также пишет: «С точки зрения сильного ИИ, правильно запрограммированный компьютер не просто имитирует наличие разума, он буквально имеет разум». [9]
  4. ^ a b Сёрл пишет: «Сторонники сильного ИИ утверждают, что в этой последовательности вопросов и ответов машина не только моделирует человеческие способности, но также (1) буквально можно сказать, что машина понимает историю и дает ответы на вопросы. и (2) то, что машина и ее программа объясняют человеческую способность понимать историю и отвечать на вопросы о ней ». [7]
  5. Обратите внимание, что Лейбниц возражал против «механической» теории разума (философская позиция, известная как механизм ). Сёрл возражает против взгляда на разум «обработки информации» (философская позиция, известная как « вычислительный подход»). Сирл принимает механизм и отвергает вычислительный подход.
  6. ^ Харнад редактировал BBS в те годы, когда возникла и популяризовалась аргументация китайской комнаты.
  7. ^ a b Стеван Харнад считает, что аргумент Серла противоречит тезису о том, что «с тех пор его стали называть« вычислительным », согласно которому познание - это просто вычисление, следовательно, ментальные состояния - это просто вычислительные состояния». [19] Дэвид Коул соглашается с тем, что «этот аргумент также имеет широкое значение для функционалистских и вычислительных теорий значения и разума». [20]
  8. ^ Сирл считает, что «сильный ИИ имеет смысл только при дуалистическом допущении, что в том, что касается разума, мозг не имеет значения». [27] Он пишет в другом месте: «Я думал, что вся идея сильного ИИ заключалась в том, что нам не нужно знать, как работает мозг, чтобы знать, как он работает». [28] Эта позиция обязана своей формулировкой Стевану Харнаду. [29]
  9. ^ «Один из спорных вопросов, - пишет Сирл, - это адекватность теста Тьюринга». [30]
  10. ^ Computationalism связан с Фодорами и Хилари Putnam , [33] и удерживается Allen Newell , [29] Зенон Пайлишин [29] и Стивен Пинкер , [34] среди других.
  11. См. Ответы Сирлу в разделе « Бессмысленность» ниже.
  12. ^ Ларри Хаузер пишет, что «биологический натурализм либо путают (колебание между теорией тождества и дуализмом), либо это просто теория тождества или дуализм». [38]
  13. ^ Формулировки каждой аксиомы и заключения взяты из презентации Сирла в Scientific American . [52] [53] (A1-3) и (C1) описаны как 1,2,3 и 4 у Дэвида Коула. [54]
  14. ^ Пол и Патрисия Черчленд пишут, что мысленный эксперимент с китайской комнатой предназначен для «подтверждения аксиомы 3». [55]
  15. ^ Дэвид Коул объединяет вторую и третью категории, а также четвертую и пятую. [56]
  16. Эту должность занимают, в частности, Нед Блок , Джек Коупленд , Дэниел Деннет , Джерри Фодор , Джон Хогеланд , Рэй Курцвейл и Джордж Рей . [58]
  17. ^ Ответ виртуального разума проводится Марвин Мински , Тим Модлин , Дэвид Чалмерс и Дэвид Коул. [61] Ответ был представлен Марвином Мински . [62] [63]
  18. ^ Дэвид Коул пишет: «Исходя из интуиции, что в мысленном эксперименте CR он не смог бы понять китайский язык, запустив программу, Сирл заключает, что не существует понимания, созданного запуском программы. Очевидно, верен ли этот вывод или нет, включает метафизический вопрос о личности людей и умов. Если понимание человека не тождественно оператору комнаты, то вывод ошибочен ». [67]
  19. ^ Эту должность занимают, в частности, Маргарет Боден , Тим Крейн , Дэниел Деннет , Джерри Фодор , Стеван Харнад , Ханс Моравек и Жорж Рей . [69]
  20. ^ Дэвид Коул называет это «экстерналистским» объяснением значения. [71]
  21. ^ Производное значение ответа связано с Дэниелом Деннетом и другими.
  22. ^ Сирл различает «внутреннюю» интенциональность и «производную» интенциональность. «Внутренняя» интенциональность - это вид, который включает в себя «сознательное понимание», как в человеческом разуме. Дэниел Деннет не согласен с тем, что существует различие. Дэвид Коул пишет, что, по словам Деннета, «производная интенциональность - это все, что есть». [74]
  23. ^ Дэвид Коул описывает это как «интерналистский» подход к значению. [71] Сторонниками этой позиции являются Роджер Шэнк , Дуг Ленат , Марвин Мински и (с оговорками) Дэниел Деннет , который пишет: «Дело в том, что любая программа [прошедшая тест Тьюринга] должна быть чрезвычайно гибкой, сложной, и многослойная система, наполненная «мировым знанием», мета-знанием и мета-мета-знанием ». [75]
  24. ^ Сирл также пишет: «Сами по себе формальные символы никогда не могут быть достаточными для ментального содержания, потому что символы, по определению, не имеют значения (или интерпретации , или семантики), за исключением тех случаев, когда кто-то вне системы дает их им». [78]
  25. ^ Ответ моделирования мозга был сделан Полом Черчлендом , Патрисией Черчленд и Рэем Курцвейлом . [80]
  26. Ранние версии этого аргумента были выдвинуты в 1974 году Лоуренсом Дэвисом и в 1978 году Недом Блоком . Версия Блока использовала рации и называлась «Китайский тренажерный зал». Пол и Патрисия Черчленд также описали этот сценарий. [83]
  27. ^ Ранняя версия сценария замены мозга был выдвинут Кларк Глимур в середине 70-х годов и была затронута по Зенон Пилишина в 1980 году Хансом Moravec представил яркую версию этого, [85] , и теперь связан с Рэй Курцвейл Версия трансгуманизма .
  28. ^ Ответ коннекциониста сделали Энди Кларк и Рэй Курцвейл , [87], а также Пол и Патрисия Черчленд . [88]
  29. ^ Сирл (2009) использует название «Подождите, пока ответит в следующем году».
  30. ^ Сирл пишет, что ответ робота «молчаливо признает, что познание - это не только вопрос формального манипулирования символами». [72] Стеван Харнад говорит о том же, написав: «Так же, как это не опровержение (а скорее подтверждение) CRA, чтобы отрицать, что [тест Тьюринга] является достаточно сильным тестом, или отрицать, что компьютер может когда бы то ни было, это просто особый призыв попытаться спасти вычислительный подход, оговорив ad hoc (перед лицом CRA), что детали реализации все-таки имеют значение и что компьютер является `` правильным '' типом реализации, в то время как вариант Серла - "неправильный" вид ". [49]
  31. ^ То есть любая программа, работающая на машине с ограниченным объемом памяти.
  32. ^ Ответы по скорости и сложности дают Дэниел Деннет , Тим Модлин , Дэвид Чалмерс , Стивен Пинкер , Пол Черчленд , Патрисия Черчленд и другие. [95] Дэниел Деннет указывает на сложность мировых знаний. [75]
  33. ^ Критики формы "фазового перехода" этого аргумента включают Стевана Харнада, Тима Модлина , Дэниела Деннета и Дэвида Коула. [95] Эта идея «фазового перехода» является версией сильного эмерджентизма (то, что Дэниел Деннет высмеивает как «Ву-ву, возникновение Западного побережья» [98] ). Харнад обвиняет Черчленд и Патрисию Черчленд в поддержке сильного эмерджентизма. Рэй Курцвейл также придерживается сильного эмерджентизма. [99]
  34. ^ Ответ "другие умы" был предложен, среди прочих, Дэниелом Деннетом , Рэем Курцвейлом и Хансом Моравеком . [102]
  35. ^ Одна из мотиваций Тьюринга для разработки теста Тьюринга состоит в том, чтобы избежать именно тех философских проблем, которые интересуют Сёрла. Он пишет: «Я не хочу производить впечатление, будто я думаю, что в этом нет никакой тайны ... [но] я не думаю, что эти загадки обязательно нужно разгадать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье ». [106] Хотя Тьюринг обсуждает сознание (а не разум, понимание или интенциональность), Стюарт Рассел и Питер Норвиг утверждают, что комментарии Тьюринга применимы к китайской комнате. [107]

Цитаты [ править ]

  1. ^ а б Макгинн 2000 .
  2. ^ а б Харнад 2001 , стр. 1.
  3. ^ Робертс 2016 .
  4. ^ a b c Searle 1992 , стр. 44.
  5. ^ a b c d Russell & Norvig 2003 , стр. 947.
  6. ^ а б в Сирл 1980 , стр. 11.
  7. ^ а б Сирл 1980 , стр. 2.
  8. ^ а б Сирл 2009 , стр. 1.
  9. Перейти ↑ Searle 2004 , p. 66.
  10. ^ а б Сирл 1980 , стр. 3.
  11. Перейти ↑ Cole 2004 , 2.1; Лейбниц 1714 , раздел 17.
  12. ^ "История русской китайской комнаты, предшествовавшая дискуссии Сирла в 1980 году" . Центр изучения сознания . 15 июня 2018 г.
  13. Перейти ↑ Cole 2004 , 2.3.
  14. Перейти ↑ Searle 1980 .
  15. Перейти ↑ Cole 2004 , p. 2; Престон и Бишоп 2002
  16. ^ а б Харнад 2001 , стр. 2.
  17. ^ Харнад 2001 , стр. 1; Коул 2004 , стр. 2
  18. ^ Akman 1998 .
  19. ^ Харнад 2005 , стр. 1.
  20. Перейти ↑ Cole 2004 , p. 1.
  21. Перейти ↑ Searle 1999 , p. [ необходима страница ] .
  22. Перейти ↑ Dennett 1991 , p. 435.
  23. Перейти ↑ Searle 1980 , p. 1.
  24. Цитируется в Russell & Norvig 2003 , p. 21.
  25. Цитируется в Crevier 1993 , p. 46 и Russell & Norvig 2003 , стр. 17.
  26. ^ Haugeland 1985 , стр. 2 (курсивом его)
  27. ^ а б в Сирл 1980 , стр. 13.
  28. ^ а б в Сирл 1980 , стр. 8.
  29. ^ а б в г Харнад 2001 .
  30. ^ Б с д е е г Searle 1980 , с. 6.
  31. Перейти ↑ Searle 2004 , p. 45.
  32. ^ Харнад 2001 , стр. 3 (курсивом его)
  33. ^ Хорст 2005 , стр. 1.
  34. Перейти ↑ Pinker 1997 .
  35. ^ Харнад 2001 , стр. 3-5.
  36. ^ Searle 1990a , р. 29.
  37. ^ Searle 1990b .
  38. ^ a b c Hauser 2006 , стр. 8.
  39. ^ Searle 1992 , гл. 5.
  40. Перейти ↑ Searle, 2002 .
  41. Перейти ↑ Chalmers 1996 , p. 322.
  42. ^ Hew 2016 .
  43. Перейти ↑ Kurzweil 2005 , p. 260.
  44. ^ Saygın, Cicekli & Akman 2000 .
  45. ^ а б Тьюринг 1950 .
  46. Перейти ↑ Newell & Simon 1976 , p. 116.
  47. ^ Russell & Норвиг 2003 , стр. 18.
  48. ^ Тьюринг 1950 , стр. 442.
  49. ^ а б Харнад 2001 , стр. 14.
  50. Бен-Ями 1993 .
  51. ^ Searle 1984 ; Searle 1990a .
  52. ^ а б Сирл 1990а .
  53. Перейти ↑ Hauser 2006 , p. 5.
  54. Перейти ↑ Cole 2004 , p. 5.
  55. ^ Черчленд и Черчленд 1990 , стр. 34.
  56. Перейти ↑ Cole 2004 , pp. 5–6.
  57. Searle 1980 , стр. 5–6; Коул 2004 , стр. 6–7; Хаузер 2006 , стр. 2–3; Рассел и Норвиг 2003 , стр. 959, Деннет 1991 , стр. 439; Фирн 2007 , стр. 44; Crevier 1993 , стр. 269.
  58. Перейти ↑ Cole 2004 , p. 6.
  59. Перейти ↑ Yee 1993 , p. 44.
  60. Yee, 1993 , стр. 42–47.
  61. Перейти ↑ Cole 2004 , pp. 7–9.
  62. Перейти ↑ Minsky 1980 , p. 440.
  63. Перейти ↑ Cole 2004 , p. 7.
  64. Перейти ↑ Cole 2004 , p. 8.
  65. Перейти ↑ Searle 1980 , p. 12.
  66. ^ Fearn 2007 , стр. 47.
  67. Перейти ↑ Cole 2004 , p. 21.
  68. Перейти ↑ Searle 1980 , p. 7; Коул, 2004 г. , стр. 9–11; Хаузер 2006 , стр. 3; Фирн 2007 , стр. 44.
  69. Перейти ↑ Cole 2004 , p. 9.
  70. Цитируется в Crevier 1993 , p. 272
  71. ^ a b c Коул 2004 , стр. 18.
  72. ^ а б в Сирл 1980 , стр. 7.
  73. Перейти ↑ Hauser 2006 , p. 11; Коул 2004 , стр. 19.
  74. Перейти ↑ Cole 2004 , p. 19.
  75. ^ a b c Деннет 1991 , стр. 438.
  76. ^ Дрейфус 1979 , " Эпистемологическое предположение".
  77. Перейти ↑ Searle 1984 .
  78. ^ Моцкин & Searle 1989 , стр. 45.
  79. Searle 1980 , стр. 7–8; Коул 2004 , стр. 12–13; Хаузер 2006 , стр. 3–4; Черчленд и Черчленд 1990 .
  80. Перейти ↑ Cole 2004 , p. 12.
  81. Перейти ↑ Searle 1980 , p. [ необходима страница ] .
  82. Перейти ↑ Cole 2004 , p. 4; Хаузер 2006 , стр. 11.
  83. ^ а б Черчленд и Черчленд 1990 .
  84. Russell & Norvig, 2003 , стр. 956–958; Коул 2004 , стр. 20; Моравец 1988 ; Курцвейл 2005 , стр. 262; Crevier 1993 , стр. 271 и 279.
  85. Перейти ↑ Moravec 1988 .
  86. Searle 1992, цит. По: Russell & Norvig 2003 , p. 957.
  87. Перейти ↑ Cole 2004 , pp. 12 & 17.
  88. Перейти ↑ Hauser 2006 , p. 7.
  89. Searle 1980 , стр. 8–9; Хаузер 2006 , стр. 11.
  90. ^ Блок 1981 .
  91. Цитируется по Cole 2004 , p. 13.
  92. ^ а б Деннет 1991 , стр. 437–440.
  93. ^ Кревьер 1993 , стр. 269.
  94. Перейти ↑ Cole 2004 , pp. 14–15; Crevier 1993 , стр. 269–270; Пинкер 1997 , стр. 95.
  95. ^ a b Коул 2004 , стр. 14.
  96. ^ Черчленд и Черчленд 1990 ; Коул 2004 , стр. 12; Crevier 1993 , стр. 270; Fearn 2007 , стр. 45–46; Пинкер 1997 , стр. 94.
  97. ^ Харнад 2001 , стр. 7.
  98. ^ Кревьер 1993 , стр. 275.
  99. ^ Курцвейл 2005 .
  100. Перейти ↑ Searle 1980 , p. 10.
  101. Перейти ↑ Searle 1980 , p. 9; Коул 2004 , стр. 13; Хаузер 2006 , стр. 4–5; Нильссон 1984 .
  102. Перейти ↑ Cole 2004 , pp. 12–13.
  103. Перейти ↑ Nilsson 1984 .
  104. Тьюринг 1950 , стр. 11–12.
  105. ^ Тьюринг 1950 , стр. 11.
  106. ^ Тьюринг 1950 , стр. 12.
  107. ^ Russell & Норвиг 2003 , стр. 952-953.
  108. Dennett 1991 , [ необходима страница ] .
  109. ^ "Исключительный материализм" . Стэнфордская энциклопедия философии . 11 марта 2019.
  110. ^ Russell & Норвиг 2003 .
  111. Перейти ↑ Cole 2004 , p. 22; Crevier 1993 , стр. 271; Харнад 2005 , стр. 4.
  112. Ольха 2004 .
  113. ^ http://doi.library.cmu.edu/10.1184/OCLC/19297071
  114. ^ Уитмарш 2016 .
  115. ^ www.amazon.com https://www.amazon.com/Numb3rs-Season-4/dp/B000W5KBI4 . Проверено 26 февраля 2021 . Отсутствует или пусто |title=( справка )
  116. ^ "Дом" . Китайская комната . Проверено 27 апреля 2018 .

Ссылки [ править ]

  • Акман, Варол (1998). «Рецензия на книгу - Джон Хогеланд (редактор), Дизайн разума II: философия, психология и искусственный интеллект » . Проверено 2 октября 2018 г. - через Cogprints.
  • Алдер, Майк (2004). «Пылающий лазерный меч Ньютона» . Философия сейчас . 46 : 29–33. Архивировано 26 марта 2018 года.Также имеется в "Пылающем лазерном мече Ньютона" (PDF) . Архивировано из оригинального (PDF) 14 ноября 2011 года.
  • Бен-Ями, Ханох (1993), "Обратите внимание на китайской комнате", синтезированное , 95 (2): 169-72, DOI : 10.1007 / bf01064586
  • Блок, Нед (1981), "Психологизм и Бихевиоризм" , Философский Обзор , 90 (1): 5-43, CiteSeerX  10.1.1.4.5828 , DOI : 10,2307 / 2184371 , JSTOR  2184371
  • Чалмерс, Дэвид (30 марта 1996 г.), Сознательный разум: в поисках фундаментальной теории , Oxford University Press, ISBN 978-0-19-983935-3
  • Черчленд, Пол ; Черчленд, Патрисия (январь 1990 г.), «Может ли машина думать?», Scientific American , 262 (1): 32–39, Bibcode : 1990SciAm.262a..32C , doi : 10.1038 / Scientificamerican0190-32 , PMID  2294584
  • Коул, Дэвид (осень 2004 г.), «Аргумент о китайской комнате», в Zalta, Эдвард Н. (ред.), Стэнфордская энциклопедия философии
Номера страниц выше относятся к стандартному PDF- файлу статьи.
  • Кревье, Даниэль (1993), AI: Бурный поиск искусственного интеллекта , Нью-Йорк, Нью-Йорк: BasicBooks, ISBN 0-465-02997-3 
  • Деннет, Дэниел (1991), Сознание объяснено , Penguin Press, ISBN 978-0-7139-9037-9
  • Дрейфус, Хуберт (1979), Что компьютеры все еще не могут сделать , Нью-Йорк: MIT Press, ISBN 978-0-262-04134-8
  • Фирн, Николас (2007), Последние ответы на самые старые вопросы: философское приключение с величайшими мыслителями мира , Нью-Йорк: Grove Press
  • Харнад, Стеван (2001), «Что не так и правильно в аргументе Сирла о китайской комнате», в M .; Престон, Дж. (Ред.), Взгляды в китайскую комнату: новые эссе о Серле и искусственном интеллекте , Oxford University Press
Номера страниц выше относятся к стандартному PDF- файлу статьи.
  • Харнад, Стеван (2005), «Аргумент китайской комнаты Серла», Энциклопедия философии , Macmillan
Номера страниц выше относятся к стандартному PDF- файлу статьи.
  • Хогеланд, Джон (1985), Искусственный интеллект: сама идея , Кембридж, Массачусетс: MIT Press, ISBN 978-0-262-08153-5
  • Хогеланд, Джон (1981), Mind Design , Кембридж, Массачусетс: MIT Press, ISBN 978-0-262-08110-8
  • Хаузер, Ларри (2006), «Китайская комната Сирла», Интернет-энциклопедия философии
Номера страниц выше относятся к стандартному PDF- файлу статьи.
  • Хью, Патрик Чисан (сентябрь 2016 г.). «Сохранение моральной силы боевого командира: Винсеннский инцидент как китайская комната» . Этика и информационные технологии . 18 (3): 227–235. DOI : 10.1007 / s10676-016-9408-у .
  • Курцвейл, Рэй (2005), Сингулярность близка , Viking Press
  • Хорст, Стивен (осень 2005 г.), «Вычислительная теория разума», в Zalta, Эдвард Н. (ред.), Стэнфордская энциклопедия философии
  • Лейбниц, Готфрид (1714 г.), Монадология , Джордж Макдональд Росс (пер.), Архивировано из оригинала 03.07.2011.
  • Моравек, Ханс (1988), Дети разума: будущее роботов и человеческого интеллекта , издательство Harvard University Press
  • Мински, Марвины (1980), "Децентрализованная Minds", Поведенческая и мозг науки , 3 (3): 439-40, DOI : 10,1017 / S0140525X00005914
  • Макгинн, Коллин (2000), Таинственное пламя: Сознательные умы в материальном мире , Основные книги, стр. 194, ISBN 978-0786725168
  • Мур, Джеймс, изд. (2003), Тест Тьюринга: Неуловимый стандарт искусственного интеллекта , Дордрехт: Kluwer Academic Publishers, ISBN 978-1-4020-1205-1
  • Моцкин, Эльханан; Сирл, Джон (16 февраля 1989 г.), Искусственный интеллект и китайская комната: Обмен , Нью-Йоркское обозрение книг
  • Ньюэлл, Аллен ; Саймон, HA (1976), "Компьютерные науки как эмпирический Запрос: Символы и Поиск", коммуникации АСМА , 19 (3): 113-126, DOI : 10,1145 / 360018,360022
  • Николич, Данко (2015), «Практопоэзис: или как жизнь способствует развитию ума», Журнал теоретической биологии , 373 : 40–61, arXiv : 1402.5332 , doi : 10.1016 / j.jtbi.2015.03.003 , PMID  25791287
  • Нильссон, Нильс (1984), Краткое опровержение Сирлу (PDF)
  • Рассел, Стюарт Дж .; Норвиг, Питер (2003), Искусственный интеллект: современный подход (2-е изд.), Верхняя река Сэдл, Нью-Джерси: Prentice Hall, ISBN 0-13-790395-2
  • Пинкер, Стивен (1997), Как работает разум , Нью-Йорк, Нью-Йорк: WW Norton & Company, Inc., ISBN 978-0-393-31848-7
  • Престон, Джон; Епископ, Марк, ред. (2002), Взгляды в китайскую комнату: новые эссе о Серле и искусственном интеллекте , Oxford University Press, ISBN 978-0-19-825057-9
  • Робертс, Джейкоб (2016). «Мыслительные машины: поиски искусственного интеллекта» . Дистилляции . 2 (2): 14–23. Архивировано из оригинала на 2018-08-19 . Проверено 22 марта 2018 .
  • Сайгин А.П .; Cicekli, I .; Akman, В. (2000), "Тест Тьюринга: 50 лет спустя" (PDF) , Minds и машины , 10 (4): 463-518, DOI : 10,1023 / A: 1011288000451 , ЛВП : 11693/24987 , архивируются с оригинал (PDF) на 2011-04-09 , извлекаться 2015-06-05. Перепечатано в Moor (2003 , стр. 23–78).
  • Серла, Джон (1980), "Умы, Мозги и программа" , поведенческие и мозг науки , 3 (3): 417-457, DOI : 10,1017 / S0140525X00005756 , извлекаются 2009-05-13 CS1 maint: discouraged parameter (link)
Номера страниц выше относятся к стандартному PDF- файлу статьи. См. Также оригинальный черновик Сирла .
  • Сирл, Джон (1983), «Могут ли компьютеры думать?», В Chalmers, David (ed.), Philosophy of Mind: Classical and Contemporary Readings , Oxford: Oxford University Press, стр. 669–675, ISBN 978-0-19-514581-6
  • Сирл, Джон (1984), Умы, мозги и наука: лекции Рейта 1984 , издательство Гарвардского университета, ISBN 978-0-674-57631-5мягкая обложка: ISBN 0-674-57633-0 . 
  • Сирл, Джон (январь 1990a), "Является ли мозг компьютерной программой?", Scientific American , vol. 262 нет. 1, стр 26-31,. Bibcode : 1990SciAm.262a..26S , DOI : 10.1038 / scientificamerican0190-26 , PMID  2294583
  • Сирл, Джон (ноябрь 1990b), "Является ли мозг цифровым компьютером?" , Proceedings and Addresses of the American Philosophical Association , 64 (3): 21–37, doi : 10.2307 / 3130074 , JSTOR  3130074 , заархивировано с оригинала на 14 ноября 2012 г.
  • Сирл, Джон (1992), Новое открытие разума , Кембридж, Массачусетс: MIT Press, ISBN 978-0-262-26113-5
  • Сирл, Джон (1999), Разум, язык и общество , Нью-Йорк, Нью-Йорк: Основные книги, ISBN 978-0-465-04521-1, OCLC  231867665
  • Сирл, Джон (1 ноября 2004 г.), Разум: краткое введение , Oxford University Press, Inc., ISBN 978-0-19-515733-8
  • Сирл, Джон (2002), Сознание и язык , Cambridge University Press, стр. 16, ISBN 978-0521597449
  • Серл, Джон (2009), "Китайский зал аргумент", Scholarpedia , 4 (8): 3100, Bibcode : 2009SchpJ ... 4.3100S , DOI : 10,4249 / scholarpedia.3100
  • Тьюринг, Алан (октябрь 1950 г.), «Вычислительные машины и интеллект», Mind , LIX (236): 433–460, DOI : 10.1093 / mind / LIX.236.433 , ISSN  0026-4423
Номера страниц выше относятся к стандартному PDF- файлу статьи.
  • Уитмарш, Патрик (2016). « « Представьте, что вы - машина »: повествовательные системы в« Слепоте и эхопраксии » Питера Уоттса ». Научно-фантастические исследования . 43 (2): 237–259. DOI : 10.5621 / sciefictstud.43.2.0237 .
  • Йи, Ричард (1993), «Машины Тьюринга и обработка семантических символов: почему настоящие компьютеры не возражают против китайских императоров» (PDF) , Lyceum , 5 (1): 37–59
Номера страниц выше и содержание диаграмм относятся к распечатке статьи в PDF-формате Lyceum .

Дальнейшее чтение [ править ]

  • Общие представления аргумента:
    • «Аргумент китайской комнаты» . Интернет-энциклопедия философии .
    • Аргумент о китайской комнате . Стэнфордская энциклопедия философии
    • Понимание китайской комнаты , Марк Розенфельдер
  • Источники с участием Джона Сирла:
    • Аргумент китайской комнаты Джона Сирла в Scholarpedia
    • Аргумент «Китайская комната» , часть 4 из серии интервью с Searle Philosophy и «Привычки критического мышления в беседах с историей » от 2 сентября 1999 г.
    • Джон Р. Сирл , «То, что ваш компьютер не может знать» (обзор Лучано Флориди , Четвертая революция: как инфосфера меняет человеческую реальность , Oxford University Press, 2014; и Ника Бострома , Суперинтеллект: пути, опасности, стратегии , Oxford University Press, 2014), Нью-Йоркское обозрение книг , т. LXI, нет. 15 (9 октября 2014 г.), стр. 52–55.
  • Критика аргумента:
    • Опровержение «аргументации о китайской комнате» Джона Сирла , Боб Мерфи
    • Кугель, П. (2004). «Китайская комната - это уловка». Поведенческие науки и науки о мозге . 27 . DOI : 10.1017 / S0140525X04210044 . S2CID  56032408 ., PDF на домашней странице автора , критический документ, основанный на предположении, что CR не может использовать свои входные данные (которые на китайском языке) для изменения своей программы (которая на английском языке).
    • Вольфрам Шмид (2004). "Разрушение китайской комнаты Сирла". arXiv : cs.AI/0403009 .
    • Джон Престон и Марк Бишоп, «Виды в китайскую комнату», Oxford University Press, 2002. Включает главы Джона Сирла , Роджера Пенроуза , Стивена Харнада и Кевина Уорвика .
    • Маргарет Боден , «Побег из китайской комнаты», Cognitive Science Research Papers No. CSRP 092, University of Sussex, School of Cognitive Sciences, 1987, OCLC 19297071 , онлайн-PDF , «отрывок из главы» в еще не опубликованном «Computer» Модели разума: вычислительные подходы в теоретической психологии », ISBN 0-521-24868-X (1988); перепечатано в Бодене (ред.) «Философия искусственного интеллекта» ISBN 0-19-824854-7 (1989) и ISBN 0-19-824855-5 (1990); Боден "Искусственный интеллект в психологии: междисциплинарные эссе" ISBN 0-262-02285-0     , MIT Press, 1989, глава 6; перепечатано в Heil, pp. 253–266 (1988) (возможно, с сокращениями); J. Heil (редактор) «Философия разума: руководство и антология», Oxford University Press, 2004, страницы 253–266 (та же версия, что и в «Искусственном интеллекте в психологии»)