Из Википедии, бесплатной энциклопедии
  (Перенаправлено из гипотезы сильного ИИ )
Перейти к навигации Перейти к поиску

Китайский зал аргумент гласит , что цифровой компьютер выполняет программу , не может быть показан [1] , чтобы иметь « ум », « понимание » или « сознание », [а] независимо от того, насколько разумно или человека, как программа может сделать компьютер вести себя. Впервые этот аргумент был представлен философом Джоном Сирлом в его статье «Разум, мозг и программы», опубликованной в журнале Behavioral and Brain Sciences в 1980 году. С тех пор он широко обсуждался. [2] В центре аргументации - мысленный эксперимент, известный как « Китайская комната» . [3]

Аргумент направлен против философских позиций в функционализме и computationalism , [4] , которые считают , что ум может рассматриваться в качестве информационной обработки операционной системы на формальных символах, и что моделирование данного психического состояния является достаточным для его присутствия. В частности, этот аргумент призван опровергнуть позицию, которую Сирл называет сильным ИИ : «Таким образом, правильно запрограммированный компьютер с правильными входами и выходами будет иметь разум точно так же, как человеческие существа». [b]

Хотя изначально он был представлен как реакция на заявления исследователей искусственного интеллекта (ИИ), он не является аргументом против целей основных исследований ИИ, поскольку не показывает ограничения на количество «интеллектуального» поведения, которое машина может демонстрировать. . [5] Этот аргумент применим только к цифровым компьютерам, на которых выполняются программы, и не применим к машинам в целом. [6]

Мысленный эксперимент в китайской комнате [ править ]

Джон Сирл в декабре 2005 года

Мысленный эксперимент Сирла начинается с этой гипотетической предпосылки: предположим, что исследованиям искусственного интеллекта удалось создать компьютер, который ведет себя так, как если бы он понимал китайский язык . Он принимает китайские символы в качестве входных данных и, следуя инструкциям компьютерной программы , производит другие китайские символы, которые он представляет в качестве выходных. Предположим, - говорит Сирл, - что этот компьютер выполняет свою задачу настолько убедительно, что с комфортом проходит тест Тьюринга.: он убеждает человека, говорящего по-китайски, что программа сама по себе является живым говорящим по-китайски. На все вопросы, которые задает человек, он дает соответствующие ответы, чтобы любой говорящий по-китайски был уверен, что он разговаривает с другим китайскоязычным человеком.

Сирл хочет ответить на следующий вопрос: буквально ли машина «понимает» китайский язык? Или это просто имитация способности понимать китайский? [7] [c] Сирл называет первую позицию « сильным ИИ », а вторую - «слабым ИИ». [d]

Затем Сирл предполагает, что он находится в закрытой комнате и имеет книгу с английской версией компьютерной программы, а также достаточное количество бумаг, карандашей, ластиков и шкафов для документов. Сирл мог принимать китайские иероглифы через прорезь в двери, обрабатывать их в соответствии с инструкциями программы и воспроизводить китайские иероглифы на выходе. Если бы компьютер прошел тест Тьюринга таким образом, то, по словам Сирла, он бы тоже сделал это, просто запустив программу вручную.

Сирл утверждает, что нет существенной разницы между ролями компьютера и им самим в эксперименте. Каждый просто следует программе, шаг за шагом, создавая поведение, которое затем интерпретируется пользователем как демонстрация разумного разговора. Однако сам Сирл не смог понять разговора. («Я не говорю по-китайски» [10], - отмечает он.) Следовательно, утверждает он, из этого следует, что компьютер также не сможет понять разговор.

Сирл утверждает, что без «понимания» (или « интенциональности ») мы не можем описать то, что машина делает, как «думает», и, поскольку она не думает, у нее нет «разума» ни в чем похожем на нормальный смысл слово. Таким образом, он приходит к выводу, что гипотеза «сильного ИИ» неверна.

История [ править ]

Готфрид Лейбниц выдвинул аналогичный аргумент в 1714 году против механизма (позиции, согласно которой разум - это машина, и ничего более). Лейбниц использовал мысленный эксперимент по расширению мозга до размеров мельницы . [11] Лейбниц было трудно представить, что «разум», способный к «восприятию», может быть построен с использованием только механических процессов. [e] В рассказе Анатолия Днепрова «Игра» 1961 года стадион людей действует как переключатели и ячейки памяти, реализующие программу для перевода предложения на португальский язык, который никто из них не знает. [12] В 1974 году Лоуренс Дэвиспредставил дублирование мозга с помощью телефонных линий и офисов, укомплектованных людьми, а в 1978 году Нед Блок представил, что все население Китая будет вовлечено в такую ​​симуляцию мозга. Этот мысленный эксперимент называется мозг Китая , также «Китайская нация» или «Китайский спортзал». [13]

Аргумент китайской комнаты был представлен в статье Серла 1980 года «Разум, мозг и программы», опубликованной в журнале Behavioral and Brain Sciences . [14] В конечном итоге она стала «самой влиятельной целевой статьей» [2], вызвав огромное количество комментариев и откликов в последующие десятилетия, и Сирл продолжал защищать и уточнять аргументы во многих статьях, популярных статьях и книгах. Дэвид Коул пишет, что «аргумент о китайской комнате, вероятно, был наиболее широко обсуждаемым философским аргументом в когнитивной науке за последние 25 лет». [15]

Большая часть дискуссий состоит из попыток его опровергнуть. «Подавляющее большинство», - отмечает редактор BBS Стеван Харнад , [f] «по-прежнему считает, что аргумент о китайской комнате абсолютно неверен». [16] Огромный объем литературы, выросшей вокруг него, вдохновил Пэта Хейса на комментарий, что область когнитивной науки следует переопределить как «текущую исследовательскую программу, показывающую ложность аргумента Сирла о китайской комнате». [17]

По словам Харнада, аргумент Сирла стал «чем-то вроде классики когнитивной науки». [16] Варол Акман соглашается и охарактеризовал исходный документ как «образец философской ясности и чистоты». [18]

Философия [ править ]

Хотя аргумент китайской комнаты был первоначально представлен как реакция на утверждения исследователей искусственного интеллекта , философы стали рассматривать его как важную часть философии разума . Это вызов функционализма и вычислительной теории разума , [г] и связана с такими вопросами , как проблема разума и тела , на проблемы других сознаний , с символом заземляющего задачи, и трудной проблемы сознания . [а]

Сильный ИИ [ править ]

Сирл определил философскую позицию, которую он называет «сильным ИИ»:

Таким образом, правильно запрограммированный компьютер с правильными входами и выходами будет иметь разум в том же смысле, в каком человеческие существа. [b]

Определение зависит от различия между моделированием разума и фактическим наличием разума. Сирл пишет, что «согласно Сильному ИИ, правильная симуляция - это действительно разум. Согласно Слабому ИИ, правильная симуляция - это модель разума». [8]

Это утверждение подразумевается в некоторых заявлениях ранних исследователей и аналитиков ИИ. Например, в 1955 году основатель искусственного интеллекта Герберт А. Саймон заявил, что «сейчас в мире есть машины, которые думают, учатся и творят». [24] Саймон вместе с Алленом Ньюэллом и Клиффом Шоу после завершения первой программы «ИИ», теоретика логики , заявили, что они «решили почтенную проблему разума и тела , объяснив, как система, состоящая из материи, может иметь свойства разума ". [25] Джон Хогеланд писал, что «ИИ хочет только подлинный товар: машины с разумом., в полном и буквальном смысле. Это не научная фантастика, а реальная наука, основанная на теоретической концепции настолько глубокой, насколько это смелая: а именно, мы, по сути, сами компьютеры » [26].

Сирл также приписывает следующие утверждения сторонникам сильного ИИ:

  • Системы ИИ могут использоваться для объяснения разума; [d]
  • Изучение мозга не имеет отношения к изучению разума; [h] и
  • Тест Тьюринга подходит для установления существования психических состояний. [я]

Сильный ИИ как вычислитель или функционализм [ править ]

В более поздних презентациях аргумента о китайской комнате Сирл определил «сильный ИИ» как «компьютерный функционализм » (термин, который он приписывает Дэниелу Деннету ). [4] [31] Функционализм - это позиция в современной философии разума, согласно которой мы можем определять ментальные явления (такие как убеждения, желания и восприятия), описывая их функции по отношению друг к другу и к внешнему миру. Поскольку компьютерная программа может точно представить функциональные отношения как отношения между символами, компьютер может иметь ментальные феномены, если он запускает правильную программу, согласно функционализму.

Стеван Харнад утверждает, что описания Сирлом сильного ИИ можно переформулировать как «узнаваемые принципы вычислительного подхода , позицию (в отличие от« сильного ИИ »), которую на самом деле придерживаются многие мыслители, и, следовательно, ее стоит опровергнуть». [32] Компьютационализм [j] - это позиция в философии разума, которая утверждает, что разум можно точно описать как систему обработки информации .

Согласно Харнаду, каждое из следующих утверждений является «принципом» вычислительного подхода: [35]

  • Психические состояния - это вычислительные состояния (именно поэтому компьютеры могут иметь психические состояния и помогать объяснять разум);
  • Вычислительные состояния не зависят от реализации - другими словами, именно программное обеспечение определяет вычислительное состояние, а не оборудование (вот почему мозг, будучи аппаратным, не имеет значения); и это
  • Поскольку реализация не важна, единственные эмпирические данные, которые имеют значение, - это то, как работает система; следовательно, тест Тьюринга является окончательным.

Сильный ИИ против биологического натурализма [ править ]

Сирл придерживается философской позиции, которую он называет « биологическим натурализмом »: сознание [а] и понимание требуют определенных биологических механизмов, которые находятся в мозге. Он пишет: «Мозг вызывает разум» [6] и что «реальные человеческие психические явления [зависят] от реальных физико-химических свойств реального человеческого мозга». [36] Сёрл утверждает, что этот механизм (известный в нейробиологии как « нейронные корреляты сознания ») должен обладать некоторыми причинными силами, которые позволяют человеческому опыту сознания. [37] Вера Серла в существование этих способностей подвергалась критике. [k]

Сирл не возражает против идеи, что машины могут обладать сознанием и пониманием, потому что, как он пишет, «мы - именно такие машины». [6] Сирл считает, что мозг на самом деле является машиной, но что мозг дает начало сознанию и пониманию, используя механизмы, которые не являются вычислительными. Если нейробиология способна изолировать механический процесс, порождающий сознание, то Сирл допускает, что возможно создание машин, обладающих сознанием и пониманием. Однако Сирл не верит, что сознание может возникнуть без специального оборудования.

Биологический натурализм подразумевает, что нельзя определить, происходит ли переживание сознания, просто исследуя, как функционирует система, потому что особый механизм мозга важен. Таким образом, биологический натурализм прямо противоположен как бихевиоризму, так и функционализму (включая «компьютерный функционализм» или «сильный ИИ»). [38] Биологический натурализм похож на теорию идентичности (позиция, согласно которой психические состояния «идентичны» или «состоят из» неврологических событий); однако у Сирла есть определенные технические возражения против теории идентичности. [39] [l] Биологический натурализм Серла и сильный ИИ противоположны картезианскому дуализму ,[38]классическая идея, что мозг и разум состоят из разных «субстанций». В самом деле, Сирл обвиняет сильный ИИ в дуализме, написав, что «сильный ИИ имеет смысл только с учетом дуалистического предположения, что мозг не имеет значения». [27]

Сознание [ править ]

Первоначальное представление Сирла подчеркивало «понимание», то есть ментальные состояния, которые философы называют « интенциональностью », и не касалось напрямую других тесно связанных идей, таких как «сознание». Однако в более поздних презентациях Сирл включил сознание в качестве реальной цели аргументации. [4]

Вычислительных моделей сознания для сознания недостаточно. Вычислительная модель сознания соотносится с сознанием точно так же, как вычислительная модель чего-либо относится к моделируемой области. Никто не думает, что вычислительная модель ливней в Лондоне оставит нас всех мокрыми. Но они делают ошибку, предполагая, что вычислительная модель сознания каким-то образом сознательна. В обоих случаях это одна и та же ошибка. [40]

-  Джон Р. Сирл, Сознание и язык, с. 16

Дэвид Чалмерс пишет: «Совершенно ясно, что сознание лежит в основе дела» китайской комнаты. [41]

Колин МакГинн утверждает, что китайская комната является убедительным доказательством того, что сложная проблема сознания принципиально неразрешима. Чтобы быть ясным, аргумент заключается не в том, может ли машина быть сознательной, а в том, можно ли показать ее (или что-то еще в этом отношении) сознательной. Понятно, что любой другой метод проверки человека в китайской комнате в принципе сопряжен с теми же трудностями, что и обмен вопросами и ответами на китайском языке. Просто невозможно предугадать, обитает ли в комнате сознательная сила или какая-то умная симуляция. [1]

Сирл утверждает, что это верно только для наблюдателя вне комнаты. Вся суть мыслительного эксперимента поставить кого - то в комнате, где они могут непосредственно наблюдать за деятельностью сознания. Сирл утверждает, что с его выгодной позиции в комнате он не видит ничего, что могло бы вообразить сознание, кроме него самого, и очевидно, что у него нет ума, который может говорить по-китайски. [ необходима цитата ]

Прикладная этика [ править ]

Сидеть в боевом информационном центре на борту военного корабля - предложено как реальный аналог Китайской комнаты

Патрик Хью использовал аргумент китайской комнаты, чтобы вывести требования из систем военного командования и управления , если они хотят сохранить моральную свободу командующего . Он провел аналогию между командиром в их командном центре и человеком в Китайской комнате и проанализировал это в свете представлений Аристотеля о «обязательном» и «незнании» . Информацию можно «преобразовать вниз» из значения в символы и манипулировать символически, но моральная сила может быть подорвана, если не будет адекватного «преобразования вверх» в значение. Хью привел примеры из инцидента с USS Vincennes . [42]

Информатика [ править ]

Аргумент китайской комнаты - это в первую очередь аргумент философии разума , и как ведущие компьютерные ученые, так и исследователи искусственного интеллекта считают его неуместным для своей области. [5] Однако, некоторые концепции , разработанные на основе компьютерных ученых имеют важное значение для понимания аргумент, в том числе обработки символов , машины Тьюринга , Тьюринг полноту и тест Тьюринга .

Сильные исследования ИИ против ИИ [ править ]

Аргументы Сирла обычно не считаются проблемой для исследований ИИ. Стюарт Рассел и Питер Норвиг отмечают, что большинство исследователей ИИ «не заботятся о сильной гипотезе ИИ - пока программа работает, им все равно, назовете ли вы это симуляцией интеллекта или реальным интеллектом». [5] Основная задача исследований искусственного интеллекта состоит только в том, чтобы создать полезные системы, которые действуют разумно, и не имеет значения, является ли интеллект «просто» симуляцией.

Сирл не возражает, что исследования ИИ могут создавать машины, способные к очень интеллектуальному поведению. Аргумент «китайская комната» оставляет открытой возможность того, что можно построить цифровую машину, которая будет действовать более разумно, чем человек, но не имеет разума или намерений, как у мозга .

«Сильный ИИ» Сирла не следует путать с « сильным ИИ », как это определено Рэем Курцвейлом и другими футуристами [43], которые используют этот термин для описания машинного интеллекта, который соперничает или превосходит человеческий интеллект. Курцвейла в первую очередь интересует количество интеллекта, отображаемого машиной, тогда как аргумент Сирла не устанавливает ограничений на это. Сирл утверждает, что даже сверхразумная машина не обязательно будет иметь разум и сознание.

Тест Тьюринга [ править ]

«Стандартная интерпретация» теста Тьюринга, в которой игроку C, допрашивающему, дается задача определить, какой игрок - A или B - является компьютером, а кто - человеком. Допрашивающий ограничивается использованием ответов на письменные вопросы для принятия решения. Изображение адаптировано из Сайгина и др. 2000. [44]

Китайская комната реализует версию теста Тьюринга . [45] Алан Тьюринг представил тест в 1950 году, чтобы помочь ответить на вопрос «могут ли машины думать?» В стандартной версии судья-человек участвует в разговоре на естественном языке с человеком и машиной, предназначенной для создания производительности, неотличимой от человеческого существа. Все участники отделены друг от друга. Если судья не может достоверно отличить машину от человека, считается, что машина выдержала испытание.

Затем Тьюринг рассмотрел все возможные возражения против предложения «машины могут мыслить» и обнаружил, что есть простые и очевидные ответы, если вопрос будет демистифицирован таким образом. Однако он не предполагал, что тест будет измерять наличие «сознания» или «понимания». Он не считал, что это имеет отношение к проблемам, которые он решал. Он написал:

Я не хочу создавать впечатление, будто считаю, что в сознании нет никакой тайны. Например, есть некоторый парадокс, связанный с любой попыткой его локализации. Но я не думаю, что эти загадки обязательно нужно разгадывать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье. [45]

Для Сирла, как философа, исследующего природу разума и сознания , это соответствующие загадки. Китайская комната спроектирована так, чтобы показать, что теста Тьюринга недостаточно для обнаружения присутствия сознания, даже если комната может вести себя или функционировать как сознательный разум.

Обработка символов [ править ]

Китайская комната (и все современные компьютеры) манипулируют физическими объектами для проведения расчетов и моделирования. Исследователи искусственного интеллекта Аллен Ньюэлл и Герберт А. Саймон назвали такую ​​машину физической системой символов . Это также эквивалентно формальным системам, используемым в области математической логики .

Сирл подчеркивает тот факт, что этот вид манипуляции с символами является синтаксическим (заимствованный термин из изучения грамматики ). Компьютер манипулирует символами, используя форму синтаксических правил , без какого-либо знания семантики символа (то есть их значения ).

Ньюэлл и Саймон предположили, что физическая система символов (например, цифровой компьютер) имеет все необходимые механизмы для «общего интеллектуального действия», или, как это известно сегодня, общего искусственного интеллекта . Они сформулировали это как философскую позицию, гипотезу о системе физических символов : «Система физических символов имеет необходимые и достаточные средства для общего разумного действия». [46] [47] Аргумент китайской комнаты не опровергает этого, потому что он сформулирован в терминах «разумного действия», то есть внешнего поведения машины, а не наличия или отсутствия понимания, сознания и разума.

Китайская комната и полнота Тьюринга [ править ]

Китайская комната имеет дизайн, аналогичный дизайну современного компьютера. Он имеет архитектуру фон Неймана , которая состоит из программы (книга инструкций), некоторой памяти (бумаги и картотеки), центрального процессора, который следует инструкциям (человек), и средства записи символов в память ( карандаш и ластик). Машина с такой конструкцией известна в теоретической информатике как « полная по Тьюрингу », потому что у нее есть необходимый механизм для выполнения любых вычислений, которые может выполнять машина Тьюринга , и поэтому она способна выполнять пошаговое моделирование любая другая цифровая машина при наличии достаточного количества памяти и времени. Алан Тьюрингпишет: «Все цифровые компьютеры в некотором смысле эквивалентны». [48] Широко признанный тезис Черча – Тьюринга утверждает, что любая функция, вычисляемая с помощью эффективной процедуры, вычислима с помощью машины Тьюринга.

Полнота китайской комнаты по Тьюрингу подразумевает, что она может делать то же, что и любой другой цифровой компьютер (хотя и намного медленнее). Таким образом, если китайская комната не содержит или не может содержать ум, говорящий по-китайски, то никакой другой цифровой компьютер не может содержать ум. Некоторые ответы Сирлу начинаются с утверждения, что в комнате, как описано, не может быть китайскоязычного ума. Аргументы этой формы, по словам Стевана Харнада , не являются «не опровержением (а скорее подтверждением)» [49] аргумента о китайской комнате, потому что эти аргументы фактически подразумевают, что никакие цифровые компьютеры не могут иметь разум. [29]

Некоторые критики, такие как Ханох Бен-Ями, утверждают, что китайская комната не может имитировать все возможности цифрового компьютера, такие как способность определять текущее время. [50]

Полный аргумент [ править ]

Сирл представил более формальную версию аргументации, частью которой является Китайская комната. Он представил первую версию в 1984 году. Версия, приведенная ниже, относится к 1990 году. [51] [m] Единственная часть аргумента, которая должна вызывать споры, - это A3, и именно этот момент мысленный эксперимент в китайской комнате призван доказать. [n]

Он начинает с трех аксиом:

(A1) «Программы формальные ( синтаксические )».
Программа использует синтаксис для управления символами и не обращает внимания на семантику символов. Он знает, где разместить символы и как их перемещать, но не знает, что они обозначают и что означают. Для программы символы - это такие же физические объекты, как и любые другие.
(A2) «У ума есть ментальное содержание ( семантика )».
В отличие от символов, используемых программой, наши мысли имеют значение: они представляют вещи, и мы знаем, что они представляют.
(A3) «Синтаксис сам по себе не является составляющим и недостаточным для семантики».
Это то, что мысленный эксперимент с китайской комнатой призван доказать: у китайской комнаты есть синтаксис (потому что там человек, перемещающий символы). Китайская комната не имеет семантики (потому что, по словам Серла, в комнате нет никого или ничего, кто понимал бы, что означают символы). Следовательно, синтаксиса недостаточно для создания семантики.

Сирл утверждает, что это прямо приводит к такому выводу:

(C1) Программы не образуют и не достаточны для ума.
Это должно без противоречий следовать из первых трех: Программы не имеют семантики. У программ есть только синтаксис, а синтаксиса недостаточно для семантики. У каждого ума есть семантика. Поэтому никакие программы - это умы.

Эта большая часть аргумента направлена ​​на то, чтобы показать, что искусственный интеллект никогда не сможет создать машину с разумом, написав программы, которые манипулируют символами. Остальная часть аргумента касается другой проблемы. Запускает ли человеческий мозг программу? Другими словами, верна ли вычислительная теория разума ? [g] Он начинает с аксиомы, которая предназначена для выражения основного современного научного консенсуса в отношении мозга и разума:

(A4) Мозги порождают умы.

Сирл утверждает, что мы можем вывести «сразу» и «тривиально» [52], что:

(C2) Любая другая система, способная вызывать разум, должна обладать каузальными способностями (по крайней мере), эквивалентными таковым у мозга.
В мозгу должно быть что-то, что заставляет разум существовать. Науке еще предстоит точно определить, что это такое, но оно должно существовать, потому что существуют умы. Сирл называет это «причинными силами». «Причинные силы» - это все, что мозг использует для создания разума. Если что-то еще может вызвать существование разума, он должен обладать «эквивалентными причинными силами». «Эквивалентные причинные силы» является то , что еще , что можно было бы использовать , чтобы сделать ум.

Из этого он делает следующие выводы:

(C3) Любой артефакт, вызывающий ментальные феномены, любой искусственный мозг, должен был бы иметь возможность дублировать специфические причинные силы мозга, и он не мог этого сделать, просто запустив формальную программу.
Это следует из C1 и C2: поскольку никакая программа не может порождать разум, а «эквивалентные причинные силы» порождают умы, отсюда следует, что программы не имеют «эквивалентных причинных сил».
(C4) Способ, которым человеческий мозг на самом деле производит ментальные феномены, не может происходить исключительно благодаря запуску компьютерной программы.
Поскольку программы не имеют «эквивалентных причинных сил», «эквивалентные причинные силы» порождают умы, а мозг порождает умы, из этого следует, что мозг не использует программы для создания разума.

Ответы [ править ]

Ответы на аргумент Серла можно классифицировать в зависимости от того, что они утверждают: [o]

  • Те, которые определяют, кто говорит по-китайски
  • Те, которые демонстрируют, как бессмысленные символы могут стать значимыми
  • Те, которые предполагают, что китайскую комнату нужно как-то переделать
  • Те, кто утверждает, что аргумент Сирла вводит в заблуждение
  • Те, кто утверждает, что этот аргумент делает ложные предположения о субъективном сознательном опыте и, следовательно, ничего не доказывает

Некоторые аргументы (например, моделирование роботов и мозга) делятся на несколько категорий.

Ответы систем и виртуального разума: обретение разума [ править ]

В этих ответах делается попытка ответить на вопрос: если человек в комнате не говорит по-китайски, где же «ум», который говорит? Эти ответы обращаются к ключевым онтологическим проблемам разума и тела и симуляции против реальности. Все ответы, которые идентифицируют разум в комнате, являются версиями «ответа системы».

Ответ системы [ править ]

В базовой версии утверждается, что «вся система» понимает китайский язык. [57] [p] В то время как этот человек понимает только английский, в сочетании с программой, бумагой для заметок, карандашами и картотечными шкафами они образуют систему, которая может понимать китайский язык. «Здесь понимание не приписывается простому человеку; скорее, оно приписывается всей системе, частью которой он является», - объясняет Сирл. [30] Тот факт, что человек не понимает китайский язык, не имеет значения, потому что имеет значение только система в целом.

Сирл отмечает, что (в этой простой версии ответа) «система» - это не что иное, как набор обычных физических объектов; он дает силу понимания и сознания «соединению этого человека и кусочков бумаги» [30], не прилагая никаких усилий для объяснения того, как эта груда объектов стала сознательным, мыслящим существом. Сирл утверждает, что ни один разумный человек не должен быть удовлетворен ответом, если он не находится «во власти идеологии»; [30] Для того, чтобы этот ответ был хоть сколько-нибудь правдоподобным, нужно принять как должное, что сознание может быть продуктом «системы» обработки информации и не требует чего-либо, напоминающего реальную биологию мозга.

Затем Сирл отвечает, упрощая этот список физических объектов: он спрашивает, что произойдет, если человек запомнит правила и будет отслеживать все в своей голове? Тогда вся система состоит только из одного объекта: самого человека. Сирл утверждает, что если человек не понимает китайского, то и система не понимает китайский, потому что теперь «система» и «человек» описывают один и тот же объект. [30]

Критики ответа Серла утверждают, что программа позволила человеку иметь два разума в одной голове. [ кто? ] Если мы предположим, что «разум» - это форма обработки информации, тогда теория вычислений может объяснить два вычисления, происходящие одновременно, а именно (1) вычисление для универсальной программируемости (которое является функцией, созданной человеком и примечанием - взятие материалов независимо от какого-либо конкретного содержания программы) и (2) вычисление машины Тьюринга, которая описывается программой (которая создается всем, включая конкретную программу). [59]Таким образом, теория вычислений формально объясняет открытую возможность того, что второе вычисление в Китайской Комнате может повлечь за собой семантическое понимание китайских входных данных, эквивалентное человеческому. Основное внимание уделяется машине Тьюринга программы, а не человеку. [60] Однако, с точки зрения Серла, этот аргумент является циркулярным. Возникает вопрос, является ли сознание формой обработки информации, и этот ответ требует, чтобы мы сделали это предположение.

Более сложные версии системного ответа пытаются более точно определить, что такое «система», и отличаются тем, как именно они описывают ее. Согласно этим ответам, [ кто? ] «разум, говорящий по-китайски» может быть таким, как «программное обеспечение», «программа», «работающая программа», симуляция «нейронных коррелятов сознания», «функциональная система», «симулированная разум »,« возникающее свойство »или« виртуальный разум »( версия ответа системы Марвина Мински , описанная ниже).

Ответ виртуального разума [ править ]

Термин « виртуальный » используется в информатике для описания объекта, который кажется существующим «в» компьютере (или компьютерной сети) только потому, что программное обеспечение создает впечатление, что он существует. Все объекты «внутри» компьютеров (включая файлы, папки и т. Д.) Являются «виртуальными», за исключением электронных компонентов компьютера. Точно так же, утверждает Мински , компьютер может содержать «разум», который виртуален в том же смысле, что и виртуальные машины , виртуальные сообщества и виртуальная реальность . [q]
Чтобы прояснить различие между простым ответом системы, приведенным выше, и ответом виртуального разума, Дэвид Коул отмечает, что в одной системе могут одновременно выполняться два моделирования: одно говорит на китайском, а другое - на корейском. Хотя существует только одна система, может быть несколько «виртуальных умов», поэтому «система» не может быть «умом». [64]

Сирл отвечает, что такой разум в лучшем случае является симуляцией , и пишет: «Никто не думает, что компьютерное моделирование пожара с пятью тревогами сожжет весь район или что компьютерное моделирование ливня оставит нас всех мокрыми». [65] Николас Фирн отвечает, что в некоторых случаях моделирование ничуть не хуже настоящего. «Когда мы вызываем функцию карманного калькулятора на настольном компьютере, на экране появляется изображение карманного калькулятора. Мы не жалуемся, что« на самом деле это не калькулятор », потому что физические характеристики устройства не соответствуют иметь значение." [66]Вопрос в том, состоит ли человеческий разум, как и карманный калькулятор, по существу из информации? Или разум похож на ливень, нечто иное, чем компьютер, и не может быть полностью реализовано с помощью компьютерного моделирования? На протяжении десятилетий этот вопрос моделирования заставлял исследователей и философов искусственного интеллекта задуматься о том, является ли термин « синтетический интеллект » более подходящим, чем обычное описание такого интеллекта как «искусственный».

Эти ответы объясняют, кто именно понимает китайский язык. Если в комнате есть кто-то, кроме человека, который понимает по-китайски, Сирл не может утверждать, что (1) этот человек не понимает китайского, следовательно (2) никто в комнате не понимает китайский. Это, по мнению тех, кто дает этот ответ, показывает, что аргумент Сирла не может доказать, что «сильный ИИ» ложен. [р]

Эти ответы сами по себе не дают никаких доказательств того, что сильный ИИ существует или может существовать. Они не показывают, что система (или виртуальный разум) понимает китайский язык, кроме гипотетической предпосылки, что она проходит тест Тьюринга . Сирл утверждает, что, если мы будем рассматривать Strong AI как отдаленно правдоподобным, Китайская комната является примером, требующим объяснения, и трудно или невозможно объяснить, как сознание может «появиться» из комнаты или как система будет иметь сознание. Как пишет Сирл, «ответ системы просто вызывает вопрос, настаивая на том, что система должна понимать китайский язык» [30], и, таким образом, уклоняется от вопроса или безнадежно циркулирует.

Ответы роботов и семантики: поиск смысла [ править ]

Что касается человека, находящегося в комнате, символы представляют собой бессмысленные «волнистые линии». Но если китайская комната действительно «понимает», о чем говорит, то символы должны откуда-то брать свое значение. Эти аргументы пытаются связать символы с тем, что они символизируют. Эти ответы отражают озабоченность Сирла относительно преднамеренности , символьного обоснования и синтаксиса по сравнению с семантикой .

Ответ робота [ править ]

Предположим, что вместо комнаты программа была помещена в робота, который мог бродить и взаимодействовать со своим окружением. Это позволит установить « причинную связь» между символами и вещами, которые они представляют. [68] [s] Ханс Моравец комментирует: «Если бы мы могли привить робота к программе рассуждений, нам больше не нужен был бы человек, который бы придавал смысл: он пришел бы из физического мира». [70] [т]
Ответ Сирла состоит в том, чтобы предположить, что без ведома человека, находящегося в китайской комнате, некоторые входные данные поступали непосредственно с камеры, установленной на роботе, а некоторые выходы использовались для управления руками и ногами робота. Тем не менее, человек в комнате по-прежнему просто следует правилам и не знает, что означают символы. Сирл пишет: «Он не видит того, что попадает в глаза роботу». [72] (См . Комнату Мэри для подобного мысленного эксперимента.)

Производное значение [ править ]

Некоторые отвечают , что в комнате, так как Searle описывает его, как связи с миром: через говорящих на китайском языке , что он «говорить» и через программистов , которые проектировали базу знаний в его картотеке. Символы, которыми манипулирует Сирл , уже значимы , они просто не значимы для него . [73] [u]
Сирл говорит, что символы имеют только «производное» значение, как и значения слов в книгах. Значение символов зависит от сознательного понимания говорящими на китайском языке и программистами за пределами комнаты. В комнате, как в книге, нет собственного понимания. [v]

Здравый смысл / ответ контекстуалиста [ править ]

Некоторые утверждали, что значения символов могут исходить из обширного «фона» здравого смысла, закодированного в программе и картотеках. Это обеспечит « контекст », который придаст символам их значение. [71] [w]
Сирл согласен с тем, что этот фон существует, но не согласен с тем, что он может быть встроен в программы. Хуберт Дрейфус также подверг критике идею о том, что «фон» может быть представлен символически. [76]

На каждое из этих предложений Сирл отвечает одинаково: независимо от того, сколько знаний записано в программу и как бы программа ни была связана с миром, он все еще находится в комнате, манипулируя символами в соответствии с правилами. Его действия синтаксичны, и это никогда не может объяснить ему, что означают символы. Сирл пишет: «Синтаксис недостаточен для семантики». [77] [x]

Однако для тех, кто согласен с тем, что действия Сирла моделируют разум, отдельный от его собственного, важным вопросом является не то, что символы значат для Сирла , важно то, что они значат для виртуального разума. В то время как Сирл заперт в комнате, виртуальный разум - нет: он связан с внешним миром через говорящих по-китайски, с которыми он разговаривает, через программистов, которые дали ему мировые знания, а также через камеры и другие датчики, которые могут предоставить робототехники .

Моделирование мозга и ответы коннекционистов: изменение дизайна комнаты [ править ]

Все эти аргументы являются версиями системного ответа, которые идентифицируют определенный тип системы как важный; они идентифицируют какую-то особую технологию, которая создаст осознанное понимание в машине. (Ответы «робот» и «здравый смысл» выше также указывают на важность определенного типа системы.)

Ответ симулятора мозга [ править ]

Предположим, что программа детально смоделировала действие каждого нейрона в мозгу говорящего по-китайски. [79] [y] Это укрепляет интуицию о том, что не будет значительной разницы между работой программы и работой живого человеческого мозга.
Сирл отвечает, что такое моделирование не воспроизводит важные особенности мозга - его причинные и намеренные состояния. Сирл непреклонен в том, что «человеческие психические феномены [зависят] от реальных физико-химических свойств реального человеческого мозга». [27] Более того, он утверждает:

[Я] представляю себе, что вместо одноязычного человека в комнате, перетасовывающего символы, у нас есть человек, управляющий сложным набором водопроводных труб с клапанами, соединяющими их. Когда мужчина получает китайские символы, он смотрит в программе, написанной на английском языке, какие клапаны он должен включать и выключать. Каждое водное соединение соответствует синапсу в мозгу китайца, и вся система настроена так, что после выполнения всех правильных запусков, то есть после включения всех правильных кранов, ответы китайцев появляются в конце серии. труб. Где теперь понимание в этой системе? Он принимает китайский язык на входе, моделирует формальную структуру синапсов китайского мозга и дает китайский язык на выходе. Но этот человек точно не понимает китайского, и водопроводные трубы тоже.и если у нас возникает соблазн принять то, что я считаю абсурдным, о том, что каким-то образом соединение человека и водопровода понимается, помните, что в принципе человек может усвоить формальную структуру водопроводных труб и произвести все "срабатывания нейронов" в своем теле. воображение.[81]

Два варианта ответа симулятора мозга - это китайский мозг и сценарий замены мозга.
Китайские мозги [ править ]
Что, если мы попросим каждого гражданина Китая смоделировать один нейрон, используя телефонную систему для моделирования связей между аксонами и дендритами ? В этой версии кажется очевидным, что ни один человек не понимал бы, что может говорить мозг. [82] [z] Также очевидно, что эта система будет функционально эквивалентна мозгу, поэтому, если сознание является функцией, эта система будет сознательной.
Сценарий замены мозга [ править ]
Здесь нас просят представить, что инженеры изобрели крошечный компьютер, который имитирует действие отдельного нейрона. Что произойдет, если мы заменим по одному нейрону за раз? Замена одного явно не повлияет на сознательное осознание. Замена их всех приведет к созданию цифрового компьютера, имитирующего мозг. Если Сирл прав, тогда во время процедуры сознательное осознавание должно исчезнуть (постепенно или полностью). Критики Сирла утверждают, что во время процедуры не было бы никакого смысла, если бы он мог утверждать, что сознательное осознание заканчивается и начинается бездумное моделирование. [84] [аа]Сирл предсказывает, что, проходя мозговой протез, «к своему полному изумлению вы обнаруживаете, что действительно теряете контроль над своим внешним поведением. Вы обнаруживаете, например, что когда врачи проверяют ваше зрение, вы слышите, как они говорят:« Мы держат перед собой красный предмет; расскажите, пожалуйста, что вы видите ». Вы хотите кричать: «Я ничего не вижу. Я полностью ослеп». Но вы слышите, как ваш голос говорит совершенно неподвластным вам образом: «Я вижу перед собой красный объект». [...] [Y] наш сознательный опыт постепенно превращается в ничто, в то время как ваше внешне наблюдаемое поведение остается прежним ». [86] (См. Аналогичный мысленный эксперимент в « Корабле Тесея» .)

Ответы Connectionist [ править ]

Тесно связанный с ответом симулятора мозга, он утверждает, что массивно-параллельная архитектура коннекционизма будет способна понять. [ab]

Комбинированный ответ [ править ]

Этот ответ объединяет ответ робота с ответом моделирования мозга, утверждая, что имитация мозга, связанная с миром через тело робота, может иметь разум. [89]

Много особняков / ждать до следующего года ответ [ править ]

Более совершенные технологии будущего позволят компьютерам понимать. [28] [ac] Сирл соглашается, что это возможно, но считает этот момент несущественным. Сирл соглашается, что могут быть конструкции, которые заставят машину иметь сознательное понимание.

Эти аргументы (и ответы робота или здравого смысла) указывают на некую особую технологию, которая поможет создать сознательное понимание в машине. Их можно интерпретировать двояко: либо они заявляют, что (1) эта технология необходима для сознания, китайская комната не реализует или не может реализовать эту технологию, и, следовательно, китайская комната не может пройти тест Тьюринга или (даже если бы прошла) ее. не имел бы сознательного понимания. Или они могут утверждать, что (2) легче увидеть, что у китайской комнаты есть разум, если мы визуализируем эту технологию как используемую для ее создания.

В первом случае, когда требуются такие функции, как корпус робота или архитектура коннекционизма, Сирл утверждает, что от сильного ИИ (в его понимании) отказались. [ad] Китайская комната имеет все элементы полной машины Тьюринга и, таким образом, способна моделировать любые цифровые вычисления. Если комната Сирла не может пройти тест Тьюринга, то нет другой цифровой технологии, которая могла бы пройти тест Тьюринга. Если комната Сирла может пройти тест Тьюринга, но все еще не имеет разума, тогда теста Тьюринга недостаточно, чтобы определить, есть ли в комнате «разум». В любом случае он отрицает ту или иную позицию, которую Сирл считает «сильным ИИ», доказывая свой аргумент.

Мозговые аргументы, в частности, отрицают сильный ИИ, если они предполагают, что нет более простого способа описать разум, чем создать программу, столь же загадочную, как и мозг. Он пишет: «Я думал, что вся идея сильного ИИ заключалась в том, что нам не нужно знать, как работает мозг, чтобы знать, как он работает». [28] Если вычисления не дают объяснения человеческого разума, значит, сильный ИИ потерпел неудачу, согласно Сёрлу.

Другие критики считают, что комната, описанная Сирлом, на самом деле имеет разум, однако они утверждают, что ее трудно увидеть - описание Сирла верно, но вводит в заблуждение. Создавая более реалистичный дизайн комнаты, они надеются сделать это более очевидным. В данном случае эти аргументы используются как апелляция к интуиции (см. Следующий раздел).

Фактически, комнату можно так же легко изменить, чтобы ослабить нашу интуицию. Ned Block «s Blockhead аргумент [90] говорит о том , что программа, в теории, можно переписать в виде простой таблицы перекодировки из правил вида„если пользователь пишет S Ответить с P и Goto X“. По крайней мере, в принципе, любую программу можно переписать (или « рефакторировать ») в эту форму, даже симуляцию мозга. [ae] В сценарии с болваном все психическое состояние скрыто в букве X, которая представляет адрес памяти.- номер, связанный со следующим правилом. Трудно представить себе, что мгновение чьего-либо сознательного опыта может быть зафиксировано в одном большом количестве, но это именно то, что утверждает «сильный ИИ». С другой стороны, такая таблица поиска была бы смехотворно большой (до физической невозможности), и поэтому состояния могли бы быть чрезвычайно конкретными.

Сирл утверждает, что как бы ни была написана программа или как бы машина ни была подключена к миру, разум моделируется простой пошаговой цифровой машиной (или машинами). Эти машины всегда похожи на человека в комнате: они ничего не понимают и не говорят по-китайски. Они просто манипулируют символами, не зная, что они означают. Сирл пишет: «У меня может быть любая формальная программа, какая вам нравится, но я все равно ничего не понимаю». [10]

Скорость и сложность: апеллирует к интуиции [ править ]

Следующие аргументы (и интуитивная интерпретация вышеприведенных аргументов) не объясняют напрямую, как человек, говорящий по-китайски, мог существовать в комнате Серла или как символы, которыми он манипулирует, могут стать значимыми. Однако, вызывая сомнения в интуиции Серла, они поддерживают другие позиции, такие как ответы системы и роботов. Эти аргументы, если они приняты, не позволяют Сирлу утверждать, что его вывод очевиден, поскольку они подрывают интуицию, которую требует его уверенность.

Некоторые критики полагают, что аргумент Сирла полностью основан на интуиции. Нед Блок пишет: «Аргумент Серла основан на интуиции, о которой не думают некоторые сущности». [91] Дэниел Деннет описывает аргумент о китайской комнате как вводящий в заблуждение « насос интуиции » [92] и пишет: «Мысленный эксперимент Сирла незаконно зависит от того, как вы представляете слишком простой случай, случай, не имеющий отношения к делу, и делаете« очевидный »вывод из Это." [92]

Некоторые из приведенных выше аргументов также служат апелляцией к интуиции, особенно те, которые призваны сделать более правдоподобным тот факт, что китайская комната содержит разум, который может включать робота, здравый смысл, симуляцию мозга и ответы коннекционистов. Некоторые из приведенных выше ответов также касаются конкретной проблемы сложности. В ответе коннекциониста подчеркивается, что работающая система искусственного интеллекта должна быть такой же сложной и взаимосвязанной, как человеческий мозг. Ответ, основанный на здравом смысле, подчеркивает, что любая программа, прошедшая тест Тьюринга, должна быть «чрезвычайно гибкой, сложной и многоуровневой системой, наполненной« мировым знанием », мета-знанием и мета-мета-знанием», как объясняет Дэниел Деннет. . [75]

Скорость и сложность ответов [ править ]

Скорость, с которой человеческий мозг обрабатывает информацию, составляет (по некоторым оценкам) 100 миллиардов операций в секунду. [93] Некоторые критики отмечают, что человеку в комнате, вероятно, потребуются миллионы лет, чтобы ответить на простой вопрос, и ему потребуются «картотечные шкафы» астрономических размеров. Это ставит под сомнение ясность интуиции Сирла. [94] [af]

Особенно яркая версия ответа о скорости и сложности пришла от Пола и Патрисии Черчленд . Они предлагают аналогичный мысленный эксперимент:

Светлая комната Черчленда [ править ]

«Представьте темную комнату, в которой человек держит стержневой магнит или заряженный объект. Если человек качает магнит вверх и вниз, то, согласно теории искусственной яркости Максвелла (AL), он инициирует распространение электромагнитных волн по кругу. и, таким образом, будет светиться. Но как хорошо известно всем, кто играл с магнитами или заряженными шарами, их силы (или любые другие силы в этом отношении), даже когда они приводятся в движение, вообще не производят яркости. Это немыслимо, чтобы вы может создать реальную яркость, просто перемещая силы вокруг! " [83] Проблема в том, что ему пришлось бы махать магнитом вверх и вниз примерно 450 триллионов раз в секунду, чтобы что-то увидеть. [96]

Стеван Харнад критически относится к скорости и сложности ответов, когда они выходят за рамки нашей интуиции. Он пишет : «Некоторые из них сделал культ скорости и времени, считая , что, когда ускоряется до правильной скорости, вычислительный может сделать фазовый переход в ментальном. Должно быть ясно , что это не контраргумент , а всего лишь специальная спекуляция ( как и точка зрения, что все это просто вопрос повышения до нужной степени «сложности».) " [97] [ag]

Сирл утверждает, что его критики также полагаются на интуицию, однако интуиции его оппонентов не имеют эмпирической основы. Он пишет, что для того, чтобы считать «ответ системы» хотя бы отдаленно правдоподобным, человек должен находиться «во власти идеологии». [30] Системный ответ имеет смысл (для Сирла) только в том случае, если предположить, что любая «система» может иметь сознание только в силу того, что она является системой с правильным поведением и функциональными частями. Он утверждает, что это предположение неверно с учетом нашего опыта сознания.

Другие умы и зомби: бессмысленность [ править ]

Некоторые ответы утверждают, что аргумент Сирла неуместен, потому что его предположения о разуме и сознании ошибочны. Сирл считает, что люди ежедневно непосредственно испытывают свое сознание, интенциональность и природу ума, и что этот опыт сознания не подлежит сомнению. Он пишет, что мы должны «предполагать реальность и познаваемость ментального». [100]Эти ответы ставят вопрос о том, имеет ли Сирл право использовать свой собственный опыт сознания для определения того, что это нечто большее, чем механическая обработка символов. В частности, ответ «другие умы» утверждает, что мы не можем использовать наш опыт сознания для ответа на вопросы о других разумах (даже о разуме компьютера), а ответ «эпифеномены» утверждает, что сознание Сёрла не «существует» в том смысле, в котором думает Сёрл. оно делает.

Другие умы отвечают
Этот ответ указывает на то, что аргумент Сирла - это версия проблемы других умов , примененная к машинам. Мы не можем определить, совпадает ли субъективный опыт других людей с нашим собственным. Мы можем только изучать их поведение (т. Е. Давая им собственный тест Тьюринга ). Критики Сирла утверждают, что он ставит китайскую комнату на более высокий уровень, чем мы могли бы придерживаться обычного человека. [101] [ах]

Нильс Нильссон пишет: «Если программа ведет себя так, как если бы она умножалась, большинство из нас сказали бы, что на самом деле это умножение. Насколько я знаю, Сирл может вести себя только так, как если бы он глубоко размышлял об этих вопросах. Но, хотя я с ним не согласен, его симуляция довольно хороша, так что я готов поверить ему в подлинной мысли ". [103]

Алан Тьюринг предвосхитил аргументацию Сирла (которую он назвал «аргументом сознания») в 1950 году и заставляет другие умы ответить. [104] Он отметил, что люди никогда не думают о проблеме других умов, когда общаются друг с другом. Он пишет, что «вместо того, чтобы постоянно спорить по этому поводу, обычно принято вежливое соглашение, как все думают». [105] Тест Тьюринга просто распространяет это «вежливое соглашение» на машины. Он не намеревается решать проблемы других умов (машин или людей) и не думает, что нам это нужно. [ai]

Исключительный ответ материализма
Некоторые философы утверждают, что сознания, как его описывает Сирл, не существует. Эту позицию иногда называют элиминативным материализмом : представление о том, что сознание - это свойство, которое можно свести к строго механическому описанию, и что наш опыт сознания, как его описывает Дэниел Деннет, « пользовательская иллюзия ». [108] Другие ментальные свойства, такие как изначальная интенциональность (также называемая «значением», «содержанием» и «семантическим характером»), также обычно рассматриваются как нечто особенное в убеждениях и других пропозициональных установках. Исключительный материализмутверждает, что пропозициональные установки, такие как убеждения и желания, среди других интенциональных ментальных состояний, имеющих содержание, не существуют. Если элиминативный материализм является правильным научным объяснением человеческого познания, то предположение аргумента китайской комнаты о том, что «умы обладают ментальным содержанием ( семантикой )», должно быть отвергнуто. [109]

Стюарт Рассел и Питер Норвиг утверждают, что, если мы принимаем Сирлское описание интенциональности, сознания и разума, мы вынуждены признать, что сознание является эпифеноменальным : оно «не отбрасывает тени», что оно не обнаруживается во внешнем мире. Они утверждают, что Сирл, должно быть, ошибается в отношении «познаваемости ментального» и в его убеждении, что в наших нейронах есть «причинные свойства», которые порождают разум. Они указывают на то, что, по собственному описанию Сирла, эти причинные свойства не могут быть обнаружены кем-либо вне разума, иначе Китайская комната не могла бы пройти тест Тьюринга.- люди снаружи смогут определить, что в комнате нет говорящего по-китайски, по их причинным свойствам. Поскольку они не могут обнаружить причинные свойства, они не могут обнаружить существование ментального. Короче говоря, «причинные свойства» Серла и само сознание необнаружимы, и все, что не может быть обнаружено, либо не существует, либо не имеет значения. [110]

Дэниел Деннетт предлагает это расширение аргумента «эпифеномены».

Ответ Деннета от естественного отбора
Предположим, что в результате некоторой мутации рождается человек, который не обладает "причинными свойствами" Сирла, но, тем не менее, действует точно так же, как человек. (Этот вид животных называется « зомби » в мысленных экспериментах философии разума ). Это новое животное будет размножаться так же, как и любой другой человек, и со временем этих зомби станет больше. Естественный отбор будет благоприятствовать зомби, поскольку их конструкция (можно предположить) немного проще. В конце концов люди вымрут. Поэтому, если Сирл прав, наиболее вероятно, что люди (какими мы их видим сегодня) на самом деле являются «зомби», которые, тем не менее, настаивают на том, что они сознательны. Невозможно узнать, все мы зомби или нет. Даже если мы все зомби,мы бы все равно верили, что это не так.[111]

Сирл не согласен с этим анализом и утверждает, что «изучение разума начинается с таких фактов, как то, что у людей есть убеждения, а у термостатов, телефонов и счетных машин нет ... мы хотели знать, что отличает разум от термостатов. и печень ". [72] Он считает очевидным, что мы можем обнаружить присутствие сознания, и отклоняет эти ответы как не относящиеся к делу.

Ньютона пламенный лазерный меч ответ
Майк Алдер утверждает, что весь аргумент является несерьезным, потому что он не верификационистский : не только различие между моделированием разума и наличием разума нечетко, но и неуместным, потому что никакие эксперименты не были или даже могут быть предложены. чтобы различать эти два. [112]

Английский ответ [ править ]

Маргарет Боден представила этот ответ в своей статье «Побег из китайской комнаты». [113] В нем она предполагает, что даже если человек в комнате не понимает китайского, это не означает, что в комнате нет понимания. Человек в комнате, по крайней мере, понимает свод правил, используемый для выработки ответов.

В популярной культуре [ править ]

Аргумент о китайской комнате является центральной концепцией романов Питера Уоттса « Слепота» и (в меньшей степени) « Эхопраксия» . [114] Это также центральная тема в видеоигре «Последняя награда добродетели» , и она связана с повествованием игры. [ необходима цитата ] В 4 сезоне американской криминальной драмы Numb3rs есть краткое упоминание о китайской комнате. [ необходима цитата ]

The Chinese Room - это также название британской независимой студии по разработке видеоигр, наиболее известной своими экспериментальными играми от первого лица, такими как Everybody's Gone to the Rapture или Dear Esther . [115]

В видеоигре 2016 года The Turing Test мысленный эксперимент «Китайская комната» объясняется игроку с помощью ИИ.

См. Также [ править ]

  • Вычислительные модели овладения языком
  • Эмерджентное поведение
  • Нет настоящего шотландца
  • Философский зомби
  • Парадокс соритеса
  • Синтетический интеллект
  • Я странная петля

Примечания [ править ]

  1. ^ a b c В разделе « Сознание» этой статьи обсуждается связь между аргументом китайской комнаты и сознанием.
  2. ^ a b Эта версия взята из книги Серла « Разум, язык и общество» [21] и также цитируется в книге Дэниела Деннета « Объяснение сознания» . [22] Первоначальная формулировка Сирла заключалась в следующем: «Соответственно запрограммированный компьютер на самом деле является разумом в том смысле, что можно буквально сказать, что компьютеры с правильными программами понимают и имеют другие когнитивные состояния». [23] Сильный ИИ определяется аналогичным образом Стюартом Расселом и Питером Норвигом.: «Утверждение, что машины могут действовать разумно (или, что лучше, действовать так, как если бы они были разумными), философы называют гипотезой« слабого ИИ », а утверждение, что машины, которые так поступают, на самом деле думают (в отличие от моделирования мышление) называется гипотезой «сильного ИИ» ". [5]
  3. ^ Сёрл пишет, что «согласно Сильному ИИ, правильная симуляция - это действительно разум. Согласно Слабому ИИ, правильная симуляция - это модель разума». [8] Он также пишет: «С точки зрения Сильного ИИ, правильно запрограммированный компьютер не просто имитирует наличие разума, он буквально имеет разум». [9]
  4. ^ a b Сёрл пишет: «Сторонники сильного ИИ утверждают, что в этой последовательности вопросов и ответов машина не только моделирует человеческие способности, но также (1) буквально можно сказать, что машина понимает историю и дает ответы на вопросы и (2) то, что машина и ее программа объясняют человеческую способность понимать историю и отвечать на вопросы о ней ». [7]
  5. Обратите внимание, что Лейбниц возражал против «механической» теории разума (философская позиция, известная как механизм ). Сёрл возражает против взгляда на разум «обработки информации» (философская позиция, известная как « вычислительный подход»). Сирл принимает механизм и отвергает вычислительный подход.
  6. ^ Харнад отредактирован BBS за годыкоторые видели введение и популяризацию аргумента китайский номер.
  7. ^ a b Стеван Харнад считает, что аргумент Серла противоречит тезису, который «с тех пор стал называться« вычислительным », согласно которому познание - это просто вычисление, следовательно, ментальные состояния - это просто вычислительные состояния». [19] Дэвид Коул соглашается, что «этот аргумент также имеет широкое значение для функционалистских и вычислительных теорий значения и разума». [20]
  8. ^ Сирл считает, что «сильный ИИ имеет смысл только с учетом дуалистического предположения, что в отношении разума мозг не имеет значения». [27] Он пишет в другом месте: «Я думал, что вся идея сильного ИИ заключалась в том, что нам не нужно знать, как работает мозг, чтобы знать, как работает разум». [28] Эта позиция обязана своей формулировкой Стевану Харнаду. [29]
  9. ^ «Один из спорных вопросов, - пишет Сирл, - это адекватность теста Тьюринга». [30]
  10. ^ Computationalism связан с Фодорами и Хилари Putnam , [33] и удерживается Allen Newell , [29] Зенон Пайлишин [29] и Стивен Пинкер , [34] среди других.
  11. ^ См. Ответы Сирлу в разделе " Бессмысленность" ниже.
  12. ^ Ларри Хаузер пишет, что «биологический натурализм либо сбит с толку (колебание между теорией тождества и дуализмом), либо это просто теория тождества или дуализм». [38]
  13. ^ Формулировки каждой аксиомы и заключения взяты из презентации Сирла в Scientific American . [52] [53] (A1-3) и (C1) описаны как 1,2,3 и 4 у Дэвида Коула. [54]
  14. ^ Пол и Патрисия Черчленд пишут, что мысленный эксперимент с китайской комнатой предназначен для «подтверждения аксиомы 3». [55]
  15. ^ Дэвид Коул объединяет вторую и третью категории, а также четвертую и пятую. [56]
  16. Эту должность занимают, в частности, Нед Блок , Джек Коупленд , Дэниел Деннет , Джерри Фодор , Джон Хогеланд , Рэй Курцвейл и Джордж Рей . [58]
  17. ^ Виртуальный ответ разума проводится Марвином Мински , Тимом Модлином , Дэвидом Чалмерсом и Дэвидом Коул. [61] Ответ был представлен Марвином Мински . [62] [63]
  18. ^ Дэвид Коул пишет: «Из интуиции, что в мысленном эксперименте CR он не смог бы понять китайский язык, запустив программу, Сирл заключает, что не существует понимания, созданного запуском программы. Очевидно, верен ли этот вывод или нет, включает метафизический вопрос об идентичности людей и умов. Если понимание человека не совпадает с оператором комнаты, то вывод ошибочен ». [67]
  19. Эту должность занимают, в частности, Маргарет Боден , Тим Крейн , Дэниел Деннет , Джерри Фодор , Стеван Харнад , Ханс Моравек и Жорж Рей . [69]
  20. ^ Дэвид Коул называет это «экстерналистским» объяснением значения. [71]
  21. ^ Производное значение ответа связано с Дэниелом Деннетом и другими.
  22. ^ Сирл проводит различие между «внутренней» интенциональностью и «производной» интенциональностью. «Внутренняя» интенциональность - это вид, который включает «сознательное понимание», как в человеческом разуме. Дэниел Деннет не согласен с тем, что существует различие. Дэвид Коул пишет, что, по словам Деннета, «производная интенциональность - это все, что есть». [74]
  23. ^ Дэвид Коул описывает это как «интерналистский» подход к значению. [71] Сторонниками этой позиции являются Роджер Шэнк , Дуг Ленат , Марвин Мински и (с оговорками) Дэниел Деннет , который пишет: «Дело в том, что любая программа [прошедшая тест Тьюринга] должна быть чрезвычайно гибкой, сложной, и многослойная система, наполненная «мировым знанием», мета-знанием и мета-мета-знанием ». [75]
  24. ^ Сёрл также пишет: «Сами по себе формальных символов никогда не бывает достаточно для ментального содержания, потому что символы по определению не имеют значения (или интерпретации , или семантики), за исключением тех случаев, когда кто-то за пределами системы дает их им». [78]
  25. ^ Ответ моделирования мозга был сделан Полом Черчлендом , Патрисией Черчленд и Рэем Курцвейлом . [80]
  26. Ранние версии этого аргумента были выдвинуты в 1974 году Лоуренсом Дэвисом и в 1978 году Недом Блоком . Версия Блока использовала рации и называлась «Китайский спортзал». Пол и Патрисия Черчленд также описали этот сценарий. [83]
  27. ^ Ранняя версия сценария замены мозга была предложена Кларком Глимуром в середине 70-х годов и затронута Зеноном Пилишиным в 1980 году. Ханс Моравец представил яркую версию этого сценария [85], и теперь он ассоциируется с Рэем Курцвейлом. Версия трансгуманизма .
  28. ^ Ответ коннекциониста сделали Энди Кларк и Рэй Курцвейл , [87], а также Пол и Патрисия Черчленд . [88]
  29. ^ Сирл (2009) использует название «Подождите, пока ответит в следующем году».
  30. ^ Сирл пишет, что в ответе робота «молчаливо признается, что познание - это не только формальное манипулирование символами». [72] Стеван Харнад говорит о том же, написав: «Так же, как это не опровержение (а скорее подтверждение) CRA, чтобы отрицать, что [тест Тьюринга] является достаточно сильным тестом, или отрицать, что компьютер может когда-либо пройти его, это просто особый призыв попытаться сохранить вычислительный подход, указав специальным образом (перед лицом CRA), что детали реализации все-таки имеют значение, и что компьютер является `` правильным '' типом реализации, в то время как вариант Серла "неправильный" вид ". [49]
  31. ^ То есть любая программа, работающая на машине с ограниченным объемом памяти.
  32. Ответы на скорость и сложность дают Дэниел Деннет , Тим Модлин , Дэвид Чалмерс , Стивен Пинкер , Пол Черчленд , Патрисия Черчленд и другие. [95] Дэниел Деннет указывает на сложность мировых знаний. [75]
  33. ^ Критики формы "фазового перехода" этого аргумента включают Стевана Харнада, Тима Модлина , Дэниела Деннета и Дэвида Коула. [95] Эта идея «фазового перехода» является версией сильного эмерджентизма (то, что Дэниел Деннет высмеивает как «Ву-ву, возникновение Западного побережья» [98] ). Харнад обвиняет Черчленд и Патрисию Черчленд в поддержке сильного эмерджентизма. Рэй Курцвейл также придерживается сильного эмерджентизма. [99]
  34. ^ Ответ «другие умы» был предложен, среди прочих, Дэниелом Деннетом , Рэем Курцвейлом и Хансом Моравеком . [102]
  35. ^ Одна из мотиваций Тьюринга для разработки теста Тьюринга состоит в том, чтобы избежать именно тех философских проблем, которые интересуют Сёрла. Он пишет: «Я не хочу производить впечатление, будто я думаю, что в этом нет никакой тайны ... [но] я не думаю, что эти загадки обязательно нужно разгадывать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье ». [106] Хотя Тьюринг обсуждает сознание (не разум, понимание или интенциональность), Стюарт Рассел и Питер Норвиг утверждают, что комментарии Тьюринга применимы к китайской комнате. [107]

Цитаты [ править ]

  1. ^ а б Макгинн 2000 .
  2. ^ а б Харнад 2001 , стр. 1.
  3. ^ Робертс 2016 .
  4. ^ a b c Searle 1992 , стр. 44.
  5. ^ а б в г Russell & Norvig 2003 , стр. 947.
  6. ^ а б в Сирл 1980 , стр. 11.
  7. ^ а б Сирл 1980 , стр. 2.
  8. ^ а б Сирл 2009 , стр. 1.
  9. Перейти ↑ Searle 2004 , p. 66.
  10. ^ а б Сирл 1980 , стр. 3.
  11. ^ Коул 2004 , 2,1; Лейбниц 1714 , раздел 17.
  12. ^ "История русской китайской комнаты, предшествовавшая дискуссии Сирла 1980 года" . Центр изучения сознания . 15 июня 2018 г.
  13. ^ Коул 2004 , 2.3.
  14. Перейти ↑ Searle 1980 .
  15. Перейти ↑ Cole 2004 , p. 2; Престон и Бишоп 2002
  16. ^ а б Харнад 2001 , стр. 2.
  17. ^ Харнад 2001 , стр. 1; Коул 2004 , стр. 2
  18. ^ Akman 1998 .
  19. ^ Харнад 2005 , стр. 1.
  20. Перейти ↑ Cole 2004 , p. 1.
  21. Перейти ↑ Searle 1999 , p. [ необходима страница ] .
  22. Перейти ↑ Dennett 1991 , p. 435.
  23. Перейти ↑ Searle 1980 , p. 1.
  24. Цитируется в Russell & Norvig 2003 , p. 21.
  25. Цитируется по Crevier 1993 , p. 46и Russell & Norvig 2003 , стр. 17.
  26. ^ Haugeland 1985 , стр. 2 (курсивом его)
  27. ^ а б в Сирл 1980 , стр. 13.
  28. ^ а б в Сирл 1980 , стр. 8.
  29. ^ а б в г Харнад 2001 .
  30. ^ Б с д е е г Searle 1980 , с. 6.
  31. Перейти ↑ Searle 2004 , p. 45.
  32. ^ Харнад 2001 , стр. 3 (курсивом его)
  33. ^ Хорст 2005 , стр. 1.
  34. Перейти ↑ Pinker 1997 .
  35. ^ Харнад 2001 , стр. 3-5.
  36. ^ Searle 1990a , р. 29.
  37. ^ Searle 1990b .
  38. ^ а б в Хаузер 2006 , стр. 8.
  39. ^ Searle 1992 , гл. 5.
  40. Перейти ↑ Searle 2002 .
  41. Перейти ↑ Chalmers 1996 , p. 322.
  42. ^ Hew 2016 .
  43. Перейти ↑ Kurzweil 2005 , p. 260.
  44. ^ Saygın, Cicekli & Akman 2000 .
  45. ^ а б Тьюринг 1950 .
  46. Перейти ↑ Newell & Simon 1976 , p. 116.
  47. ^ Russell & Норвиг 2003 , стр. 18.
  48. ^ Тьюринг 1950 , стр. 442.
  49. ^ а б Харнад 2001 , стр. 14.
  50. Бен-Ями 1993 .
  51. ^ Searle 1984 ; Searle 1990a .
  52. ^ а б Сирл 1990а .
  53. Перейти ↑ Hauser 2006 , p. 5.
  54. Перейти ↑ Cole 2004 , p. 5.
  55. ^ Черчленд и Черчленд 1990 , стр. 34.
  56. Перейти ↑ Cole 2004 , pp. 5–6.
  57. Searle 1980 , стр. 5–6; Коул 2004 , стр. 6–7; Хаузер 2006 , стр. 2–3; Рассел и Норвиг 2003 , стр. 959, Деннет 1991 , стр. 439; Fearn 2007 , стр. 44; Crevier 1993 , стр. 269.
  58. Перейти ↑ Cole 2004 , p. 6.
  59. Yee 1993 , стр. 44.
  60. Yee, 1993 , стр. 42–47.
  61. Перейти ↑ Cole 2004 , pp. 7–9.
  62. Перейти ↑ Minsky 1980 , p. 440.
  63. Перейти ↑ Cole 2004 , p. 7.
  64. Перейти ↑ Cole 2004 , p. 8.
  65. Перейти ↑ Searle 1980 , p. 12.
  66. ^ Fearn 2007 , стр. 47.
  67. Перейти ↑ Cole 2004 , p. 21.
  68. Перейти ↑ Searle 1980 , p. 7; Коул 2004 , стр. 9–11; Хаузер 2006 , стр. 3; Fearn 2007 , стр. 44.
  69. Перейти ↑ Cole 2004 , p. 9.
  70. Цитируется по Crevier 1993 , p. 272
  71. ^ a b c Коул 2004 , стр. 18.
  72. ^ а б в Сирл 1980 , стр. 7.
  73. Перейти ↑ Hauser 2006 , p. 11; Коул 2004 , стр. 19.
  74. Перейти ↑ Cole 2004 , p. 19.
  75. ^ a b c Деннет 1991 , стр. 438.
  76. ^ Дрейфус 1979 , " Эпистемологическое предположение".
  77. Перейти ↑ Searle 1984 .
  78. ^ Моцкин & Searle 1989 , стр. 45.
  79. Searle 1980 , стр. 7–8; Коул, 2004 , стр. 12–13; Хаузер 2006 , стр. 3–4; Черчленд и Черчленд 1990 .
  80. Перейти ↑ Cole 2004 , p. 12.
  81. Перейти ↑ Searle 1980 , p. [ необходима страница ] .
  82. Перейти ↑ Cole 2004 , p. 4; Хаузер 2006 , стр. 11.
  83. ^ а б Черчленд и Черчленд 1990 .
  84. Russell & Norvig, 2003 , стр. 956–958; Коул 2004 , стр. 20; Моравец 1988 ; Курцвейл 2005 , стр. 262; Crevier 1993 , стр. 271 и 279.
  85. Перейти ↑ Moravec 1988 .
  86. Searle 1992, цит. По Russell & Norvig 2003 , p. 957.
  87. Перейти ↑ Cole 2004 , pp. 12 & 17.
  88. Перейти ↑ Hauser 2006 , p. 7.
  89. Searle 1980 , стр. 8–9; Хаузер 2006 , стр. 11.
  90. ^ Блок 1981 .
  91. Цитируется по Cole 2004 , p. 13.
  92. ^ а б Деннет 1991 , стр. 437–440.
  93. ^ Кревьер 1993 , стр. 269.
  94. Cole 2004 , pp. 14–15; Crevier 1993 , стр. 269–270; Пинкер 1997 , стр. 95.
  95. ^ a b Коул 2004 , стр. 14.
  96. ^ Черчленд и Черчленд 1990 ; Коул 2004 , стр. 12; Crevier 1993 , стр. 270; Fearn 2007 , стр. 45–46; Пинкер 1997 , стр. 94.
  97. ^ Харнад 2001 , стр. 7.
  98. ^ Кревьер 1993 , стр. 275.
  99. Перейти ↑ Kurzweil 2005 .
  100. Перейти ↑ Searle 1980 , p. 10.
  101. Перейти ↑ Searle 1980 , p. 9; Коул 2004 , стр. 13; Хаузер 2006 , стр. 4–5; Нильссон 1984 .
  102. Перейти ↑ Cole 2004 , pp. 12–13.
  103. Перейти ↑ Nilsson 1984 .
  104. Тьюринг 1950 , стр. 11–12.
  105. ^ Тьюринг 1950 , стр. 11.
  106. ^ Тьюринг 1950 , стр. 12.
  107. ^ Russell & Норвиг 2003 , стр. 952-953.
  108. ^ Деннет 1991 , [ необходима страница ] .
  109. ^ "Исключительный материализм" . Стэнфордская энциклопедия философии . 11 марта 2019.
  110. ^ Russell & Норвиг 2003 .
  111. Перейти ↑ Cole 2004 , p. 22; Crevier 1993 , стр. 271; Харнад 2005 , стр. 4.
  112. ^ Ольха 2004 .
  113. ^ http://doi.library.cmu.edu/10.1184/OCLC/19297071
  114. ^ Уитмарш 2016 .
  115. ^ "Дом" . Китайская комната . Проверено 27 апреля 2018 .

Ссылки [ править ]

  • Акман, Варол (1998). «Рецензия на книгу - Джон Хогеланд (редактор), Дизайн разума II: философия, психология и искусственный интеллект » . Проверено 2 октября 2018 г. - через Cogprints.
  • Алдер, Майк (2004). «Пылающий лазерный меч Ньютона» . Философия сейчас . 46 : 29–33. Архивировано 26 марта 2018 года.Также имеется в "Пылающем лазерном мече Ньютона" (PDF) . Архивировано из оригинального (PDF) 14 ноября 2011 года.
  • Бен-Ями, Ханох (1993), "Обратите внимание на китайской комнате", синтезированное , 95 (2): 169-72, DOI : 10.1007 / bf01064586
  • Блок, Нед (1981), "Психологизм и Бихевиоризм" , Философский Обзор , 90 (1): 5-43, CiteSeerX  10.1.1.4.5828 , DOI : 10,2307 / 2184371 , JSTOR  2184371
  • Чалмерс, Дэвид (30 марта 1996 г.), Сознательный разум: в поисках фундаментальной теории , Oxford University Press, ISBN 978-0-19-983935-3
  • Черчленд, Пол ; Черчленд, Патрисия (январь 1990 г.), «Может ли машина думать?», Scientific American , 262 (1): 32–39, Bibcode : 1990SciAm.262a..32C , doi : 10.1038 / Scientificamerican0190-32 , PMID  2294584
  • Коул, Дэвид (осень 2004 г.), «Аргумент о китайской комнате», в Zalta, Эдвард Н. (ред.), Стэнфордская энциклопедия философии
Номера страниц выше относятся к стандартной печати статьи в формате PDF .
  • Кревье, Даниэль (1993), AI: Бурный поиск искусственного интеллекта , Нью-Йорк, Нью-Йорк: BasicBooks, ISBN 0-465-02997-3 
  • Деннет, Дэниел (1991), Сознание объяснено , Penguin Press, ISBN 978-0-7139-9037-9
  • Дрейфус, Хуберт (1979), Что компьютеры все еще не могут сделать , Нью-Йорк: MIT Press, ISBN 978-0-262-04134-8
  • Страх, Николас (2007), Последние ответы на самые старые вопросы: философское приключение с величайшими мыслителями мира , Нью-Йорк: Grove Press
  • Харнад, Стеван (2001), «Что не так и правильно в аргументе Сирла о китайской комнате», в M .; Престон Дж. (Ред.), Взгляды в китайскую комнату: новые эссе о Серле и искусственном интеллекте , Oxford University Press
Номера страниц выше относятся к стандартной печати статьи в формате PDF .
  • Харнад, Стеван (2005), «Аргумент китайской комнаты Серла», Энциклопедия философии , Macmillan
Номера страниц выше относятся к стандартной печати статьи в формате PDF .
  • Хогеланд, Джон (1985), Искусственный интеллект: Сама идея , Кембридж, Массачусетс: MIT Press, ISBN 978-0-262-08153-5
  • Хогеланд, Джон (1981), Mind Design , Кембридж, Массачусетс: MIT Press, ISBN 978-0-262-08110-8
  • Хаузер, Ларри (2006), «Китайская комната Сирла», Интернет-энциклопедия философии
Номера страниц выше относятся к стандартной печати статьи в формате PDF .
  • Хью, Патрик Чисан (сентябрь 2016 г.). «Сохранение моральной силы боевого командира: Винсеннский инцидент как китайская комната» . Этика и информационные технологии . 18 (3): 227–235. DOI : 10.1007 / s10676-016-9408-у .
  • Курцвейл, Рэй (2005), Сингулярность близка , Viking Press
  • Хорст, Стивен (осень 2005 г.), «Вычислительная теория разума», в Zalta, Эдвард Н. (ред.), Стэнфордская энциклопедия философии.
  • Лейбниц, Готфрид (1714), Монадология , Джордж Макдональд Росс (перевод), архивировано из оригинала 2011-07-03
  • Моравек, Ханс (1988), Дети разума: будущее роботов и человеческого интеллекта , издательство Harvard University Press
  • Мински, Марвины (1980), "Децентрализованная Minds", Поведенческая и мозг науки , 3 (3): 439-40, DOI : 10,1017 / S0140525X00005914
  • Макгинн, Коллин (2000), Таинственное пламя: Сознательные умы в материальном мире , Основные книги, стр. 194, ISBN 978-0786725168
  • Мур, Джеймс, изд. (2003), Тест Тьюринга: неуловимый стандарт искусственного интеллекта , Дордрехт: Kluwer Academic Publishers, ISBN 978-1-4020-1205-1
  • Моцкин, Эльханан; Сирл, Джон (16 февраля 1989 г.), Искусственный интеллект и Китайская комната: Обмен , Нью-Йоркское обозрение книг
  • Ньюэлл, Аллен ; Саймон, HA (1976), "Компьютерные науки как эмпирический Запрос: Символы и Поиск", коммуникации АСМА , 19 (3): 113-126, DOI : 10,1145 / 360018,360022
  • Николич, Данко (2015), «Практопоэзис: или как жизнь способствует развитию ума», Журнал теоретической биологии , 373 : 40–61, arXiv : 1402.5332 , doi : 10.1016 / j.jtbi.2015.03.003 , PMID  25791287
  • Нильссон, Нильс (1984), Краткое опровержение Сирлу (PDF)
  • Рассел, Стюарт Дж .; Норвиг, Питер (2003), Искусственный интеллект: современный подход (2-е изд.), Верхняя Сэдл-Ривер, Нью-Джерси: Prentice Hall, ISBN 0-13-790395-2
  • Пинкер, Стивен (1997), Как работает разум , Нью-Йорк, Нью-Йорк: WW Norton & Company, Inc., ISBN 978-0-393-31848-7
  • Престон, Джон; Епископ, Марк, ред. (2002), Взгляды в китайскую комнату: новые эссе о Серле и искусственном интеллекте , Oxford University Press, ISBN 978-0-19-825057-9
  • Робертс, Джейкоб (2016). «Мыслительные машины: поиски искусственного интеллекта» . Дистилляции . 2 (2): 14–23. Архивировано из оригинала на 2018-08-19 . Проверено 22 марта 2018 .
  • Сайгин А.П .; Cicekli, I .; Akman, В. (2000), "Тест Тьюринга: 50 лет спустя" (PDF) , Minds и машины , 10 (4): 463-518, DOI : 10,1023 / A: 1011288000451 , ЛВП : 11693/24987 , архивируются с оригинал (PDF) на 2011-04-09 , извлекаться 2015-06-05. Перепечатано в Moor (2003 , стр. 23–78).
  • Серла, Джон (1980), "Умы, Мозги и программа" , поведенческие и мозг науки , 3 (3): 417-457, DOI : 10,1017 / S0140525X00005756 , извлекаются 2009-05-13
Номера страниц выше относятся к стандартной печати статьи в формате PDF . См. Также оригинальный черновик Сирла .
  • Сирл, Джон (1983), «Могут ли компьютеры думать?», В Chalmers, David (ed.), Philosophy of Mind: Classical and Contemporary Readings , Oxford: Oxford University Press, стр. 669–675, ISBN 978-0-19-514581-6
  • Сирл, Джон (1984), Умы, мозги и наука: лекции Рейта 1984 , издательство Гарвардского университета, ISBN 978-0-674-57631-5мягкая обложка: ISBN 0-674-57633-0 . 
  • Сирл, Джон (январь 1990a), "Является ли мозг компьютерной программой?", Scientific American , vol. 262 нет. 1, стр. 26–31, Bibcode : 1990SciAm.262a..26S , doi : 10.1038 / scientificamerican0190-26 , PMID  2294583
  • Сирл, Джон (ноябрь 1990b), "Является ли мозг цифровым компьютером?" , Proceedings and Addresses of the American Philosophical Association , 64 (3): 21–37, doi : 10.2307 / 3130074 , JSTOR  3130074 , заархивировано с оригинала на 14 ноября 2012 г.
  • Сирл, Джон (1992), Новое открытие разума , Кембридж, Массачусетс: MIT Press, ISBN 978-0-262-26113-5
  • Сирл, Джон (1999), Разум, язык и общество , Нью-Йорк, Нью-Йорк: Основные книги, ISBN 978-0-465-04521-1, OCLC  231867665
  • Сирл, Джон (1 ноября 2004 г.), Разум: краткое введение , Oxford University Press, Inc., ISBN 978-0-19-515733-8
  • Сирл, Джон (2002), Сознание и язык , Cambridge University Press, стр. 16, ISBN 978-0521597449
  • Серл, Джон (2009), "Китайский зал аргумент", Scholarpedia , 4 (8): 3100, Bibcode : 2009SchpJ ... 4.3100S , DOI : 10,4249 / scholarpedia.3100
  • Тьюринг, Алан (октябрь 1950 г.), «Вычислительные машины и интеллект», Mind , LIX (236): 433–460, DOI : 10.1093 / mind / LIX.236.433 , ISSN  0026-4423
Номера страниц выше относятся к стандартной печати статьи в формате PDF .
  • Уитмарш, Патрик (2016). « « Представьте, что вы - машина »: повествовательные системы в« Слепоте и эхопраксии » Питера Уоттса ». Научно-фантастические исследования . 43 (2): 237–259. DOI : 10.5621 / sciefictstud.43.2.0237 .
  • Йи, Ричард (1993), «Машины Тьюринга и обработка семантических символов: почему настоящие компьютеры не возражают против китайских императоров» (PDF) , Lyceum , 5 (1): 37–59
Номера страниц выше и содержание диаграмм относятся к распечатке статьи в PDF-формате Lyceum .

Дальнейшее чтение [ править ]

  • Общие представления аргумента:
    • «Аргумент китайской комнаты» . Интернет-энциклопедия философии .
    • Аргумент китайской комнаты . Стэнфордская энциклопедия философии
    • Понимание китайской комнаты , Марк Розенфельдер
  • Источники с участием Джона Сирла:
    • Аргумент китайской комнаты Джона Сирла в Scholarpedia
    • Аргумент «Китайская комната» , часть 4 из серии интервью с Searle Philosophy и «Привычки критического мышления в беседах с историей » от 2 сентября 1999 г.
    • Джон Р. Сирл , «То, что ваш компьютер не может знать» (обзор Лучано Флориди , Четвертая революция: как инфосфера меняет человеческую реальность , Oxford University Press, 2014; и Ник Бостром , Суперинтеллект: пути, опасности, стратегии , Oxford University Press, 2014), Нью-Йоркское обозрение книг , т. LXI, нет. 15 (9 октября 2014 г.), стр. 52–55.
  • Критика аргумента:
    • Опровержение «аргументации о китайской комнате» Джона Сирла , Боб Мерфи
    • Кугель, П. (2004). «Китайская комната - уловка». Поведенческие науки и науки о мозге . 27 . DOI : 10.1017 / S0140525X04210044 . S2CID  56032408 ., PDF на домашней странице автора , критический документ, основанный на предположении, что CR не может использовать свои входные данные (которые на китайском языке) для изменения своей программы (которая на английском языке).
    • Вольфрам Шмид (2004). "Разрушение китайской комнаты Сирла". arXiv : cs.AI/0403009 .
    • Джон Престон и Марк Бишоп, «Виды в китайскую комнату», Oxford University Press, 2002. Включает главы Джона Сёрла , Роджера Пенроуза , Стивена Харнада и Кевина Уорвика .
    • Маргарет Боден , «Побег из китайской комнаты», Cognitive Science Research Papers No. CSRP 092, University of Sussex, School of Cognitive Sciences, 1987, OCLC 19297071 , онлайн-PDF , «отрывок из главы» в неопубликованном на тот момент «Computer» Модели разума: вычислительные подходы в теоретической психологии », ISBN 0-521-24868-X (1988); перепечатано в Бодене (ред.) «Философия искусственного интеллекта» ISBN 0-19-824854-7 (1989) и ISBN 0-19-824855-5 (1990); Боден "Искусственный интеллект в психологии: междисциплинарные эссе" ISBN 0-262-02285-0     , MIT Press, 1989, глава 6; перепечатано в Heil, pp. 253–266 (1988) (возможно, с сокращениями); J. Heil (редактор) «Философия разума: руководство и антология», Oxford University Press, 2004, страницы 253–266 (та же версия, что и в «Искусственном интеллекте в психологии»)