Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В когнитивной науке и семантики , то символ заземления проблема касается того, как это , что слова ( символы вообще) получить их значения , [1] и , следовательно , тесно связана с проблемой того , что значит себя на самом деле. Проблема значения, в свою очередь, связана с проблемой осмысленности ментальных состояний , отсюда и с проблемой сознания : какова связь между определенными физическими системами и содержанием субъективных переживаний.

Фон [ править ]

Референты [ править ]

Готлоб Фреге различал референт (то, к чему относится слово) и значение слова. Это наиболее ярко иллюстрируется использованием собственных имен конкретных людей, но это также верно и для имен видов вещей и абстрактных свойств: (1) «Тони Блэр», (2) «премьер-министр Великобритании в течение года. 2004 »и (3)« Муж Чери Блэр »имеют один и тот же референт, но не одно и то же значение. [2]

Некоторые предположили, что значение (ссылающегося) слова - это правило или особенности, которые нужно использовать, чтобы успешно выбрать его референт. В этом отношении (2) и (3) приближаются к тому, чтобы носить свои значения на рукавах, потому что они явно устанавливают правило выбора своих референтов: «Найдите того, кто был премьер-министром Великобритании в 2004 году», или «Найди того, кто является нынешним мужем Чери». Но это не решает вопрос, потому что все еще остается проблема значения компонентов этого правила («Великобритания», «во время», «текущий», «PM», «Чери», «муж») и как чтобы выбрать их .

Фраза «Тони Блэр» (или, еще лучше, просто «Тони») не имеет этой проблемы с рекурсивным компонентом, потому что она указывает прямо на свой референт, но как? Если значение - это правило выбора референта, что это за правило, когда мы доходим до неразложимых компонентов, таких как собственные имена людей (или имена видов , например, «неженатый мужчина» - это «холостяк») ?

Ссылочный процесс [ править ]

Люди могут выбирать предполагаемые референты слов [ необходима цитата ] , например, «Тони Блэр» или «холостяк», но этот процесс не обязательно должен быть явным. Вероятно, необоснованное ожидание знать явное правило выбора предполагаемых референтов [ почему? ] .

Итак, если мы принимаем значение слова как средство выделения его референта, тогда значения находятся в нашем мозгу. Это значение в узком смысле. Если мы используем «значение» в более широком смысле, тогда мы можем сказать, что значения включают как сами референты, так и средства их выделения. Итак, если слово (скажем, «Тони-Блэр») находится внутри сущности (например, у вас самих), которая может использовать это слово и выбирать его референт, то широкое значение слова состоит из обоих средств, которые эта сущность использует для выбора из референта и самого референта: широкая причинно-следственная связь между (1) головой, (2) словом внутри нее, (3) объектом за ее пределами и (4) любой "обработкой", необходимой для успешного соедините внутреннее слово с внешним объектом.

Но что, если «сущность», в которой находится слово, - это не голова, а лист бумаги (или экран компьютера)? В чем тогда его смысл? Конечно, все (ссылающиеся) слова на этом экране, например, имеют значения, так же как и референты.

В XIX веке семиотик Чарльз Сандерс Пирс предложил то, что некоторые считают похожей моделью: согласно его триадической знаковой модели, значение требует (1) интерпретатора, (2) знака или репрезентации, (3) объекта и является (4) виртуальный продукт бесконечного регресса и прогресса, называемый Семиозисом . [3] Некоторые интерпретировали Пирса как обращение к проблеме заземления, чувств и интенциональности для понимания семиотических процессов. [4] В последние годы теория знаков Пирса была заново открыта все большим числом исследователей искусственного интеллекта в контексте проблемы заземления символов. [5]

Процесс заземления [ править ]

Не было бы никакой связи между письменными символами и любыми предполагаемыми референтами, если бы не было разумов, опосредующих эти намерения с помощью своих собственных внутренних средств выбора этих предполагаемых референтов. Таким образом, значение слова на странице является «необоснованным». И поиск этого слова в словаре не поможет: если кто-то попытается найти значение слова, которое он не понимает, в словаре языка, которого он еще не понимает, он просто будет бесконечно циклически переходить от одного бессмысленного определения к другому. Поиск смысла был бы необоснованным. В противоположность этому , смысл слов в головными этих слов своих один действительно понять, «заземлены» [ править ]. Это мысленное обоснование значений слов является посредником между словами на любой внешней странице, которую человек читает (и понимает), и внешними объектами, к которым эти слова относятся. [6] [7]

Требования к заземлению символа [ править ]

Другая система символов - естественный язык (Fodor 1975). На бумаге или в компьютере язык также представляет собой формальную систему символов, которой можно манипулировать с помощью правил, основанных на произвольных формах слов. Но в мозгу бессмысленные завитки превращаются в осмысленные мысли. Харнад предложил два свойства, которые могут потребоваться, чтобы изменить эту разницу:{{Citation needed}}

  • возможность подбирать референтов
  • сознание

Возможность выбора референтов [ править ]

Одно свойство мозга, которым не хватает статической бумаги или, как правило, даже динамического компьютера, - это способность выделять референты символов. Это то, что мы обсуждали ранее, и это то, что относится к до сих пор не определенному термину «заземление». Сама по себе система символов, статическая или динамическая, не может обладать этой способностью (как и книга), потому что выбор референтов - это не просто вычислительное (не зависящее от реализации) свойство; это динамическое (зависящее от реализации) свойство.

Чтобы быть обоснованной, система символов должна быть дополнена несимволическими сенсомоторными способностями - способностью автономно взаимодействовать с тем миром объектов, событий, действий, свойств и состояний, которые ее символы систематически интерпретируются (нами) как относящиеся к ним. Он должен быть в состоянии выбрать референты своих символов, а его сенсомоторные взаимодействия с миром должны согласованно согласовываться с интерпретациями символов.

Другими словами, символы должны быть напрямую связаны с их референтами (т. Е. Основаны на них); связь не должна зависеть только от связей, созданных мозгами внешних интерпретаторов, таких как мы. Сама по себе система символов без этой способности к прямому обоснованию не является жизнеспособным кандидатом на то, чтобы быть тем, что действительно происходит в нашем мозгу, когда мы думаем осмысленные мысли (Cangelosi & Harnad 2001).

Значение, как способность распознавать экземпляры (объектов) или выполнять действия, конкретно рассматривается в парадигме, называемой «процедурной семантикой», описанной в ряде статей, включая «процедурную семантику» Филипа Н. Джонсон-Лэрда [8] и расширенную Уильям А. Вудс в "Смысле и связях". [9] Краткое изложение в статье Вудса гласит: «Идея процедурной семантики состоит в том, что семантика предложений на естественном языке может быть охарактеризована в формализме, значения которого определяются абстрактными процедурами, которые компьютер (или человек) может либо выполнять, либо рассуждать о них. .В этой теории значение существительного - это процедура для распознавания или создания экземпляров, значение предложения - это процедура для определения, истинно оно или ложно, а значение действия - это способность совершать действие или совершать действия. скажите, было ли это сделано ".

Сознание [ править ]

Другими словами, необходимость заземления переводит нас с уровня теста Тьюринга по переписке , который является чисто символическим (вычислительным), к роботизированному тесту Тьюринга, который является гибридным символическим / сенсомоторным (Harnad 2000, 2007). Смысл основан на способности роботов обнаруживать, классифицировать, идентифицировать и действовать в соответствии с вещами, к которым относятся слова и предложения (см. Статьи о возможностях и категориальном восприятии).). С другой стороны, если символы (слова и предложения) относятся к самым разрядам «0» и «1», напрямую связанным с их электронными реализациями, которыми (любая?) Компьютерная система может легко манипулировать (таким образом обнаруживать, классифицировать , идентифицировать и действовать), то даже не роботизированные компьютерные системы можно назвать «сенсомоторными» и, следовательно, способными «заземлять» символы в этой узкой области.

Категоризировать это сделать правильно с правильным видом вещи. Классификатор должен уметь обнаруживать сенсомоторные особенности членов категории, которые надежно отличают их от других. Эти детекторы признаков должны быть либо врожденными, либо усвоенными. Обучение может быть основано на индукции проб и ошибок, руководствуясь обратной связью с последствиями правильной и неправильной категоризации; или, у наших лингвистических видов, обучение также может быть основано на словесных описаниях или определениях. Однако описание или определение новой категории может передать категорию и обосновать ее название только в том случае, если слова в определении сами являются уже обоснованными названиями категорий (Blondin-Massé et al. 2008). Так что в конечном итоге заземление должно быть сенсомоторным, чтобы избежать бесконечного регресса (Harnad 2005).

Но если заземленность - необходимое условие для смысла, достаточно ли ее? Не обязательно, поскольку вполне возможно, что даже робот, который мог бы пройти тест Тьюринга, «живущий» среди всех нас неотличимо всю жизнь, не имел бы в своей голове того, что есть у Сирла: это может быть p- зомби , бездомный, чувствующий чувства, смысловые значения (Harnad 1995). Однако возможно, что разные интерпретаторы (включая разные разумные виды животных) будут иметь разные механизмы для создания смысла в своих системах, поэтому нельзя требовать, чтобы система, отличная от человека, «воспринимала» значение так же, как и человек. , и наоборот.

Таким образом, Харнад указывает на сознание как на второе свойство. Проблема открытия причинного механизма для успешного выбора референта названия категории в принципе может быть решена когнитивной наукой. Но проблема объяснения того, как сознание могло играть «независимую» роль в этом, вероятно, неразрешима, кроме как под угрозой телекинетического дуализма . Возможно, заземления символа (т. Е. Возможности роботизированного TT) достаточно, чтобы гарантировать наличие осознанного значения, но, опять же, возможно, нет. В любом случае мы никак не можем надеяться стать мудрее - и в этом заключается методологическая точка зрения Тьюринга (Harnad 2001b, 2003, 2006).

Формулировка [ править ]

Чтобы ответить на этот вопрос, мы должны сформулировать саму проблему заземления символа (Harnad 1990) :

Функционализм [ править ]

Существует школа мысли, согласно которой компьютер больше похож на мозг - или, скорее, мозг больше похож на компьютер: согласно этой точке зрения (называемой « вычислительным », разновидностью функционализма ), теория будущего объясняет, как мозг выбирает своих референтов (теория, к которой со временем может прийти когнитивная нейробиология) будет чисто вычислительной (Пилишин, 1984). Вычислительная теория - это теория на уровне программного обеспечения. По сути, это компьютерный алгоритм: набор правил манипулирования символами. И алгоритм не зависит от реализации. Это означает, что что бы ни делал алгоритм, он будет делать то же самое, независимо от того, на каком оборудовании он выполняется. Физические детали динамической системывыполнение вычислений не имеет отношения к самому вычислению, которое носит чисто формальный характер; подойдет любое оборудование, которое может выполнять вычисления, и все физические реализации этого конкретного компьютерного алгоритма эквивалентны в вычислительном отношении.

Компьютер может выполнять любые вычисления. Следовательно, как только вычислитель найдет правильный компьютерный алгоритм, тот, который наш мозг мог бы запустить, когда в наших головах возникает смысл, это значение будет проявляться и в этом компьютере, когда он реализует этот алгоритм.

Как мы узнаем, что у нас есть правильный компьютерный алгоритм? Он должен пройти тест Тьюринга . Это означает, что он должен быть способен переписываться с любым человеком по переписке на всю жизнь, при этом никоим образом не отличаясь от настоящего человеческого друга по переписке.

Аргумент Сирла о китайской комнате [ править ]

Джон Сирл сформулировал « аргумент о китайской комнате », чтобы опровергнуть вычислительный подход [ необходима цитата ] . Аргумент китайской комнаты основан на мысленном эксперименте: в нем Сирл заявил, что если бы тест Тьюринга проводился на китайском языке, то он сам, Сирл (который не понимает китайский язык), мог бы выполнить программу, реализующую тот же алгоритм, что и компьютер использовал, не зная, что означают слова, которыми он манипулировал.

На первый взгляд может показаться, что если в голове Сирла не происходит никакого смысла, когда он реализует эту программу, то нет никакого смысла в том, что происходит внутри компьютера, когда он также реализует алгоритм, поскольку вычисления не зависят от реализации. Но при более внимательном рассмотрении, чтобы человек мог выполнить ту же программу, что и компьютер, по крайней мере, он должен иметь доступ к тому же банку памяти, что и компьютер (скорее всего, хранящемуся извне). Это означает, что новая вычислительная система, которая выполняет тот же алгоритм, больше не является просто исходной головой Сирла, но плюс банк памяти (и, возможно, другие устройства). В частности, эта дополнительная память может хранить цифровое представление предполагаемого референта различных слов (например, изображений, звуков и даже видеопоследовательностей),что алгоритм будет использовать в качестве модели и для получения функций, связанных с предполагаемым референтом. Таким образом, "смысл" следует искать не только в исходном мозгу Сирла, но и во всей системе, необходимой для обработки алгоритма. (Точно так же, как когда Сирл читает английские слова, значение не должно располагаться в отдельных логических областях мозга, а, вероятно, во всем мозге, вероятно, включая определенные области долговременной памяти). Таким образом, то, что Сирл не воспринимает никакого смысла только в своей голове при моделировании работы компьютера, не означает отсутствия смысла во всей системе и, следовательно, в реальной компьютерной системе, проходящей расширенный тест Тьюринга.то его следует искать не только в исходном мозгу Сирла, но и во всей системе, необходимой для обработки алгоритма. (Точно так же, как когда Сирл читает английские слова, значение не должно располагаться в отдельных логических областях мозга, а, вероятно, во всем мозге, вероятно, включая определенные области долгосрочной памяти). Таким образом, то, что Сирл не воспринимает никакого смысла только в своей голове при моделировании работы компьютера, не означает отсутствия смысла во всей системе и, следовательно, в реальной компьютерной системе, проходящей расширенный тест Тьюринга.то его следует искать не только в исходном мозгу Сирла, но и во всей системе, необходимой для обработки алгоритма. (Точно так же, как когда Сирл читает английские слова, значение не должно располагаться в отдельных логических областях мозга, а, вероятно, во всем мозге, вероятно, включая определенные области долговременной памяти). Таким образом, то, что Сирл не воспринимает никакого смысла только в своей голове при моделировании работы компьютера, не означает отсутствия смысла во всей системе и, следовательно, в реальной компьютерной системе, проходящей расширенный тест Тьюринга.вероятно, включая определенные области долговременной памяти). Таким образом, то, что Сирл не воспринимает никакого смысла только в своей голове при моделировании работы компьютера, не означает отсутствия смысла во всей системе и, следовательно, в реальной компьютерной системе, проходящей расширенный тест Тьюринга.вероятно, включая определенные области долговременной памяти). Таким образом, то, что Сирл не воспринимает никакого смысла только в своей голове при моделировании работы компьютера, не означает отсутствия смысла во всей системе и, следовательно, в реальной компьютерной системе, проходящей расширенный тест Тьюринга.

Последствия [ править ]

Откуда Сирл знает, что в его голове нет никакого смысла, когда он выполняет такую ​​программу прохождения теста Тьюринга? Точно так же он узнает, есть или нет смысл в его голове при любых других условиях: он понимаетслова английского языка, тогда как китайские символы, которыми он манипулирует в соответствии с правилами алгоритма, ничего для него не значат (и в его голове нет никого, для кого они могли бы что-то значить). Однако полная система, которая манипулирует этими китайскими символами - а это не просто мозг Сирла, как объяснялось в предыдущем разделе - может иметь способность извлекать значение из этих символов в смысле возможности использовать внутренние модели (модели памяти). предполагаемых референтов, выбрать предполагаемые референты этих символов и, как правило, идентифицировать и использовать их особенности надлежащим образом.

Обратите внимание: указав на то, что китайские слова были бы для него бессмысленными в таких условиях, Сирл обратился к сознанию. В противном случае можно было бы возразить, что в этих условиях в голове Сирла был бы смысл, но сам Сирл просто не осознавал бы этого. Это называется «системным ответом» на аргумент Сирла о китайской комнате, и Сирл отвергает системный ответ как просто повторение, несмотря на отрицательные свидетельства, самого тезиса (вычислительного подхода), который подвергается испытанию в его мысленном эксперименте: «Являются ли слова в текущем вычислении подобными необоснованным словам на странице, бессмысленными без посредничества мозга, или они подобны заземленным словам в мозгу?»

В этом вопросе «или / или» (все еще не определенное) слово «необоснованный» неявно опирается на разницу между инертными словами на странице и сознательно значимыми словами в нашей голове. И Сирл утверждает, что в этих условиях (китайский тест Тьюринга) слова в его голове не будут иметь осознанного смысла, следовательно, они все равно будут такими же необоснованными, как инертные слова на странице.

Итак, если Сирл прав, то (1) как слова на странице, так и слова в любой работающей компьютерной программе (включая компьютерную программу, проходящую тест Тьюринга) сами по себе бессмысленны, и, следовательно, (2) что бы это ни было То, что мозг делает для генерации смысла, не может быть просто вычислением, независимым от реализации, тогда что же мозг делает для генерации смысла (Harnad 2001a) ?

Понятие интенциональности Брентано [ править ]

« Интенциональность » была названа «признаком ментального» из-за некоторых наблюдений философа Брентано о том, что ментальные состояния всегда имеют врожденный, предполагаемый (ментальный) объект или содержание, на которое они «направлены»: человек что-то видит , чего-то хочет, во что-то верит, чего-то желает, что-то понимает, что-то значит и т. д., и этот объект всегда является чем-то, что каждый имеет в виду. Наличие ментального объекта - это часть наличия чего-либо в уме. Следовательно, это признак ментального. Не существует «свободно плавающих» ментальных состояний, у которых также нет ментального объекта. Даже у галлюцинаций и воображений есть объект, и даже чувство депрессии похоже на что-то. Также объект не является «внешним» физическим объектом, когда он есть. Можно увидеть настоящий стул, но «намеренный» объект «интенционального состояния» - это мысленный стул, который он имеет в виду. (Еще один термин для интенциональности был «aboutness» или «representationality»: мысли всегда о чем - то, что они (ментальные) «представления» о чем - то, но что - то, что это такое , что мыслитель имеет в виду, не какой-либо внешний объект может или не может соответствовать ему.)

Если все это звучит как бег по поверхности проблемы, а не реальный прорыв, то вышеприведенное описание имело ожидаемый эффект: нет, проблема преднамеренности - это не проблема заземления символа; и заземляющие символы не являются решением проблемы преднамеренности. Символы внутри автономной динамической системы символов, которая способна пройти роботизированный тест Тьюринга, обоснованы тем, что, в отличие от случая незаземленной системы символов, они не зависят от посредничества разума внешнего интерпретатора, чтобы связать их. к внешним объектам, что они интерпретируются (интерпретатором) как «около»; связь является автономной, прямой и неопосредованной. Но заземление не имеет значения. Заземление - это функция производительности ввода / вывода. Заземление связывает сенсорные входы от внешних объектов с внутренними символами и состояниями, происходящими в автономной сенсомоторной системе, управляя результирующей обработкой и выводом системы.

Смысл, напротив, является чем-то ментальным. Но чтобы попытаться положить конец игре в имена, в которой увеличиваются необъяснимые синонимы для проблемы разума / тела, не решая ее (или, что еще хуже, подразумевая, что существует более одной проблемы разума / тела), позвольте нам процитировать еще одну вещь. что не требует дальнейшего объяснения: чувство . Единственное, что отличает внутреннее состояние, имеющее лишь основание, от состояния, имеющего значение, - это то, что оно кажется чем-то подобным.находиться в значимом состоянии, в то время как это не похоже на то, чтобы быть в просто заземленном функциональном состоянии. Заземление - дело функциональное; чувство - дело войлока. И это реальный источник раздражающих взглядов Брентано между «интенциональностью» и ее внутренним «интенциональным объектом»: все ментальные состояния, помимо того, что являются функциональными состояниями автономной динамической системы, также являются состояниями чувств: чувства - это не просто " функционирует, как и все другие физические состояния; чувства тоже ощущаются.

Следовательно, чувство ( чувствительность ) - настоящий признак ментального. Но проблема заземления символа - это не то же самое, что проблема разума / тела, не говоря уже о ее решении. Проблема разума / тела на самом деле является проблемой чувства / функции: заземление символа затрагивает только его функциональный компонент. Это не умаляет важности проблемы заземления символа, а просто отражает то, что это краеугольный камень более крупной головоломки, называемой разумом.

Нейробиолог Антонио Дамасио исследует эту функцию маркировки чувств и эмоций в своей гипотезе соматических маркеров . Дамасио добавляет понятие биологического гомеостаза.к этому обсуждению, представив его как автоматизированный процесс телесной регуляции, обеспечивающий интенциональность уму через эмоции. Гомеостаз - это механизм, который поддерживает здоровый баланс всех процессов в организме. Все наши действия и восприятия будут автоматически «оцениваться» аппаратными средствами нашего тела в соответствии с их вкладом в гомеостаз. Это дает нам неявное представление о том, как выжить. Такие телесные или соматические оценки могут приходить нам в голову в форме сознательных и бессознательных чувств («интуитивных чувств») и руководить нашим процессом принятия решений. Значение слова можно приблизительно концептуализировать как сумму его ассоциаций и их ожидаемого вклада в гомеостаз, где ассоциации являются реконструкциями сенсомоторных восприятий, которые возникли рядом со словом. Еще,Гипотеза соматического маркера все еще горячо обсуждается, и критики утверждают, что она не смогла четко продемонстрировать, как эти процессы взаимодействуют на психологическом и эволюционном уровне. Повторяющийся вопрос, на который не отвечает гипотеза соматических маркеров, остается: как и почему гомеостаз (как и в любом другом случае)сервомеханизм типа терморегулятора и печи) стал ощущаться гомеостаз?

См. Также [ править ]

Заметки [ править ]

  1. ^ Фогт, Пол. « Эволюция языка и робототехника: вопросы по основанию символов и овладению языком ». Системы искусственного познания. IGI Global, 2007. 176–209.
  2. ^ Хотя эта статья частично опирается на точку зрения Фреге на семантику, она имеет очень антифрежевскую позицию. Фреге был яростным критиком психологических концепций, которые пытались объяснить смысл в терминах психических состояний.
  3. ^ Пирс, Чарльз С. Философия Пирса: избранные сочинения. Нью-Йорк: AMS Press, 1978.
  4. ^ Семейоз и намерение TL Короткие транзакции Общества Чарльза С. Пирса Vol. 17, № 3 (лето, 1981), стр. 197–223.
  5. ^ К. С. Пирс и искусственный интеллект: историческое наследие и (новые) теоретические ставки; Пьер Штайнер; САПЕРЕ - Специальный выпуск по философии и теории искусственного интеллекта 5: 265–276 (2013)
  6. ^ Это причинная , контекстуальная теория референции, которую Огден и Ричардс изложили в книге «Значение смысла» (1923).
  7. ^ Ср. семантический экстернализм, как утверждается в «Смысле« значения » разума, языка и реальности» (1975) Патнэма, который утверждает: «Значения просто не в голове». Теперь он и Даммит, кажется, отдают предпочтение антиреализму в пользу интуиционизма , психологизма , конструктивизма и контекстуализма .
  8. ^ Филип Н. Джонсон-Лэрд "Процедурная семантика" (Cognition, 5 (1977) 189; см. Http://www.nyu.edu/gsas/dept/philo/courses/mindsandmachines/Papers/procedural.pdf )
  9. ^ Уильям А. Вудс. «Смысл и ссылки» (Журнал AI, том 28, номер 4 (2007); см. Http://www.aaai.org/ojs/index.php/aimagazine/article/view/2069/2056 )

Ссылки [ править ]

Примечание. Эта статья основана на записи, первоначально опубликованной в Энциклопедии когнитивной науки Nature / Macmillan, которая с тех пор была отредактирована автором и сообществом Википедии.
  • Blondin Masse, A, G. Chicoisne, Y. Gargouri, S. Harnad, O. Picard, O. Marcotte (2008) Как смысл основан на словарных определениях? Семинар TextGraphs-3, 22-я Международная конференция по компьютерной лингвистике, Coling 2008 , Манчестер, 18–22 августа 2008 г.
  • Кангелози, А. и Харнад, С. (2001) . Адаптивное преимущество символической кражи над сенсомоторным трудом: обоснование языка в категориях восприятия. Эволюция коммуникации 4 (1) 117–142.
  • Cangelosi, A .; Греко, А .; Харнад, С. От роботов до символического воровства: переход от начального уровня к более высокоуровневым категориям. Наука о соединении 12 (2) 143–62.
  • Фодор, JA (1975) Язык мысли . Нью-Йорк: Томас Ю. Кроуэлл
  • Фреге, Г. (1952/1892). По смыслу и ссылке. В П. Гич и М. Блэк, ред., « Переводы философских сочинений Готлоба Фреге» . Оксфорд: Блэквелл
  • Харнад, С. (1990) Проблема заземления символа. Physica D 42: 335–346.
  • Харнад, С. (1992) Есть только одна проблема разума / тела . Симпозиум по восприятию интенциональности, XXV Всемирный психологический конгресс, Брюссель, Бельгия, июль 1992 г. Международный журнал психологии 27: 521
  • Харнад, С. (1994) Вычисления - это просто интерпретируемая манипуляция символами: познание - нет. Minds and Machines 4: 379–390 (специальный выпуск «Что такое вычисления»)
  • Харнад, С. (1995) Почему и как мы не зомби. Журнал исследований сознания 1: 164–167.
  • Харнад, С. (2000) Умы, машины и Тьюринг: неразличимость неразличимых . Журнал логики, языка и информации 9 (4): 425–445. (Специальный выпуск «Алан Тьюринг и искусственный интеллект»)
  • Harnad, S. (2001a) Minds, Machines and Searle II: Что не так и правильно в аргументе Сирла о китайской комнате? В: М. Бишоп и Дж. Престон (ред.) Очерки аргументации Сирла о китайской комнате . Издательство Оксфордского университета.
  • Харнад, С. (2001b) Нет простого выхода. Наук 41 (2) 36–42.
  • Харнад, Стеван (2001a) Объясняя разум: проблемы, проблемы . The Sciences 41: 36–42.
  • Харнад, Стеван (2001b) Проблема разума / тела - это проблема чувств / функций: Харнад на Деннет на Чалмерсе . Технический отчет. Кафедра электроники и компьютерных наук. Саутгемптонский университет.
  • Харнад, С. (2003) Может ли машина быть сознательной? Как?. Журнал исследований сознания 10 (4–5): 69–75.
  • Harnad, S. (2005) Познать - значит категоризировать: Познание - это категоризация. в Lefebvre, C. и Cohen, H., Eds. Справочник по категоризации . Эльзевир.
  • Харнад, С. (2007) Игра с аннотациями: О Тьюринге (1950) о вычислениях, машинах и интеллекте. В: Эпштейн, Роберт и Петерс, Грейс (ред.) Справочник по тесту Тьюринга: философские и методологические вопросы в поисках мыслящего компьютера . Kluwer
  • Харнад, С. (2006) Сожительство: вычисление в 70 лет Познание в 20 лет. In Dedrick, D., Eds. Очерки в честь Зенона Пилишина .
  • МакДорман, Карл Ф. (1999). Символы заземления благодаря интеграции сенсомотора. Журнал Общества робототехники Японии, 17 (1), 20–24. Онлайн-версия
  • МакДорман, Карл Ф. (2007). Жизнь после метафоры символической системы. Исследования взаимодействия, 8 (1), 143–158. Онлайн-версия
  • Пилишин, З.В. (1984) Вычисление и познание . Кембридж MA: Массачусетский технологический институт / Брэдфорд
  • Сирл, Джон. Р. (1980) Умы, мозги и программы. Поведенческие науки и науки о мозге 3 (3): 417–457
  • Таддео, Мариаросария и Флориди, Лучано (2005). Проблема заземления символа: критический обзор пятнадцатилетних исследований. Журнал экспериментального и теоретического искусственного интеллекта , 17 (4), 419–445. Онлайн-версия
  • Тьюринг, AM (1950) Вычислительные машины и интеллект. Mind 49 433–460 [Перепечатано в Minds and machines . А. Андерсон (редактор), Engelwood Cliffs NJ: Prentice Hall, 1964.]