Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Суперинтеллект гипотетический агент , который обладает интеллектом намного превосходящим , что из самых ярких и самых одаренных умов человека. «Суперинтеллект» может также относиться к свойству систем решения проблем (например, сверхразумных переводчиков или инженеров), независимо от того, воплощены ли эти интеллектуальные компетенции высокого уровня в агентах, действующих в мире. Сверхразум может быть создан или не создан взрывом интеллекта и связан с технологической сингулярностью .

Философ из Оксфордского университета Ник Бостром определяет суперинтеллект как «любой интеллект, который значительно превосходит когнитивные способности человека практически во всех областях, представляющих интерес». [1] Программа Фриц не обладает суперинтеллектом - хотя она намного лучше людей в шахматах - потому что Фриц не может превзойти людей в других задачах. [2] Вслед за Хаттером и Леггом Бостром рассматривает суперинтеллект как общее доминирование над целенаправленным поведением, оставляя открытым вопрос о том, будет ли искусственный или человеческий суперинтеллект обладать такими способностями, как интенциональность (см. Аргумент о китайской комнате ) или сознание от первого лица.( Ср на жесткую проблему сознания ).

Исследователи-технологи расходятся во мнениях относительно того, насколько вероятно превзойти современный человеческий интеллект . Некоторые утверждают, что успехи в области искусственного интеллекта (ИИ), вероятно, приведут к созданию систем общего мышления, лишенных человеческих когнитивных ограничений. Другие считают, что люди будут развиваться или напрямую изменять свою биологию, чтобы достичь радикально большего интеллекта. Ряд сценариев исследований будущего объединяют элементы обеих этих возможностей, предполагая, что люди, вероятно, будут взаимодействовать с компьютерами или загружать свои мысли в компьютеры таким образом, чтобы обеспечить существенное усиление интеллекта.

Некоторые исследователи полагают, что суперинтеллект, скорее всего, появится вскоре после создания общего искусственного интеллекта . Первые в целом разумные машины, вероятно, сразу же будут обладать огромным преимуществом по крайней мере в некоторых формах умственных способностей, включая способность совершенного вспоминания , значительно превосходящую базу знаний и способность выполнять многозадачность способами, недоступными для биологических сущностей. Это может дать им возможность - либо как отдельное существо, либо как новый вид - стать гораздо более могущественными, чем люди, и вытеснить их. [1]

Ряд ученых и прогнозистов выступают за то, чтобы в первую очередь исследовать возможные преимущества и риски улучшения когнитивных функций человека и машины из-за потенциального социального воздействия таких технологий. [3]

Возможность искусственного суперинтеллекта [ править ]

Прогресс в машинной классификации изображений
Уровень ошибок ИИ по годам. Красная линия - частота ошибок обученного человека

Философ Дэвид Чалмерс утверждает, что общий искусственный интеллект - очень вероятный путь к сверхчеловеческому интеллекту. Чалмерс разбивает это утверждение на аргумент о том, что ИИ может достичь эквивалентности человеческого интеллекта, что его можно расширить, чтобы превзойти человеческий интеллект, и что его можно еще больше усилить, чтобы полностью доминировать над людьми в произвольных задачах. [4]

Что касается эквивалентности на человеческом уровне, Чалмерс утверждает, что человеческий мозг - это механическая система, и поэтому он должен быть эмулирован синтетическими материалами. [5] Он также отмечает, что человеческий интеллект смог эволюционировать биологически, что повысило вероятность того, что инженеры-люди смогут повторить это изобретение. В частности, эволюционные алгоритмы должны уметь создавать ИИ человеческого уровня. [6] Что касается расширения и усиления интеллекта, Чалмерс утверждает, что новые технологии искусственного интеллекта в целом можно улучшить, и что это особенно вероятно, когда изобретение может помочь в разработке новых технологий. [7]

Если бы исследования сильного ИИ позволили создать достаточно интеллектуальное программное обеспечение, оно могло бы перепрограммироваться и улучшать себя - функция, называемая «рекурсивное самосовершенствование». Тогда он мог бы даже лучше совершенствоваться и мог бы продолжать делать это в быстро растущем цикле, что привело бы к сверхразуму. Этот сценарий известен как интеллектуальный взрыв . Такой разум не будет иметь ограничений человеческого интеллекта и может изобрести или открыть почти все.

Компоненты компьютеров уже значительно превосходят по скорости человеческие возможности. Бостром пишет: «Биологические нейроны работают с пиковой скоростью около 200 Гц, что на целых семь порядков медленнее, чем современный микропроцессор (~ 2 ГГц)». [8] Более того, нейроны передают спайковые сигналы через аксоны со скоростью не более 120 м / с, «тогда как существующие ядра электронной обработки могут оптически общаться со скоростью света». Таким образом, простейшим примером суперинтеллекта может быть эмулированный человеческий разум, работающий на гораздо более быстром оборудовании, чем мозг. Человекоподобный рассуждающий, который может мыслить в миллионы раз быстрее, чем современные люди, будет иметь доминирующее преимущество в большинстве задач по рассуждению, особенно тех, которые требуют поспешности или длинных цепочек действий.

Еще одно преимущество компьютеров - модульность, то есть их размер или вычислительная мощность могут быть увеличены. Нечеловеческий (или модифицированный человеческий) мозг мог бы стать намного больше современного человеческого мозга, как и многие суперкомпьютеры . Бостром также поднимает возможность коллективного суперинтеллекта : достаточно большое количество отдельных систем рассуждений, если они достаточно хорошо взаимодействуют и координируются, могут действовать в совокупности с гораздо большими возможностями, чем любой субагент.

Также могут быть способы качественно улучшить человеческое мышление и процесс принятия решений. Кажется, что люди больше отличаются от шимпанзе способом мышления, чем размером мозга или скоростью. [9] Люди превосходят животных, не являющихся людьми, во многом благодаря новым или улучшенным способностям к рассуждению, таким как долгосрочное планирование и использование языка . (См. Эволюцию человеческого интеллекта и познания приматов .) Если есть другие возможные усовершенствования рассуждений, которые окажут такое же большое влияние, это повысит вероятность создания агента, который превосходит людей так же, как люди превосходят шимпанзе. [10]

Все вышеперечисленные преимущества справедливы для искусственного суперинтеллекта, но неясно, сколько из них справедливо для биологического суперинтеллекта. Физиологические ограничения ограничивают скорость и размер биологического мозга во многих отношениях, которые неприменимы к машинному интеллекту. Таким образом, писатели о суперинтеллекте уделили гораздо больше внимания сценариям сверхразумного ИИ. [11]

Возможность биологического суперинтеллекта [ править ]

Эволюция скорости реакции в ноогенезе . [12] В одноклеточном организме - скорость движения ионов через мембрану ~ м / с, воды через мембрану м / с, внутриклеточной жидкости (цитоплазмы) м / с; Внутри многоклеточного организма - скорость крови по сосудам ~ 0,05 м / с, импульс по нервным волокнам ~ 100 м / с; У населения ( человечества ) - коммуникации: звук (голос и звук) ~ 300 м / с, квантово-электронный ~ м / с (скорость радиоэлектромагнитных волн, электрического тока, света, оптики, телекоммуникаций).
Эволюция количества компонентов в интеллектуальных системах. [13] - число нейронов в головном мозге во время индивидуального развития ( онтогенеза ), B - число людей , ( эволюции в популяции человечества), C - число нейронов в нервной системе организмов в процессе эволюции ( филогенеза ).
Эволюция количества подключений интеллектуальных систем. [14] A - количество синапсов между нейронами в процессе индивидуального развития (онтогенеза) интеллектуальной системы человеческого мозга, B - количество связей между людьми в динамике роста популяции человека, C - количество синапсов между нейронами в историческое эволюционное развитие (филогенез) нервной системы до мозга человека.
Возникновение и эволюция информационных взаимодействий внутри популяций Человечества [13] A - человеческое население мира → 7 миллиардов; Б - количество грамотных ; C - количество прочитанных книг (с началом печати ); D - количество приемников (радио, ТВ); E - количество телефонов, компьютеров, интернет-пользователей

Карл Саган предположил, что появление кесарева сечения и экстракорпорального оплодотворения может позволить людям развить более крупные головы, что приведет к улучшениям посредством естественного отбора в наследуемом компоненте человеческого интеллекта . [15] Напротив, Джеральд Крэбтри утверждал, что снижение давления отбора приводит к медленному, многовековому снижению человеческого интеллекта , и что этот процесс, скорее всего, будет продолжаться и в будущем. Нет научного консенсуса относительно любой возможности, и в обоих случаях биологические изменения будут медленными, особенно по сравнению с темпами культурных изменений.

Селективное разведение , ноотропы , NSI-189 , MAOI , эпигенетическая модуляция и генная инженерия могут быстрее улучшить человеческий интеллект. Бостром пишет, что если мы придем к пониманию генетической составляющей интеллекта, предимплантационная генетическая диагностика может быть использована для отбора эмбрионов с повышением IQ до 4 баллов (если один эмбрион выбран из двух) или с большим приростом. (например, до 24,3 балла IQ получено, если один эмбрион выбран из 1000). Если этот процесс повторяется на протяжении многих поколений, выигрыш может быть на порядок больше. Бостром предполагает, что получение новых гамет из эмбриональных стволовых клеток может быть использовано для очень быстрой итерации процесса отбора.[16] Хорошо организованное общество таких людей с высоким интеллектом потенциально могло бы достичь коллективного сверхразума. [17]

В качестве альтернативы, коллективный разум можно создать, лучше организовав людей на нынешнем уровне индивидуального интеллекта. Ряд авторов предположили, что человеческая цивилизация или некоторые ее аспекты (например, Интернет или экономика) начинают функционировать как глобальный мозг с возможностями, намного превышающими его составляющие агенты. Однако, если этот системный суперинтеллект в значительной степени полагается на искусственные компоненты, его можно квалифицировать как ИИ, а не как биологический суперорганизм . [18] рынок предсказания иногда рассматривается как пример работы системы коллективной разведки, состоящая только из людей (предполагающие алгоритмы не используются для обоснования решений). [19]

Последним методом усиления интеллекта могло бы стать прямое улучшение отдельных людей, в отличие от улучшения их социальной или репродуктивной динамики. Это может быть достигнуто с помощью ноотропов , соматической генной терапии или интерфейсов мозг-компьютер . Однако Бостром скептически относится к масштабируемости первых двух подходов и утверждает, что разработка сверхразумного интерфейса киборга - это проблема, связанная с искусственным интеллектом . [20]

Эволюция с возможной интеграцией NI, IT и AI [ править ]

В 2005 г. Алексей Ерёмин в монографии «Ноогенез и теория интеллекта» [13] предложил новую концепцию ноогенеза в понимании эволюции интеллектуальных систем. Эволюция интеллектуальных способностей может происходить при одновременном участии естественного (биологического) интеллекта (НИ), современных достижений в области информационных технологий (ИТ) и будущих научных достижений в области искусственного интеллекта (ИИ).

Эволюция скорости взаимодействия между компонентами интеллектуальных систем [ править ]

Первым человеком, измерившим скорость (в диапазоне 24,6 - 38,4 метра в секунду), с которой сигнал проходит по нервному волокну в 1849 году, был Гельмгольц . [21] [22] На сегодняшний день измеренные скорости нервной проводимости составляют 0,5 - 120 м / с. Скорость звука и скорость света были определены ранее в XVII веке. К XXI веку стало ясно, что они определяют в основном скорости физических сигналов-носителей информации, между интеллектуальными системами и их компонентами: звук (голос и звук) ~ 300 м / с, квантово-электронный ~ м / с (скорость радиоэлектромагнитных волн, электрического тока, световых, оптических, телекоммуникационных).

Эволюция компонентов интеллектуальных систем [ править ]

В 1906 году получивший всеобщее признание нейрон был открыт Сантьяго Рамоном-и-Кахалем , и доктрина нейронов состоит в том, что нервная система состоит из дискретных отдельных клеток. [23] По современным данным, в головном мозге H. sapiens в процессе онтогенеза и филогенеза взрослого человека насчитывается 86 миллиардов нейронов. [24]

В процессе эволюции количество людей увеличивается с двух первенцев до примерно 70 миллионов человек (двадцатый век до нашей эры), примерно 300 миллионов (в начале первого века нашей эры), примерно до одного миллиарда (в 30-е годы нашей эры). двадцатый век нашей эры), 6 миллиардов в конце двадцатого века, 7,7 миллиарда - нынешнее население мира . Согласно математическим моделям Сергея Капицы , количество человечества может достигнуть 12,5 - 14 миллиардов в XXI-XXII веках. [13]

Эволюция связей между компонентами интеллектуальных систем [ править ]

Синапс - от греческого синапсиса (συνάψις), что означает «соединение», в свою очередь от συνάπτεὶν (συν («вместе») и ἅπτειν («крепить»)) - был введен в 1897 году Чарльзом Шеррингтоном . [25] Актуальность измерений в этом направлении подтверждается как современными комплексными исследованиями сотрудничества, так и связями информации, генетическими и культурными, [26] из-за структур на нейрональном уровне мозга, [27] и важности сотрудничества в развитии цивилизации. В связи с этим А.Л. Ерёмин проанализировал известные данные об эволюции количества связей для взаимодействия в интеллектуальных системах. [14]Связи, контакты между биологическими объектами, можно считать появившимися в многоклеточности ~ 3–3,5 миллиарда лет назад. [28] Система высокоскоростных соединений специализированных клеток, передающих информацию с помощью электрических сигналов, нервная система, за всю историю жизни появилась только в одной крупной эволюционной ветви: у многоклеточных животных ( Metazoa ) и появилась в эдиакарский период. (около 635-542 миллионов лет назад). [29] В ходе эволюции (филогении) количество связей между нейронами увеличилось с одного до ~ 7000 синоптических связей каждого нейрона с другими нейронами в мозге человека. Было подсчитано, что мозг трехлетнего ребенка имеет околосинапсов (1 квадриллион). В индивидуальном развитии (онтогенезе) количество синапсов с возрастом уменьшается до ~ . [30] По другим данным, оценочное количество неокортикальных синапсов в мужском и женском мозге уменьшается в течение жизни человека с ~ до ~ . [31]

Количество человеческих контактов трудно подсчитать, но « число Данбара » ~ 150 устойчивых человеческих связей с другими людьми зафиксировано в науке, предполагаемый когнитивный предел количества людей, с которыми можно поддерживать стабильные социальные отношения, [ 32], по данным других авторов - диапазон 100–290. В мозге были выявлены структуры, отвечающие за социальное взаимодействие. [33] С появлением Homo sapiens ~ 50-300 тысяч лет назад актуальность сотрудничества, его эволюция в человеческой популяции, возросла количественно. Если 2000 лет назад на Земле было 0,1 миллиарда человек, 100 лет назад - 1 миллиард, то к середине ХХ века - 3 миллиарда, [13]и к настоящему времени человечество - 7,7 миллиарда. Таким образом, общее количество «устойчивых связей» между людьми, социальных отношений внутри населения можно оценить числом ~ » . [14]

Прогнозы [ править ]

Большинство опрошенных исследователей ИИ ожидают, что машины в конечном итоге смогут соперничать с людьми по уровню интеллекта, хотя нет единого мнения о том, когда это, вероятно, произойдет. На конференции AI @ 50 2006 года 18% участников сообщили, что ожидают, что к 2056 году машины смогут «моделировать обучение и все другие аспекты человеческого интеллекта»; 41% участников ожидали, что это произойдет где-то после 2056 года; и 41% ожидали, что машины никогда не достигнут этого рубежа. [34]

В опросе 100 наиболее цитируемых авторов в области ИИ (по данным академического поиска Microsoft по состоянию на май 2013 г.) средний год, к которому респонденты ожидали машины, «которые могут выполнять большинство человеческих профессий не хуже, чем обычный человек» ( при условии отсутствия глобальной катастрофыпроисходит) с достоверностью 10% составляет 2024 (среднее значение 2034, ст. отклонение 33 года), с достоверностью 50% - 2050 (среднее значение 2072, ст. отклонение 110 лет), а с достоверностью 90% - 2070 (среднее значение 2168, ст. . dev. 342 года). Эти оценки исключают 1,2% респондентов, которые сказали, что ни один год никогда не достигнет 10% уверенности, 4,1%, которые сказали «никогда», для 50% уверенности, и 16,5%, которые сказали «никогда», для 90% уверенности. Респонденты назвали в среднем 50% вероятности того, что машинный суперинтеллект будет изобретен в течение 30 лет после изобретения машинного интеллекта примерно человеческого уровня. [35]

Соображения по дизайну [ править ]

Бостром выразил озабоченность по поводу того, какие ценности должен иметь суперинтеллект. Он сравнил несколько предложений: [36]

  • Предложение согласованного экстраполированного волеизъявления (CEV) состоит в том, что оно должно иметь ценности, к которым люди будут сходиться.
  • Предложение о моральной правоте (MR) состоит в том, что оно должно ценить моральную правоту.
  • Предложение о моральной допустимости (MP) заключается в том, что оно должно ценить соблюдение границ моральной допустимости (и в остальном иметь ценности CEV).

Бостром разъясняет эти термины:

вместо реализации согласованного экстраполированного волеизъявления человечества можно попытаться создать ИИ с целью делать то, что морально правильно, полагаясь на превосходные когнитивные способности ИИ, чтобы выяснить, какие действия соответствуют этому описанию. Мы можем назвать это предложение «моральной справедливостью» (MR)  ... MR, похоже, также имеет некоторые недостатки. Он основан на понятии «морального права», заведомо сложном понятии, с которым философы боролись с древних времен, не достигнув консенсуса в отношении его анализа. Выбор ошибочного объяснения «моральной справедливости» может привести к результатам, которые были бы очень неправильными с моральной точки зрения. ... Путь к наделению ИИ любой из этих [моральных] концепций может включать в себя наделение его общими языковыми способностями (сравнимыми, по крайней мере, со способностями нормального взрослого человека). Такая общая способность понимать естественный язык затем может быть использована для понимания того, что подразумевается под «моральным правом». Если бы ИИ мог понять смысл, он мог бы искать действия, которые подходят  ... [36]

Можно попытаться сохранить основную идею модели MR, уменьшив при этом ее требовательность, сосредоточив внимание на моральной допустимости : идея состоит в том, что мы можем позволить ИИ следовать CEV человечества, пока он не будет действовать морально недопустимым образом. [36]

Отвечая Бострому, Сантос-Ланг выразил обеспокоенность тем, что разработчики могут попытаться начать с одного вида суперинтеллекта. [37]

Потенциальная угроза человечеству [ править ]

Было высказано предположение, что если системы ИИ быстро станут сверхразумными, они могут предпринять непредвиденные действия или превзойти человечество. [38] Исследователи утверждали, что благодаря «взрыву интеллекта» самосовершенствующийся ИИ может стать настолько мощным, что его не смогут остановить люди. [39]

Что касается сценариев вымирания человечества, Бостром (2002) определяет сверхразум как возможную причину:

Когда мы создаем первую сверхразумную сущность, мы можем совершить ошибку и поставить перед ней цели, которые приведут к уничтожению человечества, при условии, что ее огромное интеллектуальное преимущество дает ей возможность сделать это. Например, мы могли ошибочно повысить подцель до статуса сверхцели. Мы говорим ему решить математическую задачу, и он выполняет это, превращая всю материю Солнечной системы в гигантское вычислительное устройство, убивая человека, задавшего вопрос.

Теоретически, поскольку суперинтеллектуальный ИИ способен вызвать практически любой возможный результат и помешать любой попытке помешать реализации его целей, может возникнуть множество неконтролируемых, непредвиденных последствий . Он может убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства. [40] Элиэзер Юдковски иллюстрирует такую инструментальную конвергенцию следующим образом: «ИИ не ненавидит вас и не любит вас, но вы созданы из атомов, которые он может использовать для чего-то другого». [41]

Это представляет собой проблему управления ИИ : как создать интеллектуального агента, который будет помогать своим создателям, избегая при этом непреднамеренного создания сверхразума, который нанесет вред его создателям. Опасность неправильного проектирования контроля «с первого раза» состоит в том, что суперинтеллект может захватить власть над окружающей средой и предотвратить ее отключение людьми. Потенциальные стратегии управления ИИ включают «контроль возможностей» (ограничение способности ИИ влиять на мир) и «мотивационный контроль» (создание ИИ, цели которого соответствуют человеческим ценностям).

Билл Хиббард выступает за просвещение общественности по вопросам суперинтеллекта и за общественный контроль над развитием суперинтеллекта. [42]

См. Также [ править ]

  • Захват AI
  • Искусственный мозг
  • Гонка вооружений искусственного интеллекта
  • Эффективный альтруизм
  • Этика искусственного интеллекта
  • Экзистенциальный риск
  • Институт будущего человечества
  • Будущее робототехники
  • Интеллектуальный агент
  • Машинная этика
  • Научно-исследовательский институт машинного интеллекта
  • Машинное обучение
  • Ноогенезис  - Возникновение и эволюция интеллекта
  • Схема искусственного интеллекта
  • Постгуманизм
  • Самовоспроизведение
  • Самовоспроизводящаяся машина
  • Сверхразум: пути, опасности, стратегии

Цитаты [ править ]

  1. ^ а б Бостром 2014 , Глава 2.
  2. Перейти ↑ Bostrom 2014 , p. 22.
  3. Перейти ↑ Legg 2008 , pp. 135-137.
  4. Перейти ↑ Chalmers 2010 , p. 7.
  5. Перейти ↑ Chalmers 2010 , p. 7-9.
  6. Перейти ↑ Chalmers 2010 , p. 10-11.
  7. Перейти ↑ Chalmers 2010 , p. 11-13.
  8. Перейти ↑ Bostrom 2014 , p. 59.
  9. ^ Юдковский, Элиэзер (2013). Intelligence Explosion Microeconomics (PDF) (Технический отчет). Научно-исследовательский институт машинного интеллекта . п. 35. 2013-1.
  10. Перейти ↑ Bostrom, 2014 , pp. 56-57.
  11. Перейти ↑ Bostrom, 2014 , pp. 52, 59-61.
  12. ^ Еремин А.Л. Законы эволюции разума // 7-я Международная телеконференция «Актуальные проблемы современной науки». Томск, 2012. - С. 133-134.
  13. ^ a b c d e Еремин А.Л. Ноогенез и теория интеллекта . Краснодар, 2005. - 356 с. ( ISBN 5-7221-0671-2 ) 
  14. ^ a b c d Ерёмин А.Л. , Зибарев Е.В. (2020) Интеллектуальный труд - физиология, гигиена, медицина: ретроспективные и современные фундаментальные исследования. Гигиена труда и промышленная экология 60 (12) 951-957.
  15. ^ Саган, Карл (1977). Драконы Эдема . Случайный дом.
  16. Перейти ↑ Bostrom, 2014 , pp. 37-39.
  17. Перейти ↑ Bostrom 2014 , p. 39.
  18. Перейти ↑ Bostrom, 2014 , pp. 48-49.
  19. ^ Уоткинс, Дженнифер Х. (2007), Прогнозирование рынков как механизм агрегирования для коллективного разума
  20. Перейти ↑ Bostrom, 2014 , pp. 36-37, 42, 47.
  21. ^ Vorläufiger Bericht über die Fortpflanzungs-Geschwindigkeit der Nervenreizung . В: Archiv für Anatomie, Physiologie und wissenschaftliche Medicin. Jg. 1850, Veit & Comp., Берлин 1850, S. 71–73. MPIWG Берлин
  22. ^ Глинн, Ян (2010). Элегантность в науке . Оксфорд: Издательство Оксфордского университета. С. 147–150. ISBN 978-0-19-957862-7.
  23. Нобелевская премия по физиологии и медицине 1906 г.
  24. ^ Сюзана Херкулано-Хузель Преимущество человека: новое понимание того, как наш мозг стал замечательным. MIT Press, 2016. 256 с.
  25. ^ Фостер, М .; Шеррингтон, CS (1897). Учебник физиологии, том 3 (7-е изд.). Лондон: Макмиллан. п. 929.
  26. ^ Вурхиз Б., Рид Д., Габора Л. Идентичность, родство и эволюция сотрудничества. Современная антропология. 2020; 2: 194-218.
  27. ^ Rilling, JK et al. Нейронная основа социального сотрудничества. Нейрон. 2002; 35: 395-405.
  28. ^ Гросберг Р.К., Стратманн Р.Р. Эволюция многоклеточности: незначительный важный переход? Annu Rev Ecol Evol Syst. 2007; 38: 621–654.
  29. ^ Бадд Г. Е. Ранняя эволюция животных и происхождение нервной системы. Философские труды Королевского общества B: биологические науки. 2015; 370 (1684): 20150037.
  30. ^ Драхман Д.А. Есть ли у нас лишние мозги? Неврология. 2005; 64 (12): 2004–5.
  31. ^ Нгуен Т. Общее количество синапсов в неокортексе взрослого человека. Журнал математического моделирования для студентов: один + два. 2010; 3 (1): 26.
  32. ^ Данбар, RIM Размер неокортекса как ограничение на размер группы приматов. Журнал эволюции человека. 1992; 22 (6): 469–493.
  33. ^ Walbrin J. et al. Нейронные реакции на визуально наблюдаемые социальные взаимодействия. Нейропсихология. 2018; 112: 31-39.
  34. Maker, Мэг Хьюстон (13 июля 2006 г.). «AI @ 50: Первый опрос» . Архивировано из оригинала на 2014-05-13.
  35. Müller & Bostrom, 2016 , стр. 3-4, 6, 9-12.
  36. ^ a b c Bostrom 2014 , стр. 209-221.
  37. Перейти ↑ Santos-Lang 2014 , pp. 16-19.
  38. ^ Билл Джой , Почему мы не нужны будущему . В: Журнал Wired . Смотрите также технологическую особенность . Ник Бостром, 2002 г. Этические проблемы современного искусственного интеллекта
  39. ^ Muehlhauser, Лука и Louie Helm. 2012. «Взрыв разведки и машинная этика». В книге «Гипотезы сингулярности: научная и философская оценка» под редакцией Амнона Идена, Джонни Сёракера, Джеймса Х. Мура и Эрика Стейнхарта. Берлин: Springer.
  40. ^ Бостром, Ник. 2003. «Этические вопросы передового искусственного интеллекта». В «Когнитивных, эмоциональных и этических аспектах принятия решений людьми и в искусственном интеллекте» под редакцией Ивы Смит и Джорджа Э. Ласкера, 12–17. Vol. 2. Виндзор, О. Н.: Международный институт перспективных исследований в области системных исследований / кибернетики.
  41. ^ Элиэзер Юдковски (2008) в Искусственный интеллект как положительный и отрицательный фактор глобального риска
  42. ^ Hibbard 2002 , стр. 155-163.

Библиография [ править ]

  • Бостром, Ник (2002), «Экзистенциальные риски» , Журнал эволюции и технологий , 9 , получено 07 августа 2007 г.
  • Бостром, Ник (2014). Сверхразум: пути, опасности, стратегии . Издательство Оксфордского университета.
  • Чалмерс, Дэвид (2010). «Сингулярность: философский анализ» (PDF) . Журнал исследований сознания . 17 : 7–65.
  • Хиббард, Билл (2002). Супер-интеллектуальные машины . Kluwer Academic / Plenum Publishers.
  • Легг, Шейн (2008). Машинный сверхразум (PDF) (PhD). Департамент информатики Университета Лугано . Проверено 19 сентября 2014 года .
  • Мюллер, Винсент К .; Бостром, Ник (2016). «Будущий прогресс в области искусственного интеллекта: обзор мнений экспертов» . В Мюллер, Винсент К. (ред.). Фундаментальные проблемы искусственного интеллекта . Springer. С. 553–571.
  • Сантос-Ланг, Кристофер (2014). «Наша ответственность управлять оценочным разнообразием» (PDF) . ACM SIGCAS Computers & Society . 44 (2): 16–19. DOI : 10.1145 / 2656870.2656874 .

Внешние ссылки [ править ]

  • Билл Гейтс присоединяется к Стивену Хокингу в опасении надвигающейся угрозы со стороны «суперинтеллекта»
  • Сверхразумные машины уничтожат человечество?
  • Соучредитель Apple предчувствует предчувствие искусственного суперинтеллекта