Послушайте эту статью
Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Технологическая особенность -также, просто, особенность [1] -Это гипотетический момент времени , при котором технологический рост становится неконтролируемым и необратимым, что приводит к непредвиденным изменениям в человеческой цивилизации. [2] [3] Согласно наиболее популярной версии гипотезы сингулярности, называемой взрывом интеллекта , модернизируемый интеллектуальный агент в конечном итоге войдет в «безудержную реакцию» циклов самосовершенствования, причем каждое новое и более интеллектуальное поколение будет появляться все быстрее и быстрее. , вызывая «взрыв» интеллекта и приводя к мощному сверхразуму , качественно далеко превосходящему всечеловеческий интеллект .

Первым использованием концепции «сингулярности» в технологическом контексте был Джон фон Нейман . [4] Станислав Улам сообщает о дискуссии с фон Нейманом, «сосредоточенной на ускоряющемся прогрессе технологий и изменениях в образе человеческой жизни, что дает видимость приближения к некоторой существенной сингулярности в истории расы, за пределами которой человеческие дела, как мы знать их, не мог продолжать ". [5] Последующие авторы поддержали эту точку зрения. [3] [6]

Модель «взрыва интеллекта» И. Дж. Гуда предсказывает, что будущий сверхразум вызовет сингулярность. [7]

Концепция и термин «сингулярность» были популяризированы Вернором Винджем в его эссе 1993 года «Грядущая технологическая сингулярность» , в котором он писал, что это будет сигналом к ​​концу человеческой эры, поскольку новый сверхразум будет продолжать совершенствоваться и развиваться в технологическом плане. с непонятной скоростью. Он написал, что был бы удивлен, если бы это произошло до 2005 г. или после 2030 г. [7]

Такие общественные деятели, как Стивен Хокинг и Илон Маск , выразили обеспокоенность тем, что полноценный искусственный интеллект (ИИ) может привести к вымиранию человечества. [8] [9] Последствия сингулярности и ее потенциальная польза или вред для человечества были предметом интенсивных дискуссий.

Четыре опроса исследователей искусственного интеллекта, проведенные в 2012 и 2013 годах Ником Бостромом и Винсентом К. Мюллером , показали, что средняя оценка вероятности 50% того, что искусственный общий интеллект (AGI) будет разработан к 2040–2050 годам. [10] [11]

Фон [ править ]

Хотя технический прогресс ускоряется в большинстве областей (хотя в некоторых замедляется), он ограничен базовым интеллектом человеческого мозга, который, по словам Пола Р. Эрлиха , не претерпел значительных изменений за тысячелетия. [12] Однако, с ростом мощности компьютеров и других технологий, со временем может появиться возможность построить машину, которая будет значительно умнее людей. [13]

Если бы сверхчеловеческий интеллект был изобретен - либо путем усиления человеческого интеллекта, либо с помощью искусственного интеллекта, - он привел бы к более широкому решению проблем и изобретательским навыкам, чем нынешние люди способны. Такой AI называется Seed AI [14] [15].потому что, если бы ИИ был создан с инженерными возможностями, которые соответствовали бы или превосходили возможности его создателей-людей, у него был бы потенциал для автономного улучшения собственного программного и аппаратного обеспечения или создания еще более мощной машины. Эта более способная машина могла бы затем продолжить разработку машины с еще большими возможностями. Эти итерации рекурсивного самосовершенствования могут ускориться, потенциально допуская колоссальные качественные изменения до того, как будут установлены какие-либо верхние пределы, налагаемые законами физики или теоретическими вычислениями. Предполагается, что на протяжении многих итераций такой ИИ намного превзойдет человеческие когнитивные способности .

Взрыв интеллекта [ править ]

Взрыв интеллекта - возможный результат создания человечеством общего искусственного интеллекта (AGI). AGI может быть способен к рекурсивному самосовершенствованию, что приведет к быстрому появлению искусственного суперинтеллекта (ИСИ), пределы которого неизвестны, вскоре после достижения технологической сингулярности.

В 1965 году Ай Джей Гуд предположил, что общий искусственный интеллект может вызвать взрыв интеллекта. Он размышлял об эффектах сверхчеловеческих машин, если они когда-нибудь будут изобретены: [16]

Пусть сверхразумная машина будет определена как машина, которая может намного превзойти все интеллектуальные действия любого человека, каким бы умным он ни был. Поскольку проектирование машин является одним из этих видов интеллектуальной деятельности, сверхразумная машина может создавать машины даже лучше; тогда несомненно произошел бы «взрыв интеллекта», и человеческий разум остался бы далеко позади. Таким образом, первая сверхразумная машина - это последнее изобретение, которое когда-либо нужно было сделать человеку, при условии, что машина достаточно послушна, чтобы подсказывать нам, как держать ее под контролем.

Сценарий Гуда выглядит следующим образом: по мере увеличения мощности компьютеров люди могут построить машину, которая умнее человечества; этот сверхчеловеческий разум обладает большими способностями к решению проблем и изобретательством, чем современные люди. Затем эта сверхразумная машина конструирует машину еще более способную или переписывает собственное программное обеспечение, чтобы стать еще более умной; затем эта (даже более способная) машина переходит к созданию машины с еще более высокими возможностями и так далее. Эти итерации рекурсивного самоулучшения ускоряются, позволяя произвести огромное качественное изменение до того, как будут установлены какие-либо верхние пределы, налагаемые законами физики или теоретическими вычислениями. [16]

Другие проявления [ править ]

Появление суперинтеллекта [ править ]

Сверхразум, гиперинтеллект или сверхчеловеческий интеллект - это гипотетический агент, который обладает интеллектом, намного превосходящим интеллект самых ярких и одаренных человеческих умов. «Суперинтеллект» может также относиться к форме или степени интеллекта, которым обладает такой агент. Джон фон Нейман , Вернор Виндж и Рэй Курцвейл определяют эту концепцию с точки зрения технологического создания сверхразума. Они утверждают, что современным людям трудно или невозможно предсказать, какой будет их жизнь в мире постсингулярности. [7] [17]

Специалисты по прогнозированию технологий и исследователи расходятся во мнениях о том, когда человеческий интеллект может быть превзойден. Некоторые утверждают, что успехи в области искусственного интеллекта (ИИ), вероятно, приведут к созданию систем общего мышления, лишенных когнитивных ограничений человека. Другие считают, что люди будут развиваться или напрямую изменять свою биологию, чтобы достичь радикально большего интеллекта. Ряд сценариев исследования будущего объединяют элементы обеих этих возможностей, предполагая, что люди, вероятно, будут взаимодействовать с компьютерами или загружать свои мысли в компьютеры таким образом, чтобы обеспечить существенное усиление интеллекта.

Не-ИИ сингулярность [ править ]

Некоторые авторы используют термин «сингулярность» в более широком смысле для обозначения любых радикальных изменений в нашем обществе, вызванных новыми технологиями, такими как молекулярные нанотехнологии , [18] [19] [20], хотя Виндж и другие авторы специально заявляют, что без сверхразума, такие изменения не могут считаться истинной сингулярностью. [7]

Скоростной суперинтеллект [ править ]

Сверхразум скорости описывает ИИ, который может делать все, что может делать человек, с той лишь разницей, что машина работает быстрее. [21] Например, при увеличении скорости обработки информации в миллион раз по сравнению с человеческой, субъективный год пройдет за 30 физических секунд. [22] Такая разница в скорости обработки информации могла привести к сингулярности. [23]

Правдоподобие [ править ]

Многие видные технологи и ученые оспаривают правдоподобие технологической сингулярности, в том числе Пол Аллен , Джефф Хокинс , Джон Холланд , Джарон Ланье и Гордон Мур , чей закон часто цитируется в поддержку этой концепции. [24] [25] [26]

Большинство предлагаемых методов создания сверхчеловеческого или трансчеловеческого разума можно разделить на две категории: усиление интеллекта человеческого мозга и искусственный интеллект. Существует множество предполагаемых способов увеличения интеллекта, включая биоинженерию , генную инженерию , ноотропные препараты, помощников ИИ, прямые интерфейсы мозг-компьютер и загрузку мыслей . Поскольку исследуются множественные пути к взрывному росту интеллекта, это делает сингулярность более вероятной; чтобы сингулярность не возникла, все они должны потерпеть неудачу. [22]

Робин Хэнсон выразил скептицизм по поводу увеличения человеческого интеллекта, написав, что как только «низко висящие плоды» простых методов повышения человеческого интеллекта будут исчерпаны, дальнейшие улучшения будет все труднее найти. [27] Несмотря на все предполагаемые способы усиления человеческого интеллекта, нечеловеческий искусственный интеллект (в частности, исходный ИИ) является наиболее популярным вариантом среди гипотез, способствующих развитию сингулярности. [ необходима цитата ]

Произойдет ли взрыв интеллекта, зависит от трех факторов. [28] Первым ускоряющим фактором являются новые улучшения интеллекта, которые стали возможными благодаря каждому предыдущему улучшению. И наоборот, по мере того, как интеллект становится более развитым, дальнейшие достижения будут становиться все более и более сложными, возможно, преодолевая преимущество повышенного интеллекта. Каждое улучшение должно в среднем порождать по крайней мере еще одно улучшение, чтобы движение к сингулярности продолжалось. Наконец, законы физики в конечном итоге предотвратят дальнейшие улучшения.

Есть две логически независимых, но взаимно подкрепляющих причины улучшения интеллекта: увеличение скорости вычислений и улучшение используемых алгоритмов . [29] Первое предсказано законом Мура и прогнозируемыми улучшениями в оборудовании [30] и сравнительно похоже на предыдущие технологические достижения. Но есть некоторые исследователи ИИ [ кто? ], которые считают, что программное обеспечение важнее оборудования. [31] [ необходима ссылка ]

В электронном опросе 2017 года авторов публикаций на конференциях по машинному обучению NeurIPS и ICML в 2015 году был задан вопрос о вероятности взрыва интеллекта. Из респондентов 12% сказали, что это «вполне вероятно», 17% сказали, что это «вероятно», 21% сказали, что это было «примерно одинаково», 24% сказали, что это «маловероятно» и 26% сказали, что это «весьма маловероятно. ". [32]

Улучшения скорости [ править ]

Как для человеческого, так и для искусственного интеллекта усовершенствования оборудования увеличивают скорость будущих улучшений оборудования. Проще говоря, [33] закон Мура предполагает, что если первое удвоение скорости заняло 18 месяцев, то второе - 18 субъективных месяцев; или 9 внешних месяцев, после чего четыре месяца, два месяца и так далее до сингулярности скорости. [34] В конечном итоге может быть достигнут верхний предел скорости, хотя неясно, насколько он будет высоким. Джефф Хокинс заявил, что самосовершенствующаяся компьютерная система неизбежно столкнется с верхними пределами вычислительной мощности: «в конце концов, существуют пределы того, насколько большие и быстрые компьютеры могут работать. Мы бы оказались в одном и том же месте; мы бы просто доберись туда немного быстрее. Не было бы сингулярности ». [35]

Трудно напрямую сравнивать аппаратное обеспечение на основе кремния с нейронами . Но Берглас (2008) отмечает, что компьютерное распознавание речи приближается к человеческим возможностям, и что эта способность, по-видимому, требует 0,01% объема мозга. Эта аналогия предполагает, что современное компьютерное оборудование на несколько порядков мощнее человеческого мозга.

Экспоненциальный рост [ править ]

Рэй Курцвейл пишет, что из-за смены парадигмы тенденция экспоненциального роста распространяет действие закона Мура с интегральных схем на более ранние транзисторы , электронные лампы , реле и электромеханические компьютеры. Он предсказывает, что экспоненциальный рост будет продолжаться, и что через несколько десятилетий вычислительная мощность всех компьютеров превысит вычислительную мощность («неулучшенного») человеческого мозга, и примерно в то же время появится сверхчеловеческий искусственный интеллект .
Обновленная версия закона Мура за 120 лет (на основе графика Курцвейла ). Все 7 последних точек данных относятся к графическим процессорам NVIDIA .

Экспоненциальный рост вычислительной техники, предполагаемый законом Мура, обычно упоминается как причина ожидать сингулярности в относительно ближайшем будущем, и ряд авторов предложили обобщения закона Мура. Компьютерный ученый и футуролог Ханс Моравец в своей книге 1998 года [36] предположил, что кривую экспоненциального роста можно продолжить с помощью более ранних вычислительных технологий, предшествовавших интегральной схеме .

Рэй Курцвейл постулирует закон ускоряющейся отдачи, в котором скорость технологических изменений (и, в более общем плане, всех эволюционных процессов [37] ) возрастает экспоненциально, обобщая закон Мура так же, как и предложение Моравека, а также включая материальные технологии (особенно применительно к ним). к нанотехнологиям ), медицинской технике и др. [38]В период с 1986 по 2007 год возможности машин для вычисления информации на душу населения для конкретных приложений примерно удваивались каждые 14 месяцев; мощность компьютеров общего назначения в мире на душу населения удваивается каждые 18 месяцев; глобальная емкость электросвязи на душу населения удваивается каждые 34 месяца; а мировая емкость хранения на душу населения удваивается каждые 40 месяцев. [39] С другой стороны, утверждалось, что глобальная модель ускорения, имеющая в качестве параметра сингулярность 21 века, должна характеризоваться как гиперболическая, а не экспоненциальная. [40]

Курцвейл резервирует термин «сингулярность» для быстрого развития искусственного интеллекта (в отличие от других технологий), например, написав, что «сингулярность позволит нам преодолеть эти ограничения наших биологических тел и мозга ... Не будет никаких различий. , пост-сингулярность, между человеком и машиной ». [41] Он также определяет свою предсказанную дату сингулярности (2045 год) в терминах того момента, когда, по его ожиданиям, компьютерный интеллект значительно превзойдет совокупную совокупную мощность человеческого мозга, написав, что достижения в области вычислений до этой даты «не будут представлять Сингулярность». потому что они «еще не соответствуют глубокому расширению нашего интеллекта». [42]

Ускорение изменений [ править ]

По словам Курцвейла, его логарифмический график из 15 списков сдвигов парадигм для ключевых исторических событий показывает экспоненциальную тенденцию.

Некоторые сторонники сингулярности аргументируют ее неизбежность экстраполяцией прошлых тенденций, особенно тех, которые касаются сокращения разрывов между усовершенствованиями технологий. В одном из первых применений термина «сингулярность» в контексте технического прогресса Станислав Улам рассказывает о разговоре с Джоном фон Нейманом об ускорении изменений:

Один разговор был сосредоточен на постоянно ускоряющемся прогрессе технологий и изменениях в образе человеческой жизни, что создает впечатление приближения к некоторой существенной сингулярности в истории расы, за пределами которой человеческие дела, как мы их знаем, не могли продолжаться. [5]

Курцвейл утверждает, что технический прогресс следует модели экспоненциального роста , следуя тому, что он называет « законом ускорения отдачи ». Курцвейл пишет, что когда технология приближается к препятствию, новые технологии преодолевают его. Он предсказывает, что смена парадигм станет все более распространенным явлением, что приведет к «технологическим изменениям, настолько быстрым и глубоким, что они представляют собой разрыв в ткани человеческой истории». [43] Курцвейл считает, что сингулярность произойдет примерно к 2045 году . [38] Его предсказания отличаются от предсказаний Винджа тем, что он предсказывает постепенное восхождение к сингулярности, а не быстро улучшающийся сверхчеловеческий интеллект Винджа.

Часто упоминаемые опасности включают опасности, обычно связанные с молекулярными нанотехнологиями и генной инженерией . Эти угрозы являются основными вопросами , как для сторонников сингулярности и критиков, и были предметом Bill Joy «s Проводная журнальной статье„ Почему будущее не нуждается в нас “. [6] [44]

Улучшения алгоритма [ править ]

Некоторые интеллектуальные технологии, такие как «семенной ИИ» [14] [15], также могут иметь потенциал не только стать быстрее, но и более эффективными, путем изменения исходного кода . Эти улучшения сделают возможными дальнейшие улучшения, которые сделают возможными дальнейшие улучшения и так далее.

Механизм рекурсивно самоулучшающегося набора алгоритмов отличается от увеличения скорости необработанных вычислений двумя способами. Во-первых, это не требует внешнего влияния: машинам, проектирующим более быстрое оборудование, все равно потребуется, чтобы люди создавали улучшенное оборудование или соответствующим образом программировали фабрики. [ необходима цитата ] ИИ, переписывающий собственный исходный код, мог сделать это, находясь в блоке ИИ .

Во-вторых, как и в случае с концепцией сингулярности Вернора Винджа, предсказать результат намного сложнее. Хотя увеличение скорости кажется лишь количественным отличием от человеческого интеллекта, реальные улучшения алгоритмов будут отличаться качественно. Элиэзер Юдковски сравнивает это с изменениями, которые принес человеческий разум: люди изменили мир в тысячи раз быстрее, чем это сделала эволюция, и совершенно по-разному. Точно так же эволюция жизни была массовым отклонением и ускорением от прежних геологических темпов изменений, и улучшенный интеллект мог заставить изменения снова стать такими же другими. [45]

Сингулярность взрыва интеллекта связана с существенными опасностями, возникающими из-за рекурсивно самоулучшающегося набора алгоритмов. Во-первых, целевая структура ИИ может не быть неизменной при самосовершенствовании, что может привести к оптимизации ИИ для чего-то другого, кроме того, что было изначально задумано. [46] [47] Во-вторых, ИИ мог бы конкурировать за те же скудные ресурсы, которые человечество использует для выживания. [48] [49]

Хотя это и не является вредоносным, нет никаких оснований полагать, что ИИ будет активно продвигать человеческие цели, если они не могут быть запрограммированы как таковые, а если нет, они могут использовать ресурсы, которые в настоящее время используются для поддержки человечества, для продвижения своих собственных целей, вызывая вымирание человечества. [50] [51] [52]

Карл Шульман и Андерс Сандберг предполагают, что улучшения алгоритмов могут быть ограничивающим фактором для сингулярности; в то время как эффективность оборудования имеет тенденцию улучшаться стабильными темпами, инновации в области программного обеспечения более непредсказуемы и могут быть ограничены серийными кумулятивными исследованиями. Они предполагают, что в случае сингулярности, ограниченной программным обеспечением, взрыв интеллекта на самом деле станет более вероятным, чем в случае сингулярности, ограниченной аппаратным обеспечением, потому что в случае ограниченного программным обеспечением, как только ИИ человеческого уровня будет разработан, он может работать серийно на очень быстрое оборудование и обилие дешевого оборудования сделают исследования ИИ менее ограниченными. [53] Обилие накопленного оборудования, которое можно использовать, как только программное обеспечение выясняет, как его использовать, было названо «вычислительным излишком».[54]

Критика [ править ]

Некоторые критики, такие как философ Хьюберт Дрейфус , утверждают, что компьютеры или машины не могут достичь человеческого интеллекта , в то время как другие, например физик Стивен Хокинг , считают, что определение интеллекта не имеет значения, если конечный результат тот же. [55]

Психолог Стивен Пинкер заявил в 2008 году:

... Нет ни малейшего повода верить в грядущую сингулярность. Тот факт, что вы можете визуализировать будущее в своем воображении, не свидетельствует о том, что оно вероятно или даже возможно. Взгляните на города с куполами, поездки на реактивных самолетах, подводные города, здания высотой в милю и автомобили с ядерными двигателями - все это основные элементы футуристических фантазий, когда я был ребенком, который так и не появился. Чистая вычислительная мощность - это не пыль пикси, которая волшебным образом решает все ваши проблемы. ... [24]

Калифорнийский университет, Беркли , философии профессор Джон Серл пишет:

[Компьютеры] в буквальном смысле ... ни интеллекта , ни мотивации , ни автономии , ни свободы воли. Мы проектируем их так, чтобы они вели себя так, как если бы у них была определенная психология , но соответствующие процессы или поведение не имеют психологической реальности. ... [У] машины нет убеждений, желаний [или] мотиваций. [56]

Мартин Форд в книге «Огни в туннеле: автоматизация, ускоряющиеся технологии и экономика будущего» [57] постулирует «технологический парадокс», заключающийся в том, что до того, как возникнет сингулярность, большинство рутинных рабочих мест в экономике будут автоматизированы, поскольку для этого потребуется уровень техники уступает таковому у сингулярности. Это вызовет массовую безработицу и резкое падение потребительского спроса, что, в свою очередь, уничтожит стимул инвестировать в технологии, которые потребуются для создания сингулярности. Смещение работы все чаще не ограничивается работой, традиционно считающейся «рутинной». [58]

Теодор Модис [59] и Джонатан Хюбнер [60] утверждают, что скорость технологических инноваций не только перестала расти, но фактически сейчас снижается. Доказательством этого снижения является то, что рост тактовой частоты компьютеров замедляется, даже несмотря на то, что предсказание Мура об экспоненциальном увеличении плотности схем продолжает выполняться. Это происходит из-за чрезмерного нагрева чипа, который не может рассеиваться достаточно быстро, чтобы предотвратить плавление чипа при работе на более высоких скоростях. Увеличение скорости может стать возможным в будущем за счет более энергоэффективных конструкций ЦП и многоячеечных процессоров. [61]В то время как Курцвейл использовал ресурсы Модиса, а работа Модиса была связана с ускорением изменений, Модис дистанцировался от тезиса Курцвейла о «технологической сингулярности», утверждая, что ему не хватает научной строгости. [62]

В детальном эмпирическом учета, Прогресс вычислительной техники , Нордхаус утверждал , что до 1940 года, компьютеры следовали гораздо более медленный рост традиционной индустриальной экономики, тем самым отвергая экстраполяцию закона Мура на компьютерах 19- го века. [63]

В статье 2007 года Шмидхубер заявил, что частота субъективно «заметных событий», похоже, приближается к сингулярности 21-го века, но предостерег читателей от того, чтобы относиться к таким сюжетам субъективных событий с долей скептицизма: возможно, различия в памяти о недавних и далеких события могут создать иллюзию ускоряющихся изменений там, где их нет. [64]

Пол Аллен утверждал, что ускорение отдачи противоположно - тормозу сложности; [26] чем больше наука продвигается к пониманию интеллекта, тем труднее становится добиться дополнительного прогресса. Изучение ряда патентов показывает , что человеческое творчество не проявляет быстрой отдачи, но на самом деле, как это было предложено Джозефа Тейнтер в его Крах сложных обществ , [65] закон убывающего . Пик количества патентов на тысячу приходился на период с 1850 по 1900 год, и с тех пор он снижается. [60] Рост сложности в конечном итоге становится самоограничивающим и приводит к широко распространенному «коллапсу общих систем».

Джарон Ланье опровергает идею о неизбежности Сингулярности. Он заявляет: «Я не думаю, что технология создает сама себя. Это не автономный процесс». [66] Он продолжает утверждать: «Причина верить в человеческое вмешательство выше технологического детерминизма заключается в том, что тогда у вас может быть экономика, в которой люди зарабатывают свой собственный путь и изобретают свою собственную жизнь. Если вы структурируете общество, не делая упор на отдельных людях. агентства, это то же самое, что отказывать людям в авторитете, достоинстве и самоопределении ... принять [идею Сингулярности] было бы праздником плохих данных и плохой политики ». [66]

Экономист Роберт Дж. Гордон в своей работе «Взлет и падение американского роста: уровень жизни в США после гражданской войны» (2016) указывает, что измеряемый экономический рост замедлился примерно в 1970 году и еще больше замедлился после финансового кризиса 2007–2008 годов. , и утверждает, что экономические данные не показывают никаких следов грядущей сингулярности, как это представлял математик И. Дж. Гуд . [67]

Помимо общей критики концепции сингулярности, несколько критиков подняли вопросы о знаковой карте Курцвейла. Одна линия критики заключается в том, что логарифмическая диаграмма такого рода по своей природе склонна к прямолинейному результату. Другие указывают на предвзятость отбора в тех пунктах, которые Курцвейл предпочитает использовать. Например, биолог П.З. Майерс указывает, что многие из ранних эволюционных «событий» были выбраны произвольно. [68] Курцвейл опроверг это, нанеся на карту эволюционные события из 15 нейтральных источников и показав, что они соответствуют прямой линии на логарифмической диаграмме . Экономиствысмеивал эту концепцию, экстраполируя график, согласно которому количество лезвий на бритве, которое с годами увеличивалось с одного до пяти, будет увеличиваться все быстрее и быстрее до бесконечности. [69]

Возможные воздействия [ править ]

Резкие изменения в темпах экономического роста произошли в прошлом из-за технического прогресса. Основываясь на росте населения, экономика удваивалась каждые 250 000 лет с эпохи палеолита до неолитической революции . Новая сельскохозяйственная экономика удваивалась каждые 900 лет, это значительный рост. В нынешнюю эпоху, начиная с промышленной революции, объем мировой экономики удваивается каждые пятнадцать лет, что в шестьдесят раз быстрее, чем в сельскохозяйственную эпоху. Если рост сверхчеловеческого интеллекта вызовет аналогичную революцию, утверждает Робин Хэнсон, можно ожидать, что экономика удвоится, по крайней мере, ежеквартально, а возможно, и еженедельно. [70]

Неопределенность и риск [ править ]

Термин «технологическая сингулярность» отражает идею о том, что такое изменение может произойти внезапно, и что трудно предсказать, как будет действовать новый мир. [71] [72] Неясно, будет ли взрыв интеллекта, приводящий к сингулярности, полезным или вредным, или даже угрозой существованию . [73] [74] Поскольку ИИ является основным фактором риска сингулярности, ряд организаций придерживаются технической теории согласования систем целей ИИ с человеческими ценностями, в том числе Институт будущего человечества , Исследовательский институт машинного интеллекта , [71] Центр Человек-Compatible искусственного интеллекта , иИнститут будущего жизни .

В 2014 году физик Стивен Хокинг сказал: «Успех в создании ИИ станет величайшим событием в истории человечества. К сожалению, он также может стать последним, если мы не научимся избегать рисков». [75] Хокинг считал, что в ближайшие десятилетия ИИ может предложить «неисчислимые преимущества и риски», такие как «технология, которая перехитрит финансовые рынки, изобретет ученых, перестанет манипулировать человеческими лидерами и создаст оружие, которое мы даже не можем понять». [75] Хокинг предложил более серьезно относиться к искусственному интеллекту и сделать больше, чтобы подготовиться к сингулярности: [75]

Итак, столкнувшись с возможными неисчислимыми выгодами и рисками в будущем, эксперты, несомненно, делают все возможное для обеспечения наилучшего результата, верно? Неправильный. Если бы высшая инопланетная цивилизация прислала нам сообщение: «Мы прибудем через несколько десятилетий», мы бы просто ответили: «Хорошо, позвоните нам, когда доберетесь сюда - мы оставим свет включенным»? Наверное, нет - но это более или менее то, что происходит с ИИ.

Берглас (2008) утверждает, что у ИИ нет прямой эволюционной мотивации быть дружелюбной по отношению к людям. Эволюция не имеет врожденной тенденции давать результаты, ценимые людьми, и нет особых оснований ожидать, что произвольный процесс оптимизации приведет к желаемому человечеству результату, а не к непреднамеренному поведению ИИ не так, как предполагалось его создателями. [76] [77] [78] Андерс Сандберг также подробно остановился на этом сценарии, рассматривая различные общие контраргументы. [79] Исследователь ИИ Уго де Гарис предполагает, что искусственный интеллект может просто уничтожить человеческую расу ради доступа к ограниченным ресурсам , [48] [80]и люди были бы бессильны их остановить. [81] С другой стороны, ИИ, разработанные под давлением эволюции для обеспечения собственного выживания, могут превзойти человечество. [52]

Бостром (2002) обсуждает сценарии вымирания людей и перечисляет сверхразум как возможную причину:

Когда мы создаем первую сверхразумную сущность, мы можем совершить ошибку и поставить перед ней цели, которые приведут к уничтожению человечества, при условии, что ее огромное интеллектуальное преимущество дает ей возможность сделать это. Например, мы могли ошибочно повысить подцель до статуса сверхцели. Мы говорим ему решить математическую задачу, и он выполняет это, превращая всю материю в солнечной системе в гигантское вычислительное устройство, убивая человека, задавшего вопрос.

По словам Элиэзера Юдковски , серьезная проблема безопасности ИИ заключается в том, что недружественный искусственный интеллект, вероятно, будет намного проще создать, чем дружественный ИИ. В то время как оба требуют больших достижений в рекурсивном дизайне процесса оптимизации, дружественный ИИ также требует способности сделать целевые структуры неизменными при самосовершенствовании (иначе ИИ может трансформироваться во что-то недружелюбное) и целевую структуру, которая согласуется с общечеловеческими ценностями и не выполняется автоматически. уничтожить человечество. С другой стороны, недружелюбный ИИ может оптимизировать для произвольной структуры целей, которая не обязательно должна быть инвариантной при самомодификации. [82] Билл Хиббард (2014) предлагает дизайн ИИ, который позволяет избежать нескольких опасностей, включая самообман, [83]непреднамеренные инструментальные действия, [46] [84] и повреждение генератора награды. [84] Он также обсуждает социальные последствия ИИ [85] и тестирование ИИ. [86] Его книга 2001 года « Супер-интеллектуальные машины» пропагандирует необходимость просвещения общественности по вопросам ИИ и общественного контроля над ИИ. Он также предложил простой дизайн, который был уязвим для искажения генератора вознаграждения.

Следующий шаг социобиологической эволюции [ править ]

Схематическая временная шкала информации и репликаторов в биосфере: « Основные эволюционные переходы » Гиллингса и др. В обработке информации. [87]
Объем цифровой информации во всем мире (5 × 10 21 байт) по сравнению с информацией о геноме человека во всем мире (10 19 байт) в 2014 г. [87]

Хотя технологическая сингулярность обычно рассматривается как внезапное событие, некоторые ученые утверждают, что нынешняя скорость изменений уже соответствует этому описанию. [ необходима цитата ]

Кроме того, некоторые утверждают, что мы уже находимся в процессе крупного эволюционного перехода, который объединяет технологии, биологию и общество. Цифровая технология проникла в ткань человеческого общества до степени бесспорной и часто для поддержания жизни зависимости.

В статье, опубликованной в 2016 году в журнале Trends in Ecology & Evolution, утверждается, что «люди уже принимают сочетание биологии и технологий. Мы проводим большую часть времени бодрствования, общаясь по цифровым каналам ... мы доверяем свою жизнь искусственному интеллекту посредством антиблокировочной системы торможения в автомобилях и автопилотах в самолетах ... Каждый третий брак в Америке начинается онлайн, и цифровые алгоритмы также играют роль в объединении и воспроизводстве человеческих пар ".

В статье далее утверждается, что с точки зрения эволюции несколько предыдущих крупных переходов в эволюции изменили жизнь за счет инноваций в хранении и репликации информации ( РНК , ДНК , многоклеточность , культура и язык ). На нынешнем этапе эволюции жизни углеродная биосфера сформировала когнитивную систему (людей), способную создавать технологии, которые приведут к сопоставимому эволюционному переходу .

Цифровая информация, созданная людьми, достигла того же размера, что и биологическая информация в биосфере. С 1980-х годов количество хранимой цифровой информации удваивалось примерно каждые 2,5 года, достигнув в 2014 году примерно 5 зеттабайт (5 × 10 21 байт). [ необходима цитата ]

С биологической точки зрения, на планете 7,2 миллиарда людей, каждый из которых имеет геном из 6,2 миллиарда нуклеотидов. Поскольку один байт может кодировать четыре пары нуклеотидов, индивидуальные геномы каждого человека на планете могут быть закодированы примерно 1 × 10 19 байтами. В цифровой сфере хранится в 500 раз больше информации, чем в 2014 году (см. Рисунок). Общее количество ДНК, содержащееся во всех клетках на Земле, оценивается примерно в 5,3 × 10 37 пар оснований, что эквивалентно 1,325 × 10 37 байтов информации.

Если рост цифровых хранилищ будет продолжаться нынешними темпами, составляющими 30–38% среднегодового роста в год [39], он будет конкурировать с общим информационным содержанием, содержащимся во всей ДНК во всех клетках на Земле примерно через 110 лет. Это будет означать удвоение количества информации, хранящейся в биосфере, всего за 150 лет ». [87]

Последствия для человеческого общества [ править ]

В феврале 2009 года под эгидой Ассоциации по развитию искусственного интеллекта (AAAI) Эрик Хорвиц председательствовал на встрече ведущих компьютерных ученых, исследователей искусственного интеллекта и робототехников в Асиломаре в Пасифик-Гроув, Калифорния. Цель состояла в том, чтобы обсудить потенциальное влияние гипотетической возможности того, что роботы могут стать самодостаточными и иметь возможность принимать свои собственные решения. Они обсудили, в какой степени компьютеры и роботы могут получить автономию и в какой степени они могут использовать такие способности для создания угроз или опасностей. [88]

Некоторые машины запрограммированы на различные формы полуавтономности, включая возможность определять местонахождение собственных источников энергии и выбирать цели для атаки с помощью оружия. Кроме того, некоторые компьютерные вирусы могут уклоняться от уничтожения, и, по мнению присутствующих ученых, можно сказать, что они достигли «тараканьской» стадии машинного интеллекта. Участники конференции отметили, что самосознание, описанное в научной фантастике, вероятно, маловероятно, но существуют и другие потенциальные опасности и подводные камни. [88]

Фрэнк С. Робинсон предсказывает, что как только люди создадут машину с интеллектом человека, научные и технологические проблемы будут решаться и решаться с помощью умственных способностей, намного превосходящих человеческий. Он отмечает, что искусственные системы могут обмениваться данными более непосредственно, чем люди, и предсказывает, что это приведет к созданию глобальной сети сверхразума, которая превзойдет человеческие возможности. [89] Робинсон также обсуждает, насколько сильно изменится будущее после такого интеллектуального взрыва. Одним из примеров этого является солнечная энергия, когда Земля получает гораздо больше солнечной энергии, чем улавливает человечество, поэтому улавливание большего количества этой солнечной энергии будет иметь большие перспективы для развития цивилизации.

Жесткий и мягкий взлет [ править ]

В этом примере сценария рекурсивного самоулучшения люди, изменяющие архитектуру ИИ, смогут удваивать его производительность каждые три года, например, через 30 поколений, прежде чем исчерпать все возможные улучшения (слева). Если вместо этого ИИ будет достаточно умен, чтобы модифицировать свою собственную архитектуру так же, как это могут делать исследователи, его время, необходимое для завершения редизайна, уменьшается вдвое с каждым поколением, и он продвигает все 30 возможных поколений за шесть лет (справа). [90]

В сценарии жесткого взлета AGI быстро самоулучшается, «беря под контроль» мир (возможно, в считанные часы), слишком быстро для существенного исправления ошибок по инициативе человека или для постепенной настройки целей AGI. В сценарии мягкого взлета AGI по-прежнему становится намного мощнее человечества, но с человеческими темпами (возможно, порядка десятилетий), в масштабе времени, когда постоянное человеческое взаимодействие и исправления могут эффективно управлять развитием AGI. [91] [92]

Рамез Наам выступает против резкого взлета. Он указал, что мы уже видим рекурсивное самосовершенствование суперинтеллекта, такого как корпорации. Intel , например, обладает «коллективными умственными способностями десятков тысяч людей и, вероятно, миллионов процессорных ядер, чтобы ... создавать более совершенные процессоры!» Однако это не привело к резкому взлету; скорее, это привело к мягкому взлету в форме закона Мура . [93] Наам далее указывает, что вычислительная сложность высшего интеллекта может быть гораздо больше, чем линейная, так что «создание разума 2, вероятно, более чем в два раза сложнее, чем создание разума разума 1». [94]

Дж. Сторрс Холл считает, что «многие из наиболее часто встречающихся сценариев ночного жесткого взлета являются круговыми - они, кажется, предполагают сверхчеловеческие способности в начальной точке процесса самосовершенствования», чтобы ИИ мог сделать драматический , общие улучшения, необходимые для взлета. Холл предполагает, что вместо того, чтобы рекурсивно совершенствовать свое оборудование, программное обеспечение и инфраструктуру самостоятельно, молодой ИИ лучше будет специализироваться в одной области, где он наиболее эффективен, а затем покупать оставшиеся компоненты на рынке, поскольку качество продуктов на рынке постоянно совершенствуется, и ИИ будет трудно идти в ногу с передовыми технологиями, используемыми остальным миром. [95]

Бен Гертцель согласен с предположением Холла о том, что новый ИИ человеческого уровня преуспел бы, если бы использовал свой интеллект для накопления богатства. Таланты ИИ могут вдохновить компании и правительства на распространение его программного обеспечения в обществе. Гертцель скептически относится к жесткому пятиминутному взлету, но полагает, что переход от человеческого до сверхчеловеческого уровня примерно за пять лет является разумным. Гёрцель называет этот сценарий «полутвердым взлетом». [96]

Макс Подробнеене соглашается, утверждая, что если бы было всего несколько сверхбыстрых ИИ человеческого уровня, они не изменили бы мир радикально, так как они все равно зависели бы от других людей, и все еще имели бы человеческие когнитивные ограничения. Даже если бы все сверхбыстрые ИИ работали над увеличением интеллекта, непонятно, почему они преуспеют в прерывистом режиме, чем существующие ученые-когнитивисты, в создании сверхчеловеческого интеллекта, хотя скорость прогресса увеличится. Более утверждает, что суперинтеллект не изменит мир в одночасье: суперинтеллект должен взаимодействовать с существующими медленными человеческими системами, чтобы оказывать физическое воздействие на мир. "Необходимость сотрудничества для организации,а воплощение идей в физические изменения гарантирует, что все старые правила не будут отброшены в одночасье или даже в течение нескольких лет ».[97]

Бессмертие [ править ]

В своей книге 2005 года, Сингулярность близко , Курцвейл предполагает , что медицинские достижения позволят людям защитить свои тела от последствий старения, делая продолжительность жизни безгранична . Курцвейл утверждает, что технический прогресс в медицине позволит нам постоянно восстанавливать и заменять дефектные компоненты в нашем организме, продлевая жизнь до неопределенного возраста. [98] Курцвейл дополнительно подкрепляет свой аргумент, обсуждая современные достижения в области биоинженерии. Курцвейл предлагает соматическую генную терапию ; После синтетических вирусов со специфической генетической информацией следующим шагом будет применение этой технологии в генной терапии, замена ДНК человека синтезированными генами. [99]

К. Эрик Дрекслер , один из основателей нанотехнологии , в своей книге 1986 года « Двигатели созидания» постулировал устройства для восстановления клеток, в том числе работающие внутри клеток и использующие пока еще гипотетические биологические машины .

По словам Ричарда Фейнмана , именно его бывший аспирант и соратник Альберт Хиббс первоначально предложил ему (примерно в 1959 году) идею медицинского использования теоретических микромашин Фейнмана. Хиббс предположил, что однажды некоторые ремонтные машины могут быть уменьшены в размерах до такой степени, что теоретически можно будет (как выразился Фейнман) « проглотить доктора ». Эта идея была воплощена в эссе Фейнмана 1959 года . Внизу много места . [100]

Помимо простого продления срока службы физического тела, Джарон Ланье приводит доводы в пользу формы бессмертия, называемой «цифровое вознесение», при которой «люди умирают во плоти, загружаются в компьютер и остаются в сознании». [101]

История концепции [ править ]

В статье Махендры Прасада, опубликованной в журнале AI Magazine , утверждается, что математик 18-го века маркиз де Кондорсе был первым человеком, который выдвинул гипотезу и математически смоделировал взрыв интеллекта и его влияние на человечество. [102]

Раннее описание идеи было сделано в рассказе Джона Вуда Кэмпбелла-младшего 1932 года «Последняя эволюция».

В своем некрологе 1958 года Джону фон Нейману Улам вспомнил разговор с фон Нейманом о «постоянно ускоряющемся прогрессе технологий и изменениях в образе жизни человека, что создает впечатление приближения к некоторой существенной сингулярности в истории расы, за пределами которой человеческие дела, какими мы их знаем, не могли продолжаться ". [5]

В 1965 году Гуд написал эссе, в котором постулировал «интеллектуальный взрыв» рекурсивного самосовершенствования машинного интеллекта.

В 1981 году Станислав Лем опубликовал свой научно-фантастический роман « Голем XIV» . Он описывает военный компьютер с ИИ (Голем XIV), который обретает сознание и начинает увеличивать свой собственный интеллект, двигаясь к личной технологической сингулярности. Изначально Голем XIV был создан, чтобы помогать своим строителям в ведении войн, но по мере того, как его интеллект поднимается до гораздо более высокого уровня, чем у людей, он перестает интересоваться военными требованиями, поскольку обнаруживает, что им не хватает внутренней логической последовательности.

В 1983 году Вернор Виндж широко популяризировал взрыв интеллекта Гуда в ряде работ, впервые затронув эту тему в печати в январском выпуске журнала Omni за 1983 год . В этой статье Виндж, кажется, был первым, кто использовал термин «сингулярность» так, как это было конкретно связано с созданием интеллектуальных машин: [103] [104]

Вскоре мы создадим разум больший, чем наш собственный. Когда это произойдет, человеческая история достигнет своего рода сингулярности, интеллектуального перехода, столь же непроницаемого, как запутанное пространство-время в центре черной дыры, и мир выйдет далеко за пределы нашего понимания. Думаю, эта особенность уже не дает покоя ряду писателей-фантастов. Это делает невозможной реалистичную экстраполяцию в межзвездное будущее. Чтобы написать историю, действие которой происходит более чем через столетие, нужна промежуточная ядерная война ... чтобы мир оставался понятным.

В 1985 году в «Шкале времени искусственного интеллекта» исследователь искусственного интеллекта Рэй Соломонофф математически сформулировал родственное понятие того, что он назвал «точкой бесконечности»: если исследовательскому сообществу, занимающемуся самосовершенствованием ИИ человеческого уровня, потребуется четыре года, чтобы удвоиться их собственная скорость, затем два года, затем один год и так далее, их возможности бесконечно увеличиваются за конечное время. [6] [105]

Статья Винджа 1993 года «Грядущая технологическая сингулярность: как выжить в постчеловеческую эпоху» [7] широко распространилась в Интернете и помогла популяризировать эту идею. [106] Эта статья содержит утверждение: «В течение тридцати лет у нас будут технологические средства для создания сверхчеловеческого разума. Вскоре после этого человеческая эра закончится». Виндж утверждает, что авторы научной фантастики не могут написать реалистичных персонажей пост-сингулярности, которые превосходят человеческий интеллект, поскольку мысли такого интеллекта были бы недоступны для выражения людьми. [7]

В 2000 году Билл Джой , известный технолог и соучредитель Sun Microsystems , выразил обеспокоенность по поводу потенциальных опасностей сингулярности. [44]

В 2005 году Курцвейл опубликовал книгу «Сингулярность близка» . Рекламная кампания Курцвейла включала появление на The Daily Show с Джоном Стюартом . [107]

В 2007 году Элиэзер Юдковски предположил, что многие из различных определений, которые давались «сингулярности», скорее несовместимы, чем взаимно подкрепляют друг друга. [19] [108] Например, Курцвейл экстраполирует текущие технологические траектории после появления самоулучшающегося ИИ или сверхчеловеческого интеллекта, что, по мнению Юдковски, представляет собой противоречие как с предложенным И. Дж. Гудом прерывистым ростом интеллекта, так и с тезисом Винджа о непредсказуемости. [19]

В 2009 году Курцвейл и основатель X-Prize Питер Диамандис объявили о создании Университета сингулярности , неаккредитованного частного института, чья заявленная миссия состоит в том, чтобы «обучать, вдохновлять и расширять возможности лидеров применять экспоненциальные технологии для решения великих задач человечества». [109] Финансируется Google , Autodesk , ePlanet Ventures и группы технологий промышленности лидеров, Singularity University основан в НАСА «s Research Center Ames в Маунтин - Вью , Калифорния. Эта некоммерческая организация летом проводит ежегодную десятинедельную программу для выпускников, которая охватывает десять различных технологических и смежных направлений, а также серию программ для руководителей в течение года.

В политике [ править ]

В 2007 году Объединенный экономический комитет Конгресса США выпустил отчет о будущем нанотехнологий. Он предсказывает значительные технологические и политические изменения в среднесрочной перспективе, включая возможную технологическую сингулярность. [110] [111] [112]

Бывший президент США Барак Обама говорил о сингулярности в своем интервью Wired в 2016 году: [113]

Одна вещь, о которой мы не слишком много говорили, и я просто хочу вернуться к ней, - это то, что нам действительно нужно подумать об экономических последствиях. Потому что большинство людей сейчас не тратят много времени, беспокоясь о сингулярности - они беспокоятся о том, «Что ж, заменят ли мою работу машину?»

См. Также [ править ]

  • Ускорение изменений  - предполагаемое увеличение скорости технологических изменений на протяжении всей истории
  • Искусственное сознание  - область когнитивной науки
  • Гонка вооружений искусственного интеллекта
  • Искусственный интеллект в художественной литературе  - Искусственный интеллект в художественной литературе
  • Моделирование мозга
  • Интерфейс мозг – компьютер  - прямой канал связи между расширенным или проводным мозгом и внешним устройством
  • Новые технологии  - технологии, разработка и практическое применение которых или и то, и другое в значительной степени не реализованы.
  • Парадокс Ферми  - противоречие между отсутствием доказательств и высокой вероятностью существования внеземных цивилизаций
  • Эффект Флинна  - рост общего человеческого интеллекта в 20 веке
  • Исследования будущего  - Изучение постулирования возможных, вероятных и предпочтительных вариантов будущего
  • Глобальный мозг
  • Человеческий интеллект § Улучшение интеллекта
  • Загрузка разума  - гипотетический процесс цифровой имитации мозга.
  • Нейроусиление
  • Схема трансгуманизма  - Список ссылок на статьи Википедии, относящиеся к теме трансгуманизма
  • Обучение роботов
  • Сингулярность  - вера в зарождающуюся технологическую сингулярность
  • Технологический детерминизм
  • Технологическая революция  - Период стремительных технологических изменений
  • Технологическая безработица  - Безработица, в первую очередь вызванная технологическими изменениями.

Ссылки [ править ]

Цитаты [ править ]

  1. ^ Cadwalladr, Кароль (2014). « Роботы вот-вот вырастут? Новый технический директор Google так думает… Архивировано 4 октября 2018 года в Wayback Machine » The Guardian . Guardian News and Media Limited.
  2. ^ «Сборник источников, определяющих« сингулярность » » . singularitysymposium.com . Архивировано 17 апреля 2019 года . Проверено 17 апреля 2019 года .
  3. ^ a b Eden, Amnon H .; Мур, Джеймс Х. (2012). Гипотезы сингулярности: научная и философская оценка . Дордрехт: Спрингер. С. 1–2. ISBN 9783642325601.
  4. ^ Технологическая сингулярность Мюррея Шанахана, (MIT Press, 2015), стр. 233
  5. ^ a b c Улам, Станислав (май 1958 г.). «Дань Джону фон Нейману» (PDF) . Бюллетень Американского математического общества . 64, # 3, часть 2: 5. Архивировано (PDF) из оригинала на 2021-02-15 . Проверено 7 ноября 2018 .
  6. ^ a b c Чалмерс, Дэвид (2010). «Необычность: философский анализ». Журнал исследований сознания . 17 (9–10): 7–65.
  7. ^ a b c d e f Виндж, Вернор. «Грядущая технологическая сингулярность: как выжить в постчеловеческую эру». Архивировано 10 апреля 2018 г. в Wayback Machine , в Vision-21: междисциплинарная наука и инженерия в эпоху киберпространства , изд. GA Landis, издание НАСА. CP-10129, стр. 11–22, 1993.
  8. ^ Sparkes, Мэтью (13 января 2015). «Ведущие ученые призывают с осторожностью относиться к искусственному интеллекту» . Телеграф (Великобритания) . Архивировано 7 апреля 2015 года . Проверено 24 апреля 2015 года .
  9. ^ «Хокинг: ИИ может положить конец человечеству» . BBC. 2 декабря 2014 года. Архивировано 30 октября 2015 года . Проверено 11 ноября 2017 года .
  10. ^ Хачатурян, Раффи (16 ноября 2015). «Изобретение судного дня» . Житель Нью-Йорка . Архивировано 29 апреля 2019 года . Проверено 31 января 2018 года .
  11. Перейти ↑ Müller, VC, & Bostrom, N. (2016). «Будущий прогресс в области искусственного интеллекта: обзор мнения экспертов». В VC Müller (ed): Основные вопросы искусственного интеллекта (стр. 555–572). Спрингер, Берлин. http://philpapers.org/rec/MLLFPI Архивировано 2 марта 2019 г. в Wayback Machine.
  12. ^ Эрлих, Пол. Доминантное животное: эволюция человека и окружающая среда. Архивировано 8 октября 2018 г. в Wayback Machine.
  13. ^ Сверхмозг, рожденный из кремния, все изменит. Архивировано 1 августа 2010 года в Wayback Machine.
  14. ^ a b Ямпольский, Роман В. «Анализ типов самоулучшающегося программного обеспечения». Общий искусственный интеллект. Springer International Publishing, 2015. 384–393.
  15. ^ a b Элиэзер Юдковский . Общий интеллект и семенной ИИ - создание целостных умов, способных к открытому самоусовершенствованию, 2001 г.
  16. ^ a b Хорошо, IJ «Спекуляции относительно первой сверхразумной машины» , « Достижения в области компьютеров» , том. 6, 1965. Архивировано 1 мая 2012 года, в Wayback Machine.
  17. Рэй Курцвейл, Сингулярность близка, стр. 135–136. Penguin Group, 2005 год.
  18. ^ "Журнал h + | Охватывает технологические, научные и культурные тенденции, фундаментально меняющие человека" . Hplusmagazine.com. Архивировано из оригинала на 2010-12-23 . Проверено 9 сентября 2011 .
  19. ^ a b c Юдковский, Элиэзер . Сингулярность: три основные школы, заархивированные 01.10.2018 в Wayback Machine
  20. ^ Сандберг, Андерс . Обзор моделей технологической сингулярности. Архивировано 24 июля 2011 г. на Wayback Machine.
  21. ^ Кай Сотала и Роман Ямпольский (2017). «Риски путешествия к сингулярности». Технологическая сингулярность . Коллекция Frontiers. Springer Berlin Heidelberg. С. 11–23. DOI : 10.1007 / 978-3-662-54033-6_2 . ISBN 978-3-662-54031-2.
  22. ^ a b «Что такое сингулярность? | Институт сингулярности для искусственного интеллекта» . Singinst.org. Архивировано из оригинала на 2011-09-08 . Проверено 9 сентября 2011 .
  23. ^ Дэвид Дж. Чалмерс (2016). «Сингулярность». Научная фантастика и философия . John Wiley \ & Sons, Inc., стр. 171–224. DOI : 10.1002 / 9781118922590.ch16 . ISBN 9781118922590.
  24. ^ a b «Светильники технологий обращаются к сингулярности - IEEE Spectrum» . Spectrum.ieee.org . Архивировано 30 апреля 2019 года . Проверено 9 сентября 2011 .
  25. ^ «Кто есть кто в сингулярности - IEEE Spectrum» . Spectrum.ieee.org. Архивировано 15 февраля 2021 года . Проверено 9 сентября 2011 .
  26. ^ Б Пол Аллен: Сингулярность не рядом , извлекаться 2015-04-12
  27. ^ Хэнсон, Робин (1998). «Немного скептицизма» . Архивировано 15 февраля 2021 года . Проверено 8 апреля 2020 года .
  28. ^ Дэвид Чалмерс Лекция Джона Локка, 10 мая, Экзаменационные школы, Оксфорд, Представление философского анализа возможности технологической сингулярности или «интеллектуального взрыва» в результате рекурсивно самоулучшающегося ИИ. Архивировано 15 января 2013 г. в Wayback Machine .
  29. ^ "Сингулярность: философский анализ, Дэвид Дж. Чалмерс" (PDF) . Архивировано (PDF) из оригинала 11.06.2011 . Проверено 9 мая 2010 .
  30. ^ "ИТРС" (PDF) . Архивировано из оригинального (PDF) 29 сентября 2011 года . Проверено 9 сентября 2011 .
  31. ^ Кулкарни, Ажит (2017-12-12). «Почему именно сейчас программное обеспечение важнее оборудования» . Хроника . Архивировано 15 февраля 2021 года . Проверено 23 февраля 2019 .
  32. Грейс, Катя; Сальватье, Джон; Дефо, Аллан; Чжан, Баобао; Эванс, Оуайн (24 мая 2017 г.). «Когда ИИ превзойдет человеческие возможности? Данные экспертов по ИИ». arXiv : 1705.08807 [ cs.AI ].
  33. Сиракуза, Джон (31.08.2009). «Mac OS X 10.6 Snow Leopard: обзор Ars Technica» . Arstechnica.com. Архивировано 03 сентября 2011 года . Проверено 9 сентября 2011 .
  34. ^ Юдковски, 1996 «Вглядываясь в Сингулярность» Архивированные 2018-03-30 в Wayback Machine
  35. ^ "Светильники техники обращаются к сингулярности" . IEEE Spectrum . 1 июня 2008. Архивировано 30 апреля 2019 года . Дата обращения 2 февраля 2020 .
  36. Перейти ↑ Moravec, Hans (1999). Робот: простая машина для трансцендентного разума . Oxford U. Press. п. 61. ISBN 978-0-19-513630-2.
  37. ^ Рэй Курцвейл, Эпоха духовных машин , Викинг; 1999, ISBN 978-0-14-028202-3 . С. 30, 32 Архивировано 15 февраля 2021 года в Wayback Machine 
  38. ^ a b Рэй Курцвейл, Сингулярность близка , Penguin Group, 2005
  39. ^ a b «Мировой технологический потенциал для хранения, передачи и вычисления информации». Архивировано 27 июля 2013 г. в Wayback Machine , Мартин Гильберт и Присцила Лопес (2011), Science , 332 (6025), 60–65; бесплатный доступ к статье здесь: martinhilbert.net/WorldInfoCapacity.html
  40. ^ Сингулярность 21-го века и глобальное будущее. Перспектива большой истории, заархивированная 15 февраля 2021 года в Wayback Machine (Springer, 2020)
  41. Рэй Курцвейл, Сингулярность близка, стр. 9. Penguin Group, 2005 г.
  42. Рэй Курцвейл, Сингулярность близка , стр. 135–136. Penguin Group, 2005. «Таким образом,в начале 2030-х годовмы будем производить от 10 26 до 10 29 циклов небиологических вычислений в год. Это примерно равно нашей оценке способности всего живого биологического интеллекта человека ... Это состояние Однако вычисления в начале 2030-х годов не будут представлять сингулярность, поскольку они еще не соответствуют глубокому расширению нашего интеллекта. Однако к середине 2040-х годов эти вычисления на тысячу долларов будут равны 10 26 cps. , поэтому интеллект, создаваемый в год (общей стоимостью около 10 12 долларов США)) будет примерно в миллиард раз мощнее всего человеческого разума сегодня. Это действительно будет представлять собой глубокое изменение, и именно по этой причине я установил дату Сингулярности, представляющую глубокую и разрушительную трансформацию человеческих способностей, как 2045 год ».
  43. ^ Курцвейл, Раймонд (2001), «Закон ускорения возврата» , Nature Physics , Lifeboat Foundation, 4 (7): 507, Bibcode : 2008NatPh ... 4..507B , doi : 10.1038 / nphys1010 , заархивировано из оригинала на 2018-08-27 , извлекаться 2007-08-07
  44. ^ a b Джой, Билл (апрель 2000 г.), «Почему мы не нужны будущему» , Wired Magazine , Viking Adult, 8 (4), ISBN 978-0-670-03249-5, заархивировано из оригинала 05.02.2009 , получено 07.08.2007
  45. ^ Элиэзер С. Юдковский. «Сила интеллекта» . Юдковский. Архивировано 3 октября 2018 года . Проверено 9 сентября 2011 .
  46. ^ a b «Омохундро, Стивен М.,« Основные движущие силы ИИ ». Общий искусственный интеллект, материалы первой конференции AGI, 2008 г., ред. Пей Ван, Бен Гертцель и Стэн Франклин. Том 171. Амстердам: IOS, 2008 " . Архивировано 17 сентября 2018 года . Проверено 20 августа 2010 .
  47. ^ «Искусственный общий интеллект: настало время» . KurzweilAI. Архивировано 4 декабря 2011 года . Проверено 9 сентября 2011 .
  48. ^ a b "Омохундро, Стивен М.," Природа самоулучшающегося искусственного интеллекта. "Самосознательные системы. 21 января 2008 г. Интернет. 07 января 2010 г." . Архивировано 12 июня 2018 года . Проверено 20 августа 2010 .
  49. ^ Баррат, Джеймс (2013). «6,« Четыре основных привода » ». Наше последнее изобретение (Первое изд.). Нью-Йорк: Издательство Св. Мартина. С. 78–98. ISBN 978-0312622374.
  50. ^ «Макс Мор и Рэй Курцвейл о сингулярности» . KurzweilAI. Архивировано 21 ноября 2018 года . Проверено 9 сентября 2011 .
  51. ^ "Краткое резюме | Сингулярность Институт искусственного интеллекта" . Singinst.org. Архивировано из оригинала на 2011-06-21 . Проверено 9 сентября 2011 .
  52. ^ a b «Бостром, Ник, Будущее человеческой эволюции, смерти и борьбы со смертью: двести лет после Канта, пятьдесят лет после Тьюринга, изд. Чарльз Тэнди, стр. 339–371, 2004, Ria University Press» . Архивировано 28 августа 2018 года . Проверено 20 августа 2010 .
  53. ^ Шульман, Карл; Андерс Сандберг (2010). Майнцер, Клаус (ред.). «Последствия сингулярности, ограниченной программным обеспечением» (PDF) . ECAP10: VIII Европейская конференция по вычислениям и философии . Архивировано (PDF) из оригинала 30 апреля 2019 года . Дата обращения 17 мая 2014 .
  54. ^ Muehlhauser, Люк; Анна Саламон (2012). «Интеллектуальный взрыв: доказательства и импорт» (PDF) . В Амноне Эдеме; Джонни Сёракер; Джеймс Х. Мур; Эрик Стейнхарт (ред.). Гипотезы сингулярности: научная и философская оценка . Springer. Архивировано (PDF) из оригинала 26.10.2014 . Проверено 28 августа 2018 .
  55. ^ Дрейфус и Дрейфус 2000 , стр. xiv: «Истина в том, что человеческий интеллект никогда не может быть заменен машинным интеллектом просто потому, что мы сами не являемся« мыслящими машинами »в том смысле, в котором этот термин обычно понимается». Хокинг (1998) : «Некоторые люди говорят, что компьютеры никогда не могут показать настоящий интеллект, каким бы он ни был. Но мне кажется, что если очень сложные химические молекулы могут действовать в людях, делая их разумными, то столь же сложные электронные схемы также могут заставить компьютеры действовать разумным образом. И если они будут разумными, они, вероятно, смогут создавать компьютеры еще большей сложности и интеллекта ».
  56. ^ Джон Р. Сирл , «То, что ваш компьютер не может знать», Нью-Йоркское обозрение книг , 9 октября 2014 г., стр. 54.
  57. ^ Форд, Мартин, Огни в туннеле: автоматизация, ускоряющиеся технологии и экономика будущего Архивировано 06 сентября 2010 г. в Wayback Machine , Acculant Publishing, 2009, ISBN 978-1-4486-5981-4 
  58. ^ Марков, Джон (2011-03-04). «Армии дорогих юристов заменены более дешевым программным обеспечением» . Нью-Йорк Таймс . Архивировано 15 февраля 2021 года . Проверено 25 февраля 2017 .
  59. ^ Модис, Теодор (2002) «Прогнозирование роста сложности и изменений». Архивировано 15 февраля 2021 г. на Wayback Machine , Технологическое прогнозирование и социальные изменения , 69, № 4, 2002 г., стр. 377-404
  60. ^ a b Хюбнер, Джонатан (2005) «Возможная тенденция к снижению мировых инноваций». Архивировано 22 марта 2015 г. в Wayback Machine , « Технологическое прогнозирование и социальные изменения» , октябрь 2005 г., стр. 980–6
  61. ^ Кразит, Том. Intel обещает 80 ядер за пять лет. Архивировано 15 февраля 2021 г. на Wayback Machine , CNET News , 26 сентября 2006 г.
  62. ^ Модис, Теодор (2006) «Миф о сингулярности». Архивировано 15 февраля 2021 года в Wayback Machine , Технологическое прогнозирование и социальные изменения , февраль 2006 г., стр. 104–112.
  63. ^ Нордхаус, Уильям Д. (2007). «Два века роста производительности в вычислительной технике». Журнал экономической истории . 67 : 128–159. CiteSeerX 10.1.1.330.1871 . DOI : 10.1017 / S0022050707000058 . 
  64. ^ Шмидхубер, Юрген. «ИИ нового тысячелетия и сближение истории». Проблемы вычислительного интеллекта. Springer Berlin Heidelberg, 2007. 15–35.
  65. ^ Тейнтер, Джозеф (1988) " Коллапс сложных обществ архивации 2015-06-07 в Wayback Machine " (Cambridge University Press)
  66. ^ a b Джарон Ланье (2013). "Кому принадлежит будущее?" . Нью-Йорк: Саймон и Шустер . Архивировано 15 февраля 2021 года . Проверено 2 марта 2016 .
  67. ^ Уильям Д. Нордхаус , "Почему рост будет падать" (обзор Роберта Дж. Гордона , Взлет и падение американского роста: уровень жизни в США после гражданской войны , Princeton University Press, 2016, ISBN 978-0691147727 , 762 стр., 39,95 долл.), The New York Review of Books , vol. LXIII, нет. 13 (18 августа 2016 г.), стр. 68. 
  68. Myers, PZ, Singularly Silly Singularity , заархивировано из оригинала 28 февраля 2009 г. , получено 13 апреля 2009 г.
  69. Anonymous (18 марта 2006 г.), «Больше лезвий хороших» , The Economist , Лондон, 378 (8469), стр. 85, в архиве с оригинала на 10 июля 2006 года , получен 12 июля 2 006
  70. ^ Робин Хэнсон, «Economics Of The Singularity» , Специальный отчет IEEE Spectrum: The Singularity , заархивировано из оригинала 11.08.2011 , извлечено 25.07.2009& Долгосрочный рост как последовательность экспоненциальных режимов, архивировано 27 мая 2019 г. в Wayback Machine
  71. ^ a b Юдковский, Элиэзер (2008), Бостром, Ник; Циркович, Милан (ред.), «Искусственный интеллект как положительный и отрицательный фактор глобального риска» (PDF) , Global Catastrophic Risks , Oxford University Press: 303, Bibcode : 2008gcr..book..303Y , ISBN  978-0-19-857050-9, архивировано из оригинального (PDF) 07.08.2008
  72. ^ "Неопределенное будущее" . theun surefuture.com; будущие технологии и проект моделирования мира . Архивировано 30 апреля 2019 года . Проверено 17 августа 2010 .
  73. ^ «ГЛОБАЛЬНОЕ ОБСЛЕДОВАНИЕ РИСКОВ КАТАСТРОФИЧЕСКИХ РИСКОВ (2008), Технический отчет 2008/1, опубликованный Институтом будущего человечества, Оксфордский университет. Андерс Сандберг и Ник Бостром» (PDF) . Архивировано из оригинального (PDF) 16 мая 2011 года.
  74. ^ «Экзистенциальные риски: анализ сценариев вымирания людей и связанных с ними опасностей» . nickbostrom.com . Архивировано 27 апреля 2011 года . Проверено 25 января 2006 .
  75. ^ a b c Стивен Хокинг (1 мая 2014 г.). «Стивен Хокинг:« Transcendence рассматривает значение искусственного интеллекта - но достаточно ли серьезно мы относимся к ИИ? » » . Независимый . Архивировано 25 сентября 2015 года . Проверено 5 мая 2014 года .
  76. Ник Бостром, «Этические проблемы передового искусственного интеллекта», архивировано 8 октября 2018 г. в Wayback Machine , в « Когнитивных, эмоциональных и этических аспектах принятия решений людьми и в искусственном интеллекте» , Vol. 2, изд. I. Smit et al., Int. Институт перспективных исследований в области системных исследований и кибернетики, 2003 г., стр. 12–17.
  77. ^ Элиэзер Юдковски : Искусственный интеллект как положительный и отрицательный фактор глобального риска. Архивировано 11 июня 2012 г. в Wayback Machine . Черновик публикации в Global Catastrophic Risk от 31 августа 2006 г., получено 18 июля 2011 г. (файл PDF)
  78. ^ «Устройство для сбора марок, Ник Хэй» . Архивировано из оригинала на 2012-06-17 . Проверено 21 августа 2010 .
  79. ^ «Почему мы должны бояться Paperclipper». Архивировано 8 августа 2018 г. в Wayback Machine , запись в блоге Сандберга «Andart» 14 февраля 2011 г.
  80. ^ «Омохундро, Стивен М.,« Основные движущие силы ИИ ». Общий искусственный интеллект, протоколы Первой конференции AGI 2008 г., редакторы Пей Ван, Бен Гертцель и Стэн Франклин. Том 171. Амстердам: IOS, 2008» . Архивировано 17 сентября 2018 года . Проверено 20 августа 2010 .
  81. ^ де Гарис, Гюго. «Грядущая искусственная война». Архивировано 28 июня 2011 г.на Wayback Machine , Forbes.com, 22 июня 2009 г.
  82. Coherent Extrapolated Volition, Элиэзер С. Юдковски, май 2004 г. Архивировано 15 августа 2010 г., в Wayback Machine
  83. ^ Хиббард, Билл (2012), «Модельно-ориентированные служебные функции», Журнал общего искусственного интеллекта , 3 (1): 1, arXiv : 1111.3934 , Bibcode : 2012JAGI .... 3 .... 1H , doi : 10.2478 / v10229-011-0013-5 , S2CID 8434596 . 
  84. ^ a b Как избежать непреднамеренного поведения ИИ. Архивировано 29 июня 2013 года на Wayback Machine Билла Хиббарда. Материалы Пятой конференции по общему искусственному интеллекту, 2012 г., ред. Йоша Бах, Бен Герцель и Мэтью Икл. Эта статья получила премию Тьюринга Института исследований машинного интеллекта в 2012 году за лучшую защитную бумагу AGI, заархивированную 15 февраля 2021 года на Wayback Machine .
  85. ^ Hibbard, Билл (2008), «Технология Разума и новый социальный контракт» , журнал эволюции и технологии , 17 , архивируются с оригинала на 2021-02-15 , извлекаются 2013-01-05 .
  86. ^ Поддержка принятия решений для безопасного проектирования ИИ |, Архивировано 15 февраля 2021 года в Wayback Machine Билла Хиббарда. Материалы Пятой конференции по общему искусственному интеллекту, 2012 г., ред. Йоша Бах, Бен Герцель и Мэтью Икл.
  87. ^ a b c Кемп, DJ; Гильберт, М .; Жиллингс, MR (2016). «Информация в биосфере: биологический и цифровой миры» . Тенденции в экологии и эволюции . 31 (3): 180–189. DOI : 10.1016 / j.tree.2015.12.013 . PMID 26777788 . Архивировано 4 июня 2016 года . Проверено 24 мая 2016 . 
  88. ^ a b Марков, Джон (26 июля 2009 г.). «Ученые опасаются, что машины могут перехитрить человека» . Нью-Йорк Таймс . Архивировано из оригинала на 2017-07-01.
  89. Робинсон, Фрэнк С. (27 июня 2013 г.). «Человеческое будущее: модернизация или замена?» . Гуманист . Архивировано 15 февраля 2021 года . Дата обращения 1 мая 2020 .
  90. Элиэзер Юдковский . «Искусственный интеллект как положительный и отрицательный фактор глобального риска». Глобальные катастрофические риски (2008 г.).
  91. ^ Bugaj, Стефан Владимир, и Бен Goertzel. «Пять этических императивов и их значение для взаимодействия человека и ОИИ». Динамическая психология (2007).
  92. ^ Sotala, Кай, и Роман В. Ямпольский. «Ответы на катастрофический риск ОИИ: обзор». Physica Scripta 90.1 (2014): 018001.
  93. ^ Наам, Рамез (2014). «Сингулярность дальше, чем кажется» . Архивировано 17 мая 2014 года . Дата обращения 16 мая 2014 .
  94. ^ Наам, Рамез (2014). «Почему ИИ не поднимаются в мгновение ока - немного математики» . Архивировано 17 мая 2014 года . Дата обращения 16 мая 2014 .
  95. ^ Холл, Дж. Сторрс (2008). «Инженерная утопия» (PDF) . Общий искусственный интеллект, 2008: Материалы первой конференции AGI : 460–467. Архивировано 1 декабря 2014 года (PDF) . Дата обращения 16 мая 2014 .
  96. ^ Goertzel, Бен (26 сентября 2014). «Сверхразум - полужесткие сценарии взлета» . Журнал h +. Архивировано 25 октября 2014 года . Проверено 25 октября 2014 года .
  97. ^ Подробнее, Макс. «Сингулярность встречает экономику» . Архивировано 28 августа 2009 года . Проверено 10 ноября 2014 года .
  98. ^ Сингулярность близка , стр. 215.
  99. ^ Сингулярность близка , стр. 216.
  100. ^ Фейнман, Ричард П. (декабрь 1959 г.). «Внизу много места» . Архивировано из оригинала на 2010-02-11.
  101. ^ Ланье, Ярон (2010). Ты не гаджет: манифест . Нью-Йорк, штат Нью-Йорк: Альфред А. Кнопф . п. 26 . ISBN 978-0307269645.
  102. ^ Прасад, Махендра (2019). «Николя де Кондорсе и первая гипотеза взрыва разведки» . Журнал AI . 40 (1): 29–33. DOI : 10,1609 / aimag.v40i1.2855 .
  103. ^ Dooling, Ричард. Восторг для гиков: когда ИИ переигрывает IQ (2008), стр. 88
  104. ^ Виндж на самом деле не использовал фразу «технологическая сингулярность» в Omni op-ed, но он использовал эту фразу в сборнике рассказов « Угрозы и другие обещания» 1988 года, написанном во введении к своему рассказу «Вихрь времени» (стр. 72): Если не произойдет всемирная катастрофа, я верю, что технологии скоро осуществят наши самые смелые мечты . Когда мы повышаем свой интеллект и интеллект наших творений, мы больше не живем в мире персонажей размером с человека. В этот момент мы попали в технологическую «черную дыру», технологическую сингулярность.
  105. ^ Соломонофф, Р. Дж. «Временная шкала искусственного интеллекта: размышления о социальных эффектах» , Управление человеческими системами, том 5, стр. 149–153, 1985.
  106. ^ Dooling, Ричард. Восторг для гиков: когда ИИ переигрывает IQ (2008), стр. 89
  107. Эпизод от 23 августа 2006 г. на IMDb
  108. ^ Сандберг, Андерс. «Обзор моделей технологической сингулярности». Дорожные карты к AGI и будущее AGI Workshop, Лугано, Швейцария, март. Vol. 8. 2010.
  109. ^ Singularity University Заархивировано 15 февраля 2021 года наофициальном сайте Wayback Machine.
  110. ^ Гастон, Дэвид Х. (14 июля 2010). Энциклопедия нанонауки и общества . Публикации SAGE. ISBN 978-1-4522-6617-6. Архивировано 15 февраля 2021 года . Проверено 4 ноября +2016 .
  111. ^ «Нанотехнологии: будущее наступает раньше, чем вы думаете» (PDF) . Объединенный экономический комитет. Март 2007. Архивировано (PDF) из оригинала 15.02.2021 . Проверено 29 апреля 2012 .
  112. ^ «Конгресс и сингулярность» . Архивировано 15 февраля 2021 года . Проверено 4 ноября 2016 .
  113. ^ Дадич, Скотт (12 октября 2016 г.). «Барак Обама говорит об искусственном интеллекте, роботизированных автомобилях и будущем мира» . Проводной . Архивировано 3 декабря 2017 года . Проверено 4 ноября +2016 .

Источники [ править ]

  • Курцвейл, Рэй (2005). Сингулярность близка . Нью-Йорк, штат Нью-Йорк: Penguin Group. ISBN 9780715635612.
  • Уильям Д. Нордхаус , «Почему рост будет падать» (обзор Роберта Дж. Гордона , Взлет и падение американского роста: уровень жизни в США после гражданской войны , Princeton University Press, 2016, ISBN 978-0691147727 , 762 стр., $ 39,95), The New York Review of Books , vol. LXIII, нет. 13 (18 августа 2016 г.), стр. 64, 66, 68. 
  • Джон Р. Сирл , «То, что ваш компьютер не может знать» (обзор Лучано Флориди , Четвертая революция: как инфосфера меняет человеческую реальность , Oxford University Press, 2014; и Ник Бостром , Суперинтеллект: пути, опасности, стратегии , Oxford University Press, 2014), Нью-Йоркское обозрение книг , т. LXI, нет. 15 (9 октября 2014 г.), стр. 52–55.
  • Good, IJ (1965), «Предположения относительно первой сверхразумной машины» , в Franz L. Alt; Моррис Рубинов (ред.), Достижения в области компьютеров Том 6 , достижений компьютерной техники, 6 , Academic Press , стр 31-88,. Дои : 10.1016 / S0065-2458 (08) 60418-0 , ЛВП : 10919/89424 , ISBN 9780120121069, Архивируются с оригинала на 2001-05-27 , извлекаться 2007-08-07
  • Hanson, Robin (1998), Some Skepticism , Robin Hanson, заархивировано из оригинала 28 августа 2009 г. , извлечено 19 июня 2009 г.
  • Берглас, Энтони (2008), искусственный интеллект будет убивать наши Внуки , архивируется с оригинала на 2014-07-23 , извлекаться 2008-06-13
  • Бостром, Ник (2002), «Экзистенциальные риски» , Journal of Evolution and Technology , 9 , заархивировано из оригинала 27 апреля 2011 г. , извлечено 07 августа 2007 г.
  • Хиббард, Билл (5 ноября 2014 г.). «Этический искусственный интеллект». arXiv : 1411.1373 [ cs.AI ].

Дальнейшее чтение [ править ]

  • Маркус, Гэри , «Я человек ?: Исследователям нужны новые способы отличить искусственный интеллект от естественного», Scientific American , vol. 316, нет. 3 (март 2017 г.), стр. 58–63. Необходимы многочисленные тесты эффективности искусственного интеллекта , потому что «так же, как не существует единого теста спортивного мастерства, не может быть единого окончательного теста интеллекта». Один из таких тестов, «Строительный вызов», будет проверять восприятие и физическое действие - «два важных элемента разумного поведения, которые полностью отсутствовали в исходном тесте Тьюринга.«Еще одно предложение заключалось в том, чтобы дать машинам те же стандартизированные тесты по науке и другим дисциплинам, которые проходят школьники. Пока что непреодолимым камнем преткновения для искусственного интеллекта является неспособность надежного устранения неоднозначности» . [V] Практически каждое предложение [, которое люди генерируют] является неоднозначным , часто по-разному ». Яркий пример известен как« проблема устранения неоднозначности местоимения »: машина не имеет возможности определить, для кого или какое местоимение в предложении - например,« он »,« она »или« это относится.
  • Скаруффи, Пьеро , «Интеллект не искусственный» (2016) за критику движения сингулярности и его сходства с религиозными культами.

Внешние ссылки [ править ]

Послушайте эту статью ( 52 минуты )
Разговорный значок Википедии
Этот аудиофайл был создан на основе редакции этой статьи от 3 ноября 2018 г. и не отражает последующих правок. (2018-11-03)
  • Грядущая технологическая сингулярность: как выжить в постчеловеческую эру (на веб-сайте Вернора Винджа, получено в июле 2019 г.)
  • Вопросы и ответы по Intelligence Explosion от Исследовательского института машинного интеллекта
  • Блог о самонастройки искусственного интеллекта на Жака Pitrat  [ фр ]
  • Почему возможен взрыв разведки (март 2011 г.)
  • Почему взрыв разведки невозможен (ноябрь 2017 г.)