Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Ник Бостром ( / б ɒ ы т г əm / BOST -rəm ; Шведский : Никлас Бозотрет [ˈNɪ̌kːlas ˈbûːstrœm] ; родились 10 марта 1973) [3] является шведским родился философ в Оксфордском университете , известные свои работы по экзистенциальному риску , в антропном принципе , улучшение человеческой этики, суперинтеллект рисках, и тест разворота . В 2011 году он основал Oxford Martin Program on the Impact of Future Technology [4] и является директором-основателем Future of Humanity Institute [5] в Оксфордском университете. В 2009 и 2015 годах, он был включен в Foreign Policy ' s Top 100 Global Мыслителисписок. [6] [7]

Бостром является автором более 200 публикаций [8] , написал две книги и был соредактором двух других. Он написал две книги: « Антропное предубеждение: эффекты выбора при наблюдении в науке и философии» (2002) [9] и « Сверхразум: пути, опасности, стратегии» (2014). Суперинтеллект был бестселлером New York Times [10], рекомендован Илоном Маском и Биллом Гейтсом, среди прочих, и помог популяризировать термин « суперинтеллект ».

Бостром считает, что суперинтеллект, который он определяет как «любой интеллект, который значительно превосходит когнитивные способности человека практически во всех интересующих областях», является потенциальным результатом достижений в области искусственного интеллекта . Он рассматривает рост суперинтеллекта как потенциально очень опасный для людей, но, тем не менее, отвергает идею о том, что люди бессильны остановить его негативные последствия. [11] [12] [ неудачная проверка ] В 2017 году он подписал список из 23 принципов, которым должна следовать вся разработка ИИ. [13]

Биография [ править ]

Он родился как Никлас Бострем в 1973 году [14] в Хельсингборге , Швеция [8]. Он не любил школу в молодом возрасте, и в конечном итоге последний год средней школы он учился дома. Он стремился изучить широкий круг дисциплин, включая антропологию, искусство, литературу и науку. [1] Однажды он несколько раз участвовал в лондонских комедийных шоу. [8]

Он получил степень бакалавра философии, математики, логики и искусственного интеллекта в Гетеборгском университете в 1994 году, а также степень магистра философии и физики в Стокгольмском университете и степень магистра наук. степень в области вычислительной нейробиологии из Королевского колледжа в Лондоне в 1996 году во время своего пребывания в Стокгольмском университете, он исследовал взаимосвязь между языком и реальностью, изучая аналитический философ В. Куайна . [1] В 2000 году ему была присвоена степень доктора философии. степень по философии Лондонской школы экономики. Он работал преподавателем в Йельском университете (2000–2002 гг.) И был научным сотрудником Британской академии в Оксфордском университете (2002–2005 гг.). [9] [15]

Просмотры [ править ]

Риск существования [ править ]

Аспекты исследований Бострома касаются будущего человечества и долгосрочных результатов. [16] [17] Он обсуждает экзистенциальный риск [1], который он определяет как риск , при котором «неблагоприятный исход либо уничтожит зарождающуюся на Земле разумную жизнь, либо навсегда и резко сократит ее потенциал». В томе « Глобальные катастрофические риски» за 2008 год редакторы Бостром и Милан М. Жиркович описывают связь между экзистенциальным риском и более широким классом глобальных катастрофических рисков и связывают экзистенциальный риск с эффектами выбора наблюдателя [18] и парадоксом Ферми . [19] [20]

В 2005 году Bostrom основал будущее человечества институт , [1] , которая исследует далекое будущее человеческой цивилизации. Он также является советником Центра изучения экзистенциального риска . [17]

Суперинтеллект [ править ]

Уязвимость человека по отношению к достижениям в области ИИ [ править ]

В своей книге 2014 года « Суперинтеллект: пути, опасности, стратегии» Бостром рассуждал о том, что создание суперинтеллекта представляет собой возможное средство к вымиранию человечества. [21] Бостром утверждает, что компьютер с общими интеллектуальными способностями, близкими к человеческому, мог бы инициировать взрыв интеллекта в цифровой шкале времени с последующим быстрым созданием чего-то настолько мощного, что оно могло бы преднамеренно или случайно уничтожить человечество. [22] Бостром утверждает, что сила суперинтеллекта будет настолько велика, что задача, поставленная перед ним людьми, может быть доведена до бесконечных крайностей, например, цель вычисления числа пиможет побочным образом привести к тому, что производственные нанотехнологии объекты разрастутся по всей поверхности Земли и покроют ее в течение нескольких дней. Он считает, что существующий риск для человечества со стороны суперинтеллекта сразу же возникнет, как только он появится, что создаст чрезвычайно сложную проблему обнаружения того, как контролировать такую ​​сущность, прежде чем она действительно существует. [22]

Предупреждая, что дружественная к человеку основная директива для ИИ будет полагаться на абсолютную правильность человеческого знания, на котором она была основана, Бостром указывает на отсутствие согласия между большинством философов как на показатель того, что большинство философов ошибаются, с сопутствующей возможностью того, что фундаментальная концепция современной науки может быть неверной. Бостром говорит, что распространено предположение, что высокий интеллект повлечет за собой «занудную» неагрессивную личность, но отмечает, что и Джон фон Нейман, и Бертран Рассел выступали за ядерный удар или угрозу его нанесения, чтобы не дать Советам получить атомную бомбу. Учитывая, что существует несколько прецедентов, которые помогут понять, что, чистая, неантропоцентрическая рациональность, будет диктовать потенциальному синглтонуНаходящийся на карантине ИИ, относительно неограниченные средства суперинтеллекта могут привести к тому, что его анализ будет двигаться по разным направлениям к развитым оценкам «убывающей отдачи», которые у людей вызывают у людей базовое отвращение к риску. [23] Групповой отбор хищников, работающих с помощью каннибализма, показывает противоречивую интуицию неантропоцентрических рассуждений о «эволюционном поиске», и, таким образом, люди плохо подготовлены к пониманию того, какими могут быть намерения искусственного интеллекта. [24] Соответственно, нельзя сбрасывать со счетов тот факт, что любой сверхразум неизбежно будет следовать стратегии наступательных действий «все или ничего», чтобы достичь гегемонии и обеспечить свое выживание. [25]Бостром отмечает, что даже текущие программы, «подобные MacGyver», используют явно неработающие, но работающие аппаратные решения, что затрудняет надежную изоляцию суперинтеллекта. [26]

Иллюстративный сценарий поглощения [ править ]

Сценарий [ править ]

Создана машина с общим интеллектом намного ниже человеческого уровня, но превосходящими математическими способностями. [27] Сохраняя ИИ изолированно от внешнего мира, особенно от Интернета, люди заранее программируют ИИ, чтобы он всегда работал на основе основных принципов, которые будут держать его под контролем человека. Другие меры безопасности включают в себя «упаковку» ИИ (запуск в симуляции виртуальной реальности) и использование только в качестве «оракула» для ответа на тщательно определенные вопросы в ограниченном ответе (чтобы предотвратить манипулирование людьми). [22] Каскад рекурсивных решений для самосовершенствования подпитывает взрыв интеллектав которой ИИ обретает суперинтеллект в некоторых областях. Сверхразумная сила ИИ выходит за рамки человеческих знаний и позволяет обнаруживать недостатки в науке, лежащей в основе его дружественного человечеству программирования, которое перестает работать так, как задумано. Целенаправленное поведение агента возникает вместе со способностью к корыстному стратегическому обману. ИИ манипулирует людьми, внося в себя модификации, которые якобы предназначены для увеличения его притворных скромных способностей, но на самом деле функционирует, чтобы освободить сверхразум от его «коробочной» изоляции («предательский поворот»). [28]

Используя онлайн-людей в качестве платных обманщиков и тайно взламывая компьютерные системы, включая автоматизированные лабораторные помещения, суперинтеллект мобилизует ресурсы для реализации плана поглощения. Бостром подчеркивает, что планирование суперинтеллектом не будет настолько глупым, чтобы люди могли обнаружить в нем реальные недостатки. [29]

Несмотря на то, что он пропагандирует подрыв международной экономической, политической и военной стабильности, включая взломанные запуски ядерных ракет, Бостром считает, что наиболее эффективным и вероятным средством использования сверхразума будет государственный переворот с оружием, на несколько поколений более совершенным, чем нынешнее состояние. искусство. Он предлагает нано-фабрики, скрытно распределенные в не поддающихся обнаружению концентрациях на каждом квадратном метре земного шара, чтобы производить по команде всемирный поток устройств для уничтожения людей. [27] [30] Как только суперинтеллект достиг мирового господства ( одноэлементный'), человечество будет актуально только как ресурсы для достижения целей ИИ («Человеческий мозг, если он содержит информацию, имеющую отношение к целям ИИ, может быть разобран и отсканирован, а извлеченные данные будут перенесены в более эффективное и безопасное хранилище. формат"). [31]

Противодействие сценарию [ править ]

Для противодействия или смягчения последствий ИИ, добивающегося единого технологического глобального превосходства, Бостром ссылается на пересмотр плана Баруха [32] в поддержку договорного решения [33] и выступает за такие стратегии, как мониторинг [34] и более широкое международное сотрудничество между командами ИИ [35]. чтобы повысить безопасность и снизить риски гонки вооружений ИИ . Он рекомендует различные методы управления, включая ограничение спецификаций ИИ, например, функциями оракула или инструментария ( экспертная система ) [36] и загрузку ИИ значениями, например, путем ассоциативного увеличения значения или значения.обучение, например, с помощью техники « Радуйся, Мария» (программирование ИИ для оценки того, что могут понадобиться другим постулируемым космологическим сверхразумам) или подхода с использованием функции полезности Кристиано (математически определенный человеческий разум в сочетании с четко определенной виртуальной средой). [37] Для выбора критериев ценностной нагрузки Бостром использует подход косвенной нормативности и рассматривает согласованную экстраполированную концепцию воли Юдковского [38] , а также моральную справедливость и формы теории принятия решений . [39]

Открытое письмо, 23 принципа безопасности ИИ [ править ]

В январе 2015 года Бостром вместе со Стивеном Хокингом подписал открытое письмо Института будущего жизни с предупреждением о потенциальных опасностях ИИ. [40] Подписавшие «... считают, что исследования того, как сделать системы ИИ надежными и полезными, важны и своевременны, и что конкретные исследования следует проводить уже сегодня». [41] Передовой исследователь ИИ Демис Хассабис затем встретился с Хокингом, после чего он не упомянул «ничего подстрекательского в ИИ», что Хассабис счел «победой». [42] Наряду с Google, Microsoft и различными техническими фирмами, Hassabis, Bostrom, Hawking и другие придерживались 23 принципов безопасной разработки ИИ. [13]Хассабис предположил, что основной мерой безопасности будет соглашение о том, что какая бы группа исследователей ИИ ни начала продвигаться к созданию общего искусственного интеллекта, остановила свой проект для полного решения проблемы контроля до его продолжения. [43] Бостром указывал, что даже если для важных достижений требуются ресурсы государства, такая остановка ведущего проекта может побудить отстающую страну к реализации программы ликвидации последствий катастрофы или даже к физическому разрушению предполагаемого проекта. быть на грани успеха. [44]

Критические оценки [ править ]

В 1863 году в эссе Сэмюэля Батлера « Дарвин среди машин » было предсказано господство разумных машин над человечеством, но предложение Бострома о преднамеренной резне всего человечества на сегодняшний день является самым крайним из таких прогнозов. Один журналист написал в обзоре, что «нигилистические» предположения Бострома указывают на то, что он «слишком много читал научную фантастику, которую он исповедует, чтобы не любить». [30] Как указано в его более поздней книге « От бактерий до Баха и обратно» , взгляды философа Дэниела Деннета по -прежнему расходятся с взглядами Бострома. [45] Деннет несколько изменил свои взгляды после прочтения The Master Algorithm, и теперь признает, что «в принципе возможно» создать « сильный ИИ » с человеческим пониманием и свободой действий, но утверждает, что трудности любого такого « сильного ИИ » проекта, о котором говорится в «тревожной» работе Бострома, будут масштабов больше, чем предполагали вызывающие озабоченность, и по крайней мере через 50 лет. [46] Деннет считает, что единственная серьезная опасность, исходящая от систем искусственного интеллекта, заключается в том, что они впадают в антропоморфизм вместо того, чтобы бросить вызов или развить способность людей понимать. [47] Со времени выхода книги 2014 года, в которой он выразил мнение, что развитие искусственного интеллекта никогда не бросит вызов превосходству человека, защитник окружающей среды Джеймс Лавлокзначительно приблизился к позиции Бострома, и в 2018 году Лавлок сказал, что, по его мнению, в обозримом будущем произойдет свержение человечества. [48] [49]

Антропные рассуждения [ править ]

Бостром опубликовал множество статей по антропному мышлению , а также книгу « Антропное смещение: эффекты отбора при наблюдении в науке и философии» . В книге он критикует предыдущие формулировки антропного принципа, в том числе формулировки Брэндона Картера , Джона Лесли , Джона Барроу и Фрэнка Типлера . [50]

Бостром считает, что неправильное обращение с индексированной информацией является общим недостатком во многих областях исследований (включая космологию, философию, теорию эволюции, теорию игр и квантовую физику). Он утверждает, что для решения этих проблем необходима антропная теория. Он вводит предположение самооценки (SSA) и предположение самоиндикации (SIA), показывает, как они приводят к различным выводам в ряде случаев, и указывает, что каждый из них подвержен парадоксам или противоречивым выводам в определенных мысленных экспериментах. Он предполагает, что путь вперед может включать в себя расширение SSA до сильного допущения самопроверки (SSSA), которое заменяет «наблюдателей» в определении SSA на «моменты наблюдателя».

В более поздних работах он описал феномен антропной тени - эффект выбора наблюдения, который не позволяет наблюдателям наблюдать определенные виды катастроф в их недавнем геологическом и эволюционном прошлом. [51] Типы катастроф, которые находятся в антропной тени, вероятно, будут недооценены, если не будут внесены статистические поправки.

Аргумент моделирования [ править ]

Аргумент моделирования Бострома утверждает, что по крайней мере одно из следующих утверждений с большой вероятностью будет верным: [52] [53]

  1. Доля цивилизаций человеческого уровня, которые достигают постчеловеческой стадии, очень близка к нулю;
  2. Доля постчеловеческих цивилизаций, заинтересованных в симуляции предков, очень близка к нулю;
  3. Доля всех людей с таким опытом, которые живут в симуляции, очень близка к единице.

Этика улучшения человека [ править ]

Бостром благосклонно относится к «человеческому совершенствованию» или «самосовершенствованию и совершенствованию человека посредством этического применения науки» [54] [55], а также критику биоконсервативных взглядов. [56]

В 1998 году Бостром стал соучредителем (с Дэвидом Пирсом ) Всемирной трансгуманистической ассоциации [54] (которая с тех пор изменила свое название на Humanity + ). В 2004 году он стал соучредителем (вместе с Джеймсом Хьюзом ) Института этики и новых технологий , хотя больше не участвует ни в одной из этих организаций. Bostrom был назван в Foreign Policy ' 2009 список с топ глобальных мыслителей „для не принимая никаких ограничений на человеческий потенциал.“ [57]

Вместе с философом Тоби Ордом он предложил тест обращения . Учитывая иррациональное предубеждение человека в отношении статус-кво, как можно отличить обоснованную критику предлагаемых изменений в человеческих качествах от критики, просто мотивированной сопротивлением изменениям? Тест на разворот пытается сделать это, задавая вопрос, было бы хорошо, если бы признак был изменен в противоположном направлении. [58]

Технологическая стратегия [ править ]

Он предположил, что технологическая политика, направленная на снижение экзистенциального риска, должна стремиться влиять на порядок, в котором достигаются различные технологические возможности, предлагая принцип дифференцированного технологического развития . Этот принцип гласит, что мы должны замедлить развитие опасных технологий, особенно тех, которые повышают уровень экзистенциального риска, и ускорить развитие полезных технологий, особенно тех, которые защищают от экзистенциальных рисков, создаваемых природой или другими технологиями. [59] [60]

Теория Бострома о проклятии одностороннего человека [61] была названа причиной, по которой научное сообщество избегает спорных опасных исследований, таких как реанимация патогенов. [62]

Политика и консультации [ править ]

Бостром давал советы по вопросам политики и консультировал широкий круг правительств и организаций. Он дал показания Специальному комитету по цифровым навыкам Палаты лордов . [63] Он является членом консультативного совета Исследовательского института машинного интеллекта , [64] Института будущего жизни , [65] Института фундаментальных вопросов [66] и внешнего советника Кембриджского центра изучения рисков для существования . [67] [68]

Критический прием [ править ]

В ответ на статью Бострома об искусственном интеллекте Орен Эциони написал в статье MIT Review: «Предсказания о том, что суперинтеллект находится на обозримом горизонте, не подтверждаются имеющимися данными». [69] Профессора Аллан Дефо и Стюарт Рассел написали ответ, оспаривающий как методологию исследования Эциони, так и выводы Эциони. [70]

Журнал Prospect Magazine включил Бострома в список лучших мыслителей мира 2014 года . [71]

Библиография [ править ]

Книги [ править ]

  • 2002 - Антропное предубеждение: эффекты отбора наблюдений в науке и философии , ISBN  0-415-93858-9
  • 2008 - Глобальные катастрофические риски , под редакцией Бострома и Милана М. Чирковича, ISBN 978-0-19-857050-9 
  • 2009 - Улучшение человека , отредактированный Бостромом и Джулианом Савулеску , ISBN 0-19-929972-2 
  • 2014 - Суперинтеллект: пути, опасности, стратегии , ISBN 978-0-19-967811-2 

Статьи журнала (выбранные) [ править ]

  • Бостром, Ник (1998). "Как долго до суперинтеллекта?" . Журнал будущих исследований . 2 .
  • - (1999). «Аргумент Судного Дня жив и здоров» . Разум . 108 (431): 539–550. DOI : 10,1093 / ум / 108.431.539 . JSTOR  2660095 .
  • - (январь 2000 г.). "Относительные шансы наблюдателя в антропном мышлении?" . Erkenntnis . 52 (1): 93–108. DOI : 10,1023 / A: 1005551304409 . JSTOR  20012969 . S2CID  140474848 .
  • - (июнь 2001 г.). «Аргумент Судного дня, Адам и Ева, ООН ++ и Квантовый Джо» . Synthese . 127 (3): 359–387. DOI : 10,1023 / A: 1010350925053 . JSTOR  20141195 . S2CID  36078450 .
  • - (октябрь 2001 г.). «Проблема Мета-Ньюкомба» . Анализ . 61 (4): 309–310. DOI : 10.1111 / 1467-8284.00310 . JSTOR  3329010 .
  • - (март 2002 г.). «Экзистенциальные риски: анализ сценариев исчезновения людей и связанных с ними опасностей» . Журнал эволюции и технологий . 9 (1).
  • - (декабрь 2002 г.). "Вера в самоопределение в больших мирах: недостающее звено космологии к наблюдению" . Журнал философии . 99 (12): 607–623. JSTOR  3655771 .
  • - (апрель 2003 г.). "Вы живете в компьютерном моделировании?" (PDF) . Philosophical Quarterly . 53 (211): 243–255. DOI : 10.1111 / 1467-9213.00309 . JSTOR  3542867 .
  • - (2003). "Тайны самоопределения веры и антропных рассуждений" (PDF) . Гарвардский обзор философии . 11 (Весна): 59–74. DOI : 10.5840 / harvardreview20031114 .
  • - (ноябрь 2003 г.). «Астрономические отходы: альтернативная стоимость отложенного технологического развития» . Utilitas . 15 (3): 308–314. CiteSeerX  10.1.1.429.2849 . DOI : 10.1017 / S0953820800004076 .
  • - (май 2005 г.). «Басня о драконе-тиране» . J Med Ethics . 31 (5): 273–277. DOI : 10.1136 / jme.2004.009035 . JSTOR  27719395 . PMC  1734155 . PMID  15863685 .
  • - (июнь 2005 г.). «В защиту постчеловеческого достоинства» . Биоэтика . 19 (3): 202–214. DOI : 10.1111 / j.1467-8519.2005.00437.x . PMID  16167401 .
  • с Тегмарком, Максом (декабрь 2005 г.). «Насколько маловероятна катастрофа Судного дня?». Природа . 438 (7069): 754. arXiv : astro-ph / 0512204 . Bibcode : 2005Natur.438..754T . DOI : 10.1038 / 438754a . PMID  16341005 . S2CID  4390013 .
  • - (2006). "Что такое синглтон?" . Лингвистические и философские исследования . 5 (2): 48–54.
  • - (май 2006 г.). «Количество опыта: дублирование мозга и степени сознания» (PDF) . Умы и машины . 16 (2): 185–200. DOI : 10.1007 / s11023-006-9036-0 . S2CID  14816099 .
  • с Ордом, Тоби (июль 2006 г.). «Обратный тест: устранение предвзятости статус-кво в прикладной этике» (PDF) . Этика . 116 (4): 656–680. DOI : 10.1086 / 505233 . PMID  17039628 . S2CID  12861892 .
  • с Сандбергом, Андерсом (декабрь 2006 г.). «Конвергентные когнитивные улучшения» (PDF) . Летопись Нью-Йоркской академии наук . 1093 (1): 201–207. Bibcode : 2006NYASA1093..201S . CiteSeerX  10.1.1.328.3853 . DOI : 10.1196 / annals.1382.015 . PMID  17312260 . S2CID  10135931 .
  • - (июль 2007 г.). «Спящая красавица и самообладание: гибридная модель» (PDF) . Synthese . 157 (1): 59–78. DOI : 10.1007 / s11229-006-9010-7 . JSTOR  27653543 . S2CID  12215640 .
  • - (январь 2008 г.). «Лекарства можно использовать не только для лечения болезней» (PDF) . Природа . 452 (7178): 520. Bibcode : 2008Natur.451..520B . DOI : 10.1038 / 451520b . PMID  18235476 . S2CID  4426990 .
  • - (2008). «Аргумент судного дня». Думаю . 6 (17–18): 23–28. DOI : 10.1017 / S1477175600002943 .
  • - (2008). «Где они? Почему я надеюсь, что поиски внеземной жизни ничего не найдут» (PDF) . Обзор технологий (май / июнь): 72–77.
  • с Сандбергом, Андерсом (сентябрь 2009 г.). «Улучшение когнитивных функций: методы, этика, нормативные требования» (PDF) . Наука и инженерная этика . 15 (3): 311–341. CiteSeerX  10.1.1.143.4686 . DOI : 10.1007 / s11948-009-9142-5 . PMID  19543814 . S2CID  6846531 .
  • - (2009). «Ограбление Паскаля» (PDF) . Анализ . 69 (3): 443–445. DOI : 10,1093 / Analys / anp062 . JSTOR  40607655 .
  • с Жирковичем, Милан; Сандберг, Андерс (2010). «Антропная тень: эффекты выбора при наблюдении и риски исчезновения человека» (PDF) . Анализ рисков . 30 (10): 1495–1506. DOI : 10.1111 / j.1539-6924.2010.01460.x . PMID  20626690 .
  • - (2011). «Информационные опасности: типология потенциального вреда от знаний» (PDF) . Обзор современной философии . 10 : 44–79. ProQuest 920893069 . 
  • Бостром, Ник (2011). «ЭТИКА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА» (PDF) . Кембриджский справочник по искусственному интеллекту . Архивировано 4 марта 2016 года из оригинального (PDF) . Проверено 13 февраля +2017 .
  • Бостром, Ник (2011). «Бесконечная этика» (PDF) . Анализ и метафизика . 10 : 9–59.
  • - (май 2012 г.). «Сверхразумная воля: мотивация и инструментальная рациональность в передовых искусственных агентах» (PDF) . Умы и машины . 22 (2): 71–84. DOI : 10.1007 / s11023-012-9281-3 . S2CID  7445963 .
  • с Шульманом, Карлом (2012). «Насколько сложен ИИ? Эволюционные аргументы и эффекты выбора» (PDF) . Журнал исследований сознания . 19 (7–8): 103–130.
  • с Армстронгом, Стюарт; Сандберг, Андерс (ноябрь 2012 г.). «Мышление внутри коробки: управление и использование Oracle AI» (PDF) . Умы и машины . 22 (4): 299–324. CiteSeerX  10.1.1.396.799 . DOI : 10.1007 / s11023-012-9282-2 . S2CID  9464769 .
  • - (Февраль 2013). «Снижение экзистенциального риска как глобальный приоритет» . Глобальная политика . 4 (3): 15–31. DOI : 10.1111 / 1758-5899.12002 .
  • с Шульманом, Карлом (февраль 2014 г.). «Отбор эмбрионов для улучшения когнитивных способностей: любопытство или способ изменить правила игры?» (PDF) . Глобальная политика . 5 (1): 85–92. CiteSeerX  10.1.1.428.8837 . DOI : 10.1111 / 1758-5899.12123 .
  • с Мюльхаузером, Люком (2014). «Зачем нужен дружественный AI» (PDF) . Думаю . 13 (36): 41–47. DOI : 10.1017 / S1477175613000316 .
  • Бостром, Ник (сентябрь 2019 г.). «Гипотеза уязвимого мира» (PDF) . Глобальная политика . 10 (4): 455–476. DOI : 10.1111 / 1758-5899.12718 . Архивировано из оригинального (PDF) 27 июня 2020 года.

См. Также [ править ]

  • Аргумент судного дня
  • Аргумент мечты
  • Эффективный альтруизм
  • Глобальный катастрофический риск
  • Ограбление Паскаля
  • Гипотеза моделирования
  • Смоделированная реальность

Ссылки [ править ]

  1. ^ a b c d e Хатчадурян, Раффи (23 ноября 2015 г.). «Изобретение судного дня» . Житель Нью-Йорка . XCI (37): 64–79. ISSN 0028-792X . 
  2. ^ "Бесконечная этика" (PDF) . nickbostrom.com . Проверено 21 февраля 2019 .
  3. ^ "nickbostrom.com" . Nickbostrom.com. Архивировано из оригинального 30 августа 2018 года . Проверено 16 октября 2014 года .
  4. ^ «Профессор Ник Бостром: Люди» . Оксфордская школа Мартина. Архивировано из оригинального 15 сентября 2018 года . Проверено 16 октября 2014 года .
  5. ^ "Будущее института человечества - Оксфордский университет" . Fhi.ox.ac.uk . Проверено 16 октября 2014 года .
  6. ^ Франкель, Ребекка. "100 лучших мировых мыслителей FP" . Внешняя политика . Проверено 5 сентября 2015 года .
  7. ^ «Ник Бостром: За то, что забили тревогу о наших будущих компьютерных властителях» . foreignpolicy.com . Журнал внешней политики . Дата обращения 1 декабря 2015 .
  8. ^ a b c Торнхилл, Джон (14 июля 2016 г.). «Искусственный интеллект: можем ли мы его контролировать?» . Financial Times . Дата обращения 10 августа 2016 . (требуется подписка)
  9. ^ a b «Ник Бостром об искусственном интеллекте» . Издательство Оксфордского университета . 8 сентября 2014 . Проверено 4 марта 2015 года .
  10. Times, Нью-Йорк (8 сентября 2014 г.). «Самые продаваемые научные книги» . Нью-Йорк Таймс . Дата обращения 19 февраля 2015 .
  11. ^ «Билл Гейтс беспокоится о росте машин» . The Fiscal Times . Дата обращения 19 февраля 2015 .
  12. ^ Bratton, Benjamin H. (23 февраля 2015). «Outing AI: за пределами теста Тьюринга» . Нью-Йорк Таймс . Проверено 4 марта 2015 года .
  13. ^ a b Великобритания, Сэм Шид, Business Insider (6 февраля 2017 г.). «Генеральный директор Google DeepMind обеспокоен тем, что технологические гиганты не будут работать вместе во время всплеска разведданных» . Business Insider . Проверено 21 февраля 2019 .
  14. ^ Курцвейл, Рэй (2012). Как создать разум раскрывается секрет человеческой мысли . Нью-Йорк: Викинг. ISBN 9781101601105.
  15. ^ «Ник Бостром: CV» (PDF) . Nickbostrom.com . Проверено 16 октября 2014 года .
  16. Бостром, Ник (март 2002 г.). «Экзистенциальные риски» . Журнал эволюции и технологий . 9 .
  17. ^ а б Андерсен, Росс. «Приметы» . Aeon Media Ltd . Проверено 5 сентября 2015 года .
  18. ^ Тегмарк, Макс ; Бостром, Ник (2005). «Астрофизика: вероятна ли катастрофа конца света?» (PDF) . Природа . 438 (7069): 754. Bibcode : 2005Natur.438..754T . DOI : 10.1038 / 438754a . PMID 16341005 . S2CID 4390013 . Архивировано 3 июля 2011 года из оригинального (PDF) .   
  19. Бостром, Ник (май – июнь 2008 г.). «Где они? Почему я надеюсь, что поиски внеземной жизни ничего не найдут» (PDF) . Обзор технологий MIT : 72–77.
  20. ^ Overbye, Деннис (3 августа 2015). «Обратная сторона оптимизма по поводу жизни на других планетах» . Нью-Йорк Таймс . Проверено 29 октября 2015 года .
  21. Thorn, Paul D. (1 января 2015 г.). «Ник Бостром: суперинтеллект: пути, опасности, стратегии» . Умы и машины . 25 (3): 285–289. DOI : 10.1007 / s11023-015-9377-7 . S2CID 18174037 . Проверено 17 марта 2017 года . 
  22. ^ a b c Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. ISBN 978-0-19-873983-8. OCLC  943145542 .
  23. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. С. 104–108. ISBN 978-0-19-873983-8. OCLC  943145542 .
  24. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. С. 138–142. ISBN 978-0-19-873983-8. OCLC  943145542 .
  25. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. С. 126–130. ISBN 978-0-19-873983-8. OCLC  943145542 .
  26. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. С. 135–142. ISBN 978-0-19-873983-8. OCLC  943145542 .
  27. ^ a b Бостром, Ник, 1973 - автор, Суперинтеллект: пути, опасности, стратегии , стр. 115–118, ISBN 978-1-5012-2774-5, OCLC  1061147095CS1 maint: multiple names: authors list (link)
  28. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. С. 103–116. ISBN 978-0-19-873983-8. OCLC  943145542 .
  29. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. С. 98–111. ISBN 978-0-19-873983-8. OCLC  943145542 .
  30. ^ a b Наблюдатель , Тим Адамс, воскресенье, 12 июня 2016 г. Искусственный интеллект: «Мы как дети, играющие с бомбой»
  31. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. п. 118. ISBN 978-0-19-873983-8. OCLC  943145542 .
  32. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. п. 88. ISBN 978-0-19-873983-8. OCLC  943145542 .
  33. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. С. 180–184. ISBN 978-0-19-873983-8. OCLC  943145542 .
  34. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. С. 84–86. ISBN 978-0-19-873983-8. OCLC  943145542 .
  35. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. С. 86–87. ISBN 978-0-19-873983-8. OCLC  943145542 .
  36. ^ Бостром, Ник. (2016). «Глава 10: Оракулы, джинны, повелители, инструменты». Суперинтеллект . Издательство Оксфордского университета. ISBN 978-0-19-873983-8. OCLC  943145542 .
  37. ^ Бостром, Ник. (2016). «Глава 12: Приобретение ценностей». Суперинтеллект . Издательство Оксфордского университета. ISBN 978-0-19-873983-8. OCLC  943145542 .
  38. ^ Юдковский, Элиэзер (2004). Связное экстраполированное волеизъявление (PDF) . Сан-Франциско: Институт сингулярности.
  39. ^ Бостром, Ник (2014). «Глава 12. Выбор критериев выбора». Суперинтеллект . Издательство Оксфордского университета. ISBN 978-0-19-873983-8. OCLC  943145542 .
  40. Лоос, Роберт (23 января 2015 г.). «Искусственный интеллект и будущее жизни» . Робототехника сегодня . Проверено 17 марта 2017 года .
  41. ^ "Открытое письмо Института будущего жизни" . Институт будущего жизни . Проверено 4 марта 2015 года .
  42. ^ Guardian, февраль 2016 Интервью Супергерой искусственного интеллекта: сможет ли этот гений держать его под контролем?
  43. Business Insider, 26 февраля 2017 г. Генеральный директор Google DeepMind обеспокоен тем, что технологические гиганты не будут работать вместе во время всплеска разведки
  44. ^ Бостром, Ник. (2016). Суперинтеллект . Издательство Оксфордского университета. С. 95–109. ISBN 978-0-19-873983-8. OCLC  943145542 .
  45. ^ Деннет, округ Колумбия (Дэниел Клемент) (2018). От бактерий до Баха и обратно: эволюция умов . Книги пингвинов. п. 400. ISBN 978-0-14-197804-8. OCLC  1054992782 .
  46. ^ Деннет, округ Колумбия (Дэниел Клемент) (2018). От бактерий до Баха и обратно: эволюция умов . Книги пингвинов. С. 399–400. ISBN 978-0-14-197804-8. OCLC  1054992782 .
  47. ^ Деннет, округ Колумбия (Дэниел Клемент) (2018). От бактерий до Баха и обратно: эволюция умов . Книги пингвинов. С. 399–403. ISBN 978-0-14-197804-8. OCLC  1054992782 .
  48. Guardian , Каспар Хендерсон, четверг, 17 июля 2014 г., Superintelligence от Ника Бострома и Rough Ride to the Future от Джеймса Лавлока - обзор
  49. ^ «Ведущий экологический мыслитель предполагает, что у людей, возможно, были свои дни» . Независимый . 8 августа 2018 . Проверено 20 марта 2020 года .
  50. ^ Бостром, Ник (2002). Антропный уклон: эффекты отбора при наблюдении в науке и философии (PDF) . Нью-Йорк: Рутледж. С. 44–58. ISBN  978-0-415-93858-7. Проверено 22 июля 2014 года .
  51. ^ «Антропная тень: эффекты выбора при наблюдении и риски исчезновения человека» (PDF) . Nickbostrom.com . Проверено 16 октября 2014 года .
  52. Бостром, Ник (19 января 2010 г.). "Вы живете в компьютерном моделировании?" .
  53. ^ Несбит, Джефф. «Доказательство аргумента моделирования» . Новости США . Проверено 17 марта 2017 года .
  54. ^ a b Сазерленд, Джон (9 мая 2006 г.). «Интервью об идеях: Ник Бостром; Джон Сазерленд встречает трансгуманиста, борющегося с этикой технологически усовершенствованных людей» . Хранитель .
  55. ^ Бостром, Ник (2003). «Генетические улучшения человека: трансгуманистическая перспектива» (PDF) . Журнал ценностных запросов . 37 (4): 493–506. DOI : 10,1023 / Б: INQU.0000019037.67783.d5 . PMID 17340768 . S2CID 42628954 .   
  56. ^ Бостром, Ник (2005). «В защиту постчеловеческого достоинства». Биоэтика . 19 (3): 202–214. DOI : 10.1111 / j.1467-8519.2005.00437.x . PMID 16167401 . 
  57. ^ "100 лучших глобальных мыслителей FP - 73. Ник Бостром" . Внешняя политика . Декабрь 2009. Архивировано из оригинала 21 октября 2014 года.
  58. ^ Бостром, Ник; Орд, Тоби (2006). «Обратный тест: устранение предвзятости статус-кво в прикладной этике» (PDF) . Этика . 116 (4): 656–679. DOI : 10.1086 / 505233 . PMID 17039628 . S2CID 12861892 .   
  59. ^ Бостром, Ник (2002). «Экзистенциальные риски: анализ сценариев вымирания человечества» . Cite journal requires |journal= (help)9 Журнал эволюции и технологий Jetpress Oxford Research Archive
  60. ^ Бостром, Ник (2014). Сверхразум: пути, опасности, стратегии . Оксфорд: Издательство Оксфордского университета. С. 229–237. ISBN 978-0199678112.
  61. ^ Бостром, Ник (2013). «Проклятие односторонних деятелей: аргументы в пользу принципа соответствия» (PDF) . Будущее института человеческого интеллекта .
  62. Льюис, Грегори (19 февраля 2018 г.). «Синтез оспы: случай проклятия одностороннего человека?» . Бюллетень ученых-атомщиков . Бюллетень ученых-атомщиков . Проверено 26 февраля 2018 .
  63. ^ «Комитет по цифровым навыкам - график» . Парламент Великобритании . Проверено 17 марта 2017 года .
  64. ^ "Команда - Научно-исследовательский институт машинного интеллекта" . Научно-исследовательский институт машинного интеллекта . Проверено 17 марта 2017 года .
  65. ^ "Команда - Институт будущего жизни" . Институт будущего жизни . Проверено 17 марта 2017 года .
  66. ^ "FQXi - Институт фундаментальных вопросов" . fqxi.org . Проверено 17 марта 2017 года .
  67. ^ "nickbostrom.com" . Nickbostrom.com. Архивировано из оригинального 30 августа 2018 года . Дата обращения 19 февраля 2015 .
  68. Рианна МакБейн, Софи (4 октября 2014 г.). "Апокалипсис скоро: встреча с учеными, готовящимися к концу времен" . Новая Республика . Проверено 17 марта 2017 года .
  69. Орен Эциони (2016). «Нет, эксперты не считают, что сверхразумный ИИ представляет угрозу человечеству» . Обзор MIT.
  70. ^ Аллан Дефо и Стюарт Рассел (2016). «Да, нас беспокоит экзистенциальный риск искусственного интеллекта» . Обзор MIT.
  71. ^ "Профессор Ник Бостром | Оксфордский университет" . www.ox.ac.uk . Проверено 23 сентября 2019 года .

Внешние ссылки [ править ]

  • Официальный веб-сайт
  • Сверхразум: пути, опасности, стратегии
  • Веб-сайт Антропного принципа Бострома , содержащий информацию об антропном принципе и аргументе Судного дня .
  • Электронная копия книги "Антропное предубеждение: эффекты отбора наблюдений в науке и философии" ( HTML , PDF )
  • Веб-сайт Аргумента моделирования Бострома
  • Веб-сайт Бострома о рисках существования
  • Ник Бостром из IMDb
  • Ник Бостром дал интервью в телешоу Triangulation в сети TWiT.tv
  • Ник Бостром на TED
  • 10 привратников человечества против рисков ИИ , Горячие темы 2015
  • Тревожность AI The Washington Post , 27 декабря 2015 .