Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Институт будущего человечества ( FHI ) - это междисциплинарный исследовательский центр Оксфордского университета, изучающий общие вопросы о человечестве и его перспективах. Он был основан в 2005 году как часть философского факультета и Оксфордской школы Мартина . [1] Ее директором является философ Ник Бостром , а ее исследовательский персонал и партнеры включают футуриста Андерса Сандберга , инженера К. Эрика Дрекслера , экономиста Робина Хэнсона и основателя Giving What We Can Тоби Орда . [2]

Разделяя офис и тесно сотрудничая с Центром эффективного альтруизма , Институт поставил перед собой цель сосредоточить исследования там, где они могут принести наибольшую пользу человечеству в долгосрочной перспективе. [3] [4] Он занимается сочетанием академической и просветительской деятельности, стремясь способствовать информированному обсуждению и привлечению общественности к правительству, бизнесу, университетам и другим организациям.

История [ править ]

Ник Бостром основал Институт в ноябре 2005 года как часть Оксфордской школы Мартина, а затем Школы Джеймса Мартина 21 века. [1] В период с 2008 по 2010 год FHI провел конференцию «Глобальные катастрофические риски», написал 22 статьи в академических журналах и опубликовал 34 главы в научных сборниках. Исследователи FHI были упомянуты в средствах массовой информации более 5000 раз [5] и дали рекомендации по вопросам политики на Всемирном экономическом форуме для частного и некоммерческого сектора (такого как Фонд Макартура и Всемирная организация здравоохранения ), а также в государственные органы Швеции, Сингапура, Бельгии, Великобритании и США. Бостром и специалист по биоэтике Джулиан Савулескутакже опубликовал книгу « Улучшение человека» в марте 2009 года. [6] Совсем недавно FHI сосредоточился на опасностях передового искусственного интеллекта (ИИ). В 2014 году его исследователи опубликовали несколько книг о рисках ИИ, в том числе « Умнее, чем мы» Стюарта Армстронга и « Суперинтеллект: пути, опасности, стратегии» Бострома . [7] [8]

В 2018 году Open Philanthropy Project рекомендовал предоставить FHI грант в размере примерно до 13,4 миллиона фунтов стерлингов в течение трех лет, при этом большая часть будет зависеть от успешного найма. [9]

Риск существования [ править ]

Самая большая тема, которую FHI потратила на изучение, - это глобальный катастрофический риск и, в частности, экзистенциальный риск. В статье 2002 года Бостром определил «экзистенциальный риск» как тот, «когда неблагоприятный исход либо уничтожит зарождающуюся на Земле разумную жизнь, либо навсегда и резко сократит ее потенциал». [10] Это включает в себя сценарии, в которых человечеству не причиняется прямого вреда, но оно не может колонизировать космос и использовать доступные ресурсы наблюдаемой вселенной в человечески ценных проектах, как обсуждалось в статье Бострома 2003 года «Астрономические отходы: альтернативная стоимость отложенных технологических разработок». Разработка". [11]

В книге Бострома и Милана Жирковичей « Глобальные катастрофические риски» ( 2008 г.) собраны очерки о множестве таких рисков, как природных, так и антропогенных. Возможные катастрофические риски со стороны природы включают супервулканизм , столкновения и энергетические астрономические явления, такие как гамма-всплески , космические лучи , солнечные вспышки и сверхновые . Эти опасности характеризуются как относительно небольшие и относительно хорошо изученные, хотя пандемии могут быть исключением из-за того, что они более распространены и соответствуют технологическим тенденциям. [12] [4]

FHI уделяет больше внимания синтетическим пандемиям с использованием биологических агентов, использующих оружие . Технологические результаты, которыми институт особенно интересуется, включают антропогенное изменение климата , ядерную войну и ядерный терроризм , молекулярные нанотехнологии и общий искусственный интеллект . Ожидая, что наибольшие риски будут связаны с технологиями будущего и, в частности, с передовым искусственным интеллектом, FHI соглашается с другими организациями по снижению рисков, такими как Центр изучения экзистенциальных рисков и Исследовательский институт машинного интеллекта . [13] [14]Исследователи FHI также изучили влияние технологического прогресса на социальные и институциональные риски, такие как тоталитаризм , безработица , вызванная автоматизацией , и информационные опасности. [15]

В 2020 году старший научный сотрудник FHI Тоби Орд опубликовал свою книгу «Пропасть: экзистенциальный риск и будущее человечества» , в которой он утверждает, что защита будущего человечества является одной из самых важных моральных проблем нашего времени. [16] [17]

Антропные рассуждения [ править ]

FHI уделяет много внимания экзотическим угрозам, которые мало исследовались другими организациями, а также методологическим соображениям, которые используются для снижения рисков и прогнозирования. Институт особо выделил антропные рассуждения в своих исследованиях как малоизученную область с общими эпистемологическими последствиями.

Антропные аргументы, изученные FHI, включают аргумент судного дня , который утверждает, что человечество, скорее всего, скоро вымрет, потому что маловероятно, что кто-то отмечает чрезвычайно ранний момент в истории человечества. Напротив, современные люди, вероятно, будут находиться примерно в середине распределения людей, которые когда-либо будут жить. [12] Бостром также популяризировал аргумент моделирования .

Постоянной темой в исследованиях FHI является парадокс Ферми , удивительное отсутствие наблюдаемых инопланетных цивилизаций. Робин Хэнсон утверждал, что должен существовать « Великий фильтр », предотвращающий колонизацию космоса, чтобы объяснить парадокс. Этот фильтр может находиться в прошлом, если интеллект гораздо более редок, чем предсказывает современная биология; или это может произойти в будущем, если риски существованию даже больше, чем признается в настоящее время.

Человеческое совершенствование и рациональность [ править ]

Тесно связана с работой FHI по оценке рисков, астрономическим отходам и опасностям будущих технологий, его работа над перспективами и рисками улучшения человека . Рассматриваемые модификации могут быть биологическими, цифровыми или социологическими, и упор делается на наиболее радикальные предполагаемые изменения, а не на наиболее вероятные краткосрочные инновации. ФХИ биоэтика исследования направлены на потенциальные последствия генной терапии , продления жизни , имплантатов мозга и мозга компьютерных интерфейсов и загрузки ума . [18]

Основное внимание FHI уделяет методам оценки и улучшения человеческого интеллекта и рациональности как способу определения скорости и направления технологического и социального прогресса. Работа FHI над человеческой иррациональностью, примером которой является когнитивная эвристика и предубеждения , включает постоянное сотрудничество с Амлином для изучения системного риска, возникающего из-за предубеждений при моделировании. [19] [20]

Избранные публикации [ править ]

  • Тоби Орд : пропасть: риск для существования и будущее человечества , 2020 г. ISBN  1526600218
  • Ник Бостром: Суперинтеллект: пути, опасности, стратегии , 2014. ISBN 0-415-93858-9 
  • Ник Бостром и Милан Чиркович: глобальные катастрофические риски , 2011. ISBN 978-0-19-857050-9 
  • Ник Бостром и Джулиан Савулеску: Улучшение человека , 2011. ISBN 0-19-929972-2 
  • Ник Бостром: Антропное предубеждение: эффекты отбора наблюдений в науке и философии , 2010. ISBN 0-415-93858-9 
  • Ник Бостром и Андерс Сандберг: Дорожная карта эмуляции мозга , 2008.

См. Также [ править ]

  • Институт будущего жизни
  • Исследования будущего
  • Leverhulme Centre for the Future of Intelligence
  • Эффективный альтруизм

Ссылки [ править ]

  1. ^ a b "Будущее человечества: Будущее института человечества" . Оксфордская школа Мартина . Проверено 28 марта 2014 .[ мертвая ссылка ]
  2. ^ «Персонал» . Институт будущего человечества . Проверено 28 марта 2014 .
  3. ^ "О FHI" . Институт будущего человечества . Архивировано из оригинала на 1 декабря 2015 года . Проверено 28 марта 2014 .
  4. ^ a b Росс Андерсен (25 февраля 2013 г.). «Приметы» . Журнал Aeon . Проверено 28 марта 2014 .
  5. ^ "Новости Google" . Новости Google . Проверено 30 марта 2015 года .
  6. Ник Бостром (18 июля 2007 г.). Отчет о достижениях: 2008-2010 (PDF) (Отчет). Институт будущего человечества. Архивировано из оригинального (PDF) 21 декабря 2012 года . Проверено 31 марта 2014 года .
  7. ^ Марк Piesing (17 мая 2012). «Восстание искусственного интеллекта: люди будут отданы на аутсорсинг, а не уничтожены» . Проводной . Проверено 31 марта 2014 года .
  8. ^ Coughlan, Шон (24 апреля 2013). "Как люди вымрут?" . BBC News . Проверено 29 марта 2014 года .
  9. ^ Open Philanthropy Project (июль 2018 г.). «Институт будущего человечества - Работа над глобальными катастрофическими рисками» .
  10. ^ Ник Бостром (март 2002 г.). «Экзистенциальные риски: анализ сценариев исчезновения людей и связанных с ними опасностей» . Журнал эволюции и технологий . 15 (3): 308–314 . Проверено 31 марта 2014 года .
  11. ^ Ник Бостром (ноябрь 2003 г.). «Астрономические отходы: альтернативная стоимость отложенного технологического развития» . Utilitas . 15 (3): 308–314. CiteSeerX 10.1.1.429.2849 . DOI : 10.1017 / s0953820800004076 . Проверено 31 марта 2014 года . 
  12. ^ a b Росс Андерсен (6 марта 2012 г.). «Мы недооцениваем риск исчезновения человечества» . Атлантика . Проверено 29 марта 2014 года .
  13. Кейт Уайтхед (16 марта 2014 г.). «Учебный центр Кембриджского университета фокусируется на рисках, которые могут уничтожить человечество» . Южно-Китайская утренняя почта . Проверено 29 марта 2014 года .
  14. Дженни Холландер (сентябрь 2012 г.). «Оксфордский институт будущего человечества знает, что заставит нас исчезнуть» . Суета . Проверено 31 марта 2014 года .
  15. ^ Ник Бостром. «Информационные опасности: типология потенциального вреда от знаний» (PDF) . Институт будущего человечества . Проверено 31 марта 2014 года .
  16. ^ Орд, Тоби. «Пропасть: экзистенциальный риск и будущее человечества» . Веб-сайт Precipice . Проверено 18 октября 2020 .
  17. Чиверс, Том. «Насколько близко человечество к самоубийству?» . Зритель . Проверено 18 октября 2020 .
  18. ^ Андерс Сандберг и Ник Бостром. «Эмуляция всего мозга: дорожная карта» (PDF) . Институт будущего человечества . Проверено 31 марта 2014 года .
  19. ^ «Амлин и Оксфордский университет запускают крупный исследовательский проект по системному риску моделирования» (пресс-релиз). Амлин. 11 февраля 2014 . Проверено 31 марта 2014 .
  20. ^ «Амлин и Оксфордский университет будут сотрудничать в области моделирования рисков» . Журнал «Непрерывность, страхование и риски» . 11 февраля 2014 . Проверено 31 марта 2014 года .

Внешние ссылки [ править ]

  • Официальный сайт FHI