Дифференциальное технологическое развитие - это стратегия управления технологиями, направленная на снижение рисков, связанных с новыми технологиями, путем влияния на последовательность их разработки. В соответствии с этой стратегией общества будут стремиться отложить разработку вредных технологий и их приложений, одновременно ускоряя разработку полезных технологий, особенно тех, которые обеспечивают защиту от вредных. [1] [2]
История идеи
Дифференциальное технологическое развитие было первоначально предложено философом Ником Бостромом в 2002 году [1], и он применил эту идею к управлению искусственным интеллектом в своей книге 2014 года « Суперинтеллект: пути, опасности, стратегии» . [3] Эта стратегия была также одобрена философом Тоби Ордом в его книге 2020 года «Пропасть: экзистенциальный риск и будущее человечества» , который пишет, что «хотя может быть слишком сложно предотвратить развитие рискованной технологии, мы можем снизить риск для существования за счет ускорения разработки защитных технологий по сравнению с опасными ». [2] [4]
Неформальное обсуждение
Пол Кристиано считает, что, хотя ускорение технологического прогресса, по-видимому, является одним из лучших способов улучшить благосостояние людей в следующие несколько десятилетий, более высокие темпы роста не могут быть одинаково важны для далекого будущего, потому что рост в конечном итоге должен достигнуть насыщения из-за физических ограничений. Следовательно, с точки зрения далекого будущего дифференцированное технологическое развитие представляется более важным. [5] [ ненадежный источник? ]
Вдохновленные предложением Бострома, Люк Мюльхаузер и Анна Саламон предложили более общий проект «дифференцированного интеллектуального прогресса», в котором общество развивает свою мудрость, философскую изощренность и понимание рисков быстрее, чем его технологическая мощь. [6] [ ненадежный источник? ] [7] [ ненадежный источник? ] Брайан Томасик расширил это понятие. [8] [ ненадежный источник? ]
Смотрите также
Рекомендации
- ^ a b Бостром, Ник (2002). «Экзистенциальные риски: анализ сценариев вымирания человечества» . Цитировать журнал требует
|journal=
( помощь )9 Журнал эволюции и технологий Jetpress Oxford Research Archive - ^ а б Орд, Тоби (2020). Пропасть: экзистенциальный риск и будущее человечества . Соединенное Королевство: Bloomsbury Publishing . п. 200. ISBN 1526600218.
- ^ Бостром, Ник (2014). Сверхразум: пути, опасности, стратегии . Оксфорд: Издательство Оксфордского университета. С. 229–237. ISBN 978-0199678112.
- ^ Purtill, Коринн. "Насколько близко человечество к краю?" . Житель Нью-Йорка . Проверено 27 ноября 2020 .
- ^ Кристиано, Пол (15 октября 2014 г.). «О прогрессе и процветании» . Форум «Эффективный альтруизм» . Проверено 21 октября 2014 года .
- ^ Мюльхаузер, Люк; Анна Саламон (2012). «Интеллектуальный взрыв: доказательства и импорт» (PDF) : 18–19. Архивировано из оригинального (PDF) 26 октября 2014 года . Проверено 29 ноября 2013 года . Цитировать журнал требует
|journal=
( помощь ) - ^ Мюльхаузер, Люк (2013). Перед лицом взрыва интеллекта . Научно-исследовательский институт машинного интеллекта . Проверено 29 ноября 2013 года .
- ^ Томасик, Брайан (23 октября 2013 г.). «Дифференциальный интеллектуальный прогресс как проект с положительной суммой» . Фундаментальный научно-исследовательский институт . Проверено 18 февраля +2016 .