Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Регулирование искусственного интеллекта является развитием государственного сектора политики и законов для поощрения и регулирования искусственного интеллекта (ИИ); поэтому это связано с более широким регулированием алгоритмов . Нормативно-правовая и политическая среда для ИИ - новая проблема в юрисдикциях по всему миру, в том числе в Европейском Союзе и наднациональных органах, таких как IEEE , OECD и другие. В период с 2016 по 2019 год была опубликована волна руководящих принципов по этике ИИ, чтобы поддерживать социальный контроль над технологией. [1]Регулирование считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками. Регулирование ИИ с помощью таких механизмов, как контрольные комиссии, также можно рассматривать как социальное средство решения проблемы управления ИИ . [2]

Перспективы [ править ]

Регулирование искусственного интеллекта - это разработка политики и законов государственного сектора для продвижения и регулирования ИИ. [3] Регулирование считается необходимым как для поощрения искусственного интеллекта, так и для управления связанными с ним рисками. [4] [5] Государственное управление и политические соображения обычно сосредоточены на технических и экономических последствиях и на надежных и ориентированных на человека системах ИИ [6], хотя также рассматривается регулирование искусственного суперинтеллекта . [7]Базовый подход к регулированию фокусируется на рисках и предубеждениях базовой технологии ИИ, т. Е. Алгоритмов машинного обучения, на уровне входных данных, тестирования алгоритмов и модели принятия решений, а также на том, могут ли объяснения предубеждений в коде быть понятным для потенциальных получателей технологии и технически осуществимым для производителей. [8]

Законы и нормативные акты в области ИИ можно разделить на три основные темы, а именно: управление автономными интеллектуальными системами, ответственность и подотчетность за системы, а также вопросы конфиденциальности и безопасности. [4] Подход государственного управления видит взаимосвязь между законом и регулированием ИИ , этикой ИИ и «обществом ИИ», определяемым как замещение и преобразование рабочей силы, социальное принятие ИИ и доверие к нему, а также преобразование взаимодействия человека в машину. [9] Разработка стратегий государственного сектора для управления и регулирования ИИ считается необходимой на местном, национальном [10] и международном уровнях [11] и в различных областях, начиная с управления государственной службой [12]и подотчетность [13] правоохранительным органам, [11] [14] здравоохранению (особенно концепции человеческих гарантий), [15] [16] [17] [18] [19] финансовому сектору, [10] робототехнике, [20] [21] автономные транспортные средства, [20] военные [22] и национальная безопасность [23] и международное право. [24] [25]

В 2017 году Илон Маск призвал к регулированию развития ИИ. [26] Согласно NPR , генеральный директор Tesla был «явно не в восторге» от того, что выступал за контроль со стороны правительства, который мог бы повлиять на его собственную отрасль, но считал, что риски полного отсутствия контроля слишком высоки: «Обычно правила устанавливаются когда происходит куча плохих вещей, возникает общественный резонанс, и спустя много лет создается регулирующее агентство для регулирования этой отрасли. Это занимает вечность. В прошлом это было плохо, но не то, что представляло фундаментальный риск к существованию цивилизации ". [26] В ответ некоторые политики скептически оценили целесообразность регулирования технологии, которая все еще находится в стадии разработки. [27] Отвечая как на Маска, так и на предложения законодателей Европейского союза от февраля 2017 года по регулированию ИИ и робототехники, генеральный директор Intel Брайан Кржанич заявил, что ИИ находится в зачаточном состоянии и что еще слишком рано регулировать эту технологию. [28] Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предлагают разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с какой-либо формой гарантии. [29]

В ответ на проблему управления ИИ [ править ]

Регулирование ИИ можно рассматривать как позитивное социальное средство для решения проблемы контроля ИИ , т. Е. Необходимость обеспечить долгосрочную полезную ИИ, с другими социальными ответами, такими как бездействие или запрет, считаться непрактичным, и подходами, такими как улучшение человеческого Возможности через подходы трансгуманизма, такие как интерфейсы мозг-компьютер , рассматриваются как потенциально дополняющие друг друга. [30] [31] Регулирование исследований в области общего искусственного интеллекта (AGI) сосредоточено на роли наблюдательных комиссий, от университетов или корпораций до международных уровней, и на поощрении исследований безопасного ИИ, [31]вместе с возможностью дифференцированного интеллектуального прогресса (приоритетность стратегий снижения риска над стратегиями принятия риска при разработке ИИ) или проведение международного массового наблюдения для осуществления контроля над вооружениями AGI. [30] Например, «AGI Nanny» - это предлагаемая стратегия, потенциально находящаяся под контролем человечества, для предотвращения создания опасного суперинтеллекта, а также для устранения других серьезных угроз человеческому благополучию, таких как подрыв глобального финансовую систему, пока не появится возможность безопасно создать суперинтеллект. Это влечет за собой создание более умной, чем человек, но не суперинтеллектуальной системы общего искусственного интеллекта, подключенной к большой сети наблюдения, с целью наблюдения за человечеством и защиты его от опасностей ».[30] Регулирование сознательных, этически осведомленных ОИИ направлено на их интеграцию с существующим человеческим обществом и может быть разделено на соображения, связанные с их юридическим статусом и их неимущественными правами. [30] Регулирование AI рассматривается как ограничительное, с риском предотвращения развития AGI. [20]

Глобальное руководство [ править ]

Создание глобального совета по управлению разработкой искусственного интеллекта было предложено как минимум в начале 2017 года. [32] В декабре 2018 года Канада и Франция объявили о планах создания Международной группы экспертов по искусственному интеллекту при поддержке G7 по образцу Международной группы экспертов по климату. Изменения , чтобы изучить глобальное влияние ИИ на людей и экономику и направить развитие ИИ. [33] В 2019 году Группа была переименована в Глобальное партнерство по ИИ, но США еще не одобрили ее. [34] [35]

Рекомендации ОЭСР по искусственному интеллекту [36] были приняты в мае 2019 года, а Принципы G20 в области искусственного интеллекта - в июне 2019 года. [35] [37] [38] В сентябре 2019 года Всемирный экономический форум опубликовал десять «Руководящих принципов государственных закупок с использованием искусственного интеллекта». [39] В феврале 2020 года Европейский Союз опубликовал проект своего стратегического документа по продвижению и регулированию ИИ. [11]

В Организации Объединенных Наций несколько организаций начали продвигать и обсуждать аспекты регулирования и политики в области ИИ, в том числе Центр ЮНИКРИ по ИИ и робототехнике . [23] На 40-й научной сессии ЮНЕСКО в ноябре 2019 года организация начала двухлетний процесс создания «глобального нормативного документа по этике искусственного интеллекта». Для достижения этой цели проводились форумы и конференции ЮНЕСКО по ИИ для сбора мнений заинтересованных сторон. Самый последний проект текста рекомендации по этике ИИ Специальной группы экспертов ЮНЕСКО был выпущен в сентябре 2020 года и включает призыв к заполнению пробелов в законодательстве. [40]

Региональные и национальные правила [ править ]

График реализации стратегий, планов действий и программных документов, определяющих национальные, региональные и международные подходы к ИИ [41]

Нормативно-правовая и политическая среда для ИИ - новая проблема в юрисдикциях по всему миру, в том числе в Европейском Союзе [42] и России. [43] С начала 2016 года многие национальные, региональные и международные органы власти начали принимать стратегии, планы действий и программные документы по ИИ. [44] [45] Эти документы охватывают широкий круг вопросов, таких как регулирование и управление, а также промышленная стратегия, исследования, таланты и инфраструктура. [6] [46]

Китай [ править ]

Регулирование ИИ в Китае в основном регулируется Государственным советом КНР от 8 июля 2017 г. «План развития искусственного интеллекта следующего поколения» (Документ Государственного совета № 35), в котором Центральный комитет Коммунистической партии Китай и Государственный совет Китайской Народной Республики призвали руководящие органы Китая содействовать развитию ИИ. Регулирование вопросов этической и правовой поддержки развития ИИ только зарождается, но политика обеспечивает государственный контроль над китайскими компаниями и ценными данными, включая хранение данных о китайских пользователях внутри страны и обязательное использование национальных данных Китайской Народной Республики. стандарты для искусственного интеллекта, включая большие данные, облачные вычисления и промышленное программное обеспечение.[ необходима цитата ]

Совет Европы [ править ]

Совет Европы (СЕ) является международной организацией , которая содействует развитию демократии и прав человека , верховенства закона и включает в себя 47 государств - членов, в том числе все 29 подписантов Европейского союза в 2018 году Декларация о сотрудничестве в области искусственного интеллекта. Совет Европы создал общее правовое пространство, в котором члены несут юридическое обязательство гарантировать права, изложенные в Европейской конвенции о правах человека.. В частности, в отношении ИИ: «Целью Совета Европы является выявление областей пересечения между ИИ и нашими стандартами в области прав человека, демократии и верховенства закона, а также разработка соответствующих решений по установлению стандартов или наращиванию потенциала». Большое количество соответствующих документов, определенных Советом Европы, включает руководящие принципы, уставы, документы, отчеты и стратегии. Органы-авторы этих нормативных документов ИИ не ограничиваются одним сектором общества и включают организации, компании, органы и национальные государства. [40]

Европейский Союз [ править ]

Большинство стран Европейского союза (ЕС) имеют свои собственные национальные стратегии регулирования ИИ, но в значительной степени они сходятся. [40] Европейский Союз руководствуется Европейской стратегией по искусственному интеллекту [47], поддерживаемой Группой экспертов высокого уровня по искусственному интеллекту. [48] [49] В апреле 2019 года Европейская Комиссия опубликовала свои принципы этики для Благонадежного искусственного интеллекта (ИИ) , [50] после этого с его рекомендациями политики и инвестиций для надежного искусственного интеллекта в июне 2019 года [51]Экспертная группа высокого уровня Комиссии ЕС по искусственному интеллекту проводит работу над заслуживающим доверия ИИ, и Комиссия выпустила отчеты по аспектам безопасности и ответственности ИИ и по этике автоматизированных транспортных средств. В 2020 году Комиссия ЕС запросила мнения по поводу предложения по конкретному законодательству в области ИИ, и этот процесс продолжается. [40]

2 февраля 2020 года Европейская комиссия опубликовала Белую книгу об искусственном интеллекте - европейском подходе к совершенству и доверию . [52]Белая книга состоит из двух основных строительных блоков: «экосистемы передового опыта» и «экосистемы доверия». В последнем излагается подход ЕС к нормативной базе ИИ. В предлагаемом подходе Комиссия различает приложения ИИ с «высоким риском» и «без риска». Только первое должно входить в сферу будущей нормативной базы ЕС. Будет ли это так, в принципе можно определить по двум совокупным критериям, касающимся критических секторов и критического использования. Для приложений искусственного интеллекта с высоким риском рассматриваются следующие ключевые требования: требования к обучающим данным; данные и учет; информационные обязанности; требования к надежности и точности; человеческий надзор; и особые требования для конкретных приложений искусственного интеллекта,например, те, которые используются для удаленной биометрической идентификации. Приложения AI, которые не квалифицируются как «высокорисковые», могут регулироваться схемой добровольной маркировки. Что касается соответствия и правоприменения, Комиссия рассматривает предварительные оценки соответствия, которые могут включать «процедуры тестирования, инспекции или сертификации» и / или «проверки алгоритмов и наборов данных, используемых на этапе разработки». Европейская структура управления ИИ в виде основы для сотрудничества национальных компетентных органов могла бы облегчить внедрение нормативной базы.процедуры тестирования, проверки или сертификации »и / или« проверки алгоритмов и наборов данных, используемых на этапе разработки ». Европейская структура управления ИИ в виде основы для сотрудничества национальных компетентных органов могла бы облегчить внедрение нормативной базы.процедуры тестирования, проверки или сертификации »и / или« проверки алгоритмов и наборов данных, используемых на этапе разработки ». Европейская структура управления ИИ в виде основы для сотрудничества национальных компетентных органов могла бы облегчить внедрение нормативной базы.[52]

Соединенное Королевство [ править ]

Великобритания поддержала применение и развитие ИИ в бизнесе в рамках Стратегии цифровой экономики на 2015-2018 годы, представленной в начале 2015 года компанией Innovate UK в рамках цифровой стратегии Великобритании. [ необходима цитата ] В государственном секторе Департамент цифровых технологий, культуры, СМИ и спорта дал рекомендации по этике данных [53] и Институт Алана Тьюринга по ответственному проектированию и внедрению систем искусственного интеллекта. [54] Что касается кибербезопасности, Национальный центр кибербезопасности выпустил руководство по «Интеллектуальным инструментам безопасности». [23] [55]

Соединенные Штаты [ править ]

Обсуждения регулирования ИИ в США включали такие темы, как своевременность регулирования ИИ, характер федеральной нормативной базы для управления и продвижения ИИ, включая то, какое агентство должно руководить, регулирующие и руководящие полномочия этого агентства и как обновлять нормативные акты перед лицом быстро меняющихся технологий, а также роли правительств штатов и судов. [56]

Еще в 2016 году администрация Обамы начала уделять внимание рискам и правилам искусственного интеллекта. В докладе под названием Подготовки к будущему искусственного интеллекта , Национальный научно-технический совет создан прецедент , чтобы позволить исследователям продолжать разрабатывать новые технологии искусственного интеллекта с некоторыми ограничениями. В отчете говорится, что «подход к регулированию продуктов с поддержкой ИИ для защиты общественной безопасности должен основываться на оценке аспектов риска…». [57] Эти риски будут основной причиной для создания любой формы регулирования, при условии, что любое существующее регулирование не будет применяться к технологии искусственного интеллекта.

Первым основным отчетом стал Национальный план стратегических исследований и разработок в области искусственного интеллекта. 13 августа 2018 года в соответствии с разделом 1051 Закона Джона С. Маккейна о государственной обороне 2019 финансового года (PL 115-232) была учреждена Комиссия национальной безопасности по искусственному интеллекту «для рассмотрения методов и средств, необходимых для продвижения развития искусственного интеллекта. , машинное обучение и связанные с ним технологии для всестороннего удовлетворения потребностей национальной безопасности и обороны США ». [58] Управление регулированием ИИ, связанного с безопасностью, осуществляется Комиссией национальной безопасности по искусственному интеллекту. [59]Закон об инициативе в области искусственного интеллекта (S.1558) - это предлагаемый закон, который установит федеральную инициативу, направленную на ускорение исследований и разработок в области ИИ, в частности , для экономической и национальной безопасности Соединенных Штатов. [60] [61]

7 января 2019 г., в соответствии с указом президента США об обеспечении лидерства в области искусственного интеллекта , Управление по политике в области науки и технологий Белого дома опубликовало проект Руководства по регулированию приложений искусственного интеллекта , который включает десять принципов для агентств США при принятии решения о том, следует ли и как регулировать ИИ. [62] В ответ Национальный институт стандартов и технологий опубликовал документ с изложением позиции, [63] Комиссия национальной безопасности по искусственному интеллекту опубликовала промежуточный отчет [64], а Совет по оборонным инновациям выпустил рекомендации по этичному использованию AI. [65]Год спустя администрация призвала прокомментировать дальнейшее дерегулирование в другом проекте своего Руководства по регулированию приложений искусственного интеллекта. [66]

Другие специальные агентства, работающие над регулированием ИИ, включают Управление по санитарному надзору за качеством пищевых продуктов и медикаментов, которое создало пути для регулирования использования ИИ в медицинской визуализации. [16]

Регулирование полностью автономного оружия [ править ]

Правовые вопросы, связанные с автономными системами оружия летального действия (АСОЛД), в частности соблюдение законов вооруженных конфликтов , обсуждаются в Организации Объединенных Наций с 2013 года в контексте Конвенции о конкретных видах обычного оружия . [67] Примечательно, что неофициальные встречи экспертов состоялись в 2014, 2015 и 2016 годах, и была назначена Группа правительственных экспертов (ГПЭ) для дальнейшего обсуждения этого вопроса в 2016 году. Набор руководящих принципов в отношении ЗАКОНОДАТЕЛЬСТВА, утвержденных ГПЭ по ЗАКОНОДАТЕЛЬСТВУ были приняты в 2018 году. [68]

В 2016 году Китай опубликовал позиционный документ, в котором ставит под сомнение адекватность существующего международного права для решения вопроса о возможности создания полностью автономного оружия, став первым постоянным членом Совета Безопасности ООН, затронувшим этот вопрос [24], и приводит к предложениям по глобальному регулированию. [69] Возможность моратория или упреждающего запрета на разработку и использование АСОЛД также неоднократно поднималась другими национальными делегациями в Конвенции о конкретных видах обычного оружия, и за это решительно выступает Кампания по остановке роботов-убийц - a коалиция неправительственных организаций. [70]

См. Также [ править ]

  • Искусственный интеллект
  • Гонка вооружений искусственного интеллекта
  • Проблема управления искусственным интеллектом
  • Искусственный интеллект в правительстве
  • Этика искусственного интеллекта
  • Правительство по алгоритму
  • Регулирование алгоритмов

Ссылки [ править ]

  1. ^ Heder, М (2020). «Критика руководящих принципов этики ИИ». Információs Társadalom . 20 (4): 57–73. DOI : 10,22503 / inftars.XX.2020.4.5 .
  2. ^ «Этический подход к ИИ является абсолютным императивом, Андреас Каплан» . Проверено 26 апреля 2021 года .
  3. ^ Справочник по закону искусственного интеллекта . Барфилд, Вудроу, Пагалло, Уго. Челтнем, Великобритания. 2018. ISBN 978-1-78643-904-8. OCLC  1039480085 .CS1 maint: другие ( ссылка )
  4. ^ a b Wirtz, Bernd W .; Weyerer, Jan C .; Гейер, Кэролин (24.07.2018). «Искусственный интеллект и государственный сектор - приложения и проблемы» . Международный журнал государственного управления . 42 (7): 596–615. DOI : 10.1080 / 01900692.2018.1498103 . ISSN 0190-0692 . S2CID 158829602 .  
  5. ^ Buiten, Мириам С (2019). «На пути к интеллектуальному регулированию искусственного интеллекта» . Европейский журнал регулирования рисков . 10 (1): 41–59. DOI : 10.1017 / err.2019.8 . ISSN 1867-299X . 
  6. ^ a b Искусственный интеллект в обществе . Организация экономического сотрудничества и развития. Париж. 11 июня 2019 г. ISBN 978-92-64-54519-9. OCLC  1105926611 .CS1 maint: другие ( ссылка )
  7. ^ Камышанский, Владимир П .; Руденко, Евгения Юрьевна; Коломиец Евгений А .; Крипакова, Дина Р. (2020), «Пересмотр места искусственного интеллекта в обществе и государстве» , Искусственный интеллект: антропогенная природа против социального происхождения , Cham: Springer International Publishing, стр. 359–364, DOI : 10.1007 / 978 -3-030-39319-9_41 , ISBN 978-3-030-39318-2, получено 2021-03-27
  8. ^ BUITEN, Мириам C (2019). «На пути к интеллектуальному регулированию искусственного интеллекта» . Европейский журнал регулирования рисков . 10 (1): 41–59. DOI : 10.1017 / err.2019.8 . ISSN 1867-299X . S2CID 155138874 .  
  9. ^ Wirtz, Bernd W .; Weyerer, Jan C .; Штурм, Бенджамин Дж. (2020-04-15). «Темные стороны искусственного интеллекта: интегрированная структура управления искусственным интеллектом для государственного управления». Международный журнал государственного управления . 43 (9): 818–829. DOI : 10.1080 / 01900692.2020.1749851 . ISSN 0190-0692 . S2CID 218807452 .  
  10. ^ a b Бредт, Стефан (2019-10-04). «Искусственный интеллект (ИИ) в финансовом секторе - потенциальные и общественные стратегии» . Границы искусственного интеллекта . 2 : 16. DOI : 10,3389 / frai.2019.00016 . ISSN 2624-8212 . PMC 7861258 . PMID 33733105 .   
  11. ^ a b c Белая книга: «Об искусственном интеллекте - европейский подход к совершенству и доверию» (PDF) . Брюссель: Европейская комиссия. 2020. с. 1.
  12. ^ Wirtz, Bernd W .; Мюллер, Вильгельм М. (2018-12-03). «Интегрированная структура искусственного интеллекта для государственного управления». Обзор государственного управления . 21 (7): 1076–1100. DOI : 10.1080 / 14719037.2018.1549268 . ISSN 1471-9037 . S2CID 158267709 .  
  13. ^ Райзман, Диллон; Шульц, Джейсон; Кроуфорд, Кейт; Уиттакер, Мередит (2018). Алгоритмические оценки воздействия: практическая основа подотчетности государственных органов (PDF) . Нью-Йорк: Институт AI Now.
  14. ^ «На пути к ответственным инновациям в области искусственного интеллекта» (PDF) . ЮНИКРИ . 2020 . Проверено 9 августа 2020 .
  15. ^ Gruson, Дэвид (2019). «Этика и интеллект искусственно в чистом виде, чтобы обеспечить положительное регулирование» . Soins (на французском). 64 (832): 54–57. DOI : 10.1016 / j.soin.2018.12.015 . PMID 30771853 . 
  16. ^ a b Кохли, Аджай; Махаджан, Видур; Силз, Кевин; Коли, Аджит; Джа, Саураб (2019). «Концепции регулирования искусственного интеллекта для медицинской визуализации Управлением по санитарному надзору за качеством пищевых продуктов и медикаментов США» . Американский журнал рентгенологии . 213 (4): 886–888. DOI : 10,2214 / ajr.18.20410 . ISSN 0361-803X . PMID 31166758 .  
  17. ^ Hwang, Thomas J .; Kesselheim, Aaron S .; Вокингер, Керстин Н. (17.12.2019). «Регулирование жизненного цикла программных устройств на основе искусственного интеллекта и машинного обучения в медицине» . ДЖАМА . 322 (23): 2285. DOI : 10,1001 / jama.2019.16842 . ISSN 0098-7484 . PMID 31755907 .  
  18. ^ Шарма, Кавита; Манчиканти, Падмавати (01.10.2020). «Регулирование искусственного интеллекта в открытии лекарств и здравоохранении» . Отчет о законе о биотехнологии . 39 (5): 371–380. DOI : 10.1089 / blr.2020.29183.ks . ISSN 0730-031X . 
  19. ^ Петкус, Гарольдас; Хугеверф, Ян; Вятт, Джереми C (2020). «Что старшие врачи думают об искусственном интеллекте и системах поддержки принятия клинических решений: количественный и качественный анализ данных специализированных обществ» . Клиническая медицина . 20 (3): 324–328. DOI : 10.7861 / clinmed.2019-0317 . ISSN 1470-2118 . PMC 7354034 . PMID 32414724 .   
  20. ^ a b c Гуркайнак, Гоненц; Йылмаз, Илай; Хаксевер, Гунес (2016). «Подавление искусственного интеллекта: опасности для человека». Обзор компьютерного права и безопасности . 32 (5): 749–758. DOI : 10.1016 / j.clsr.2016.05.003 . ISSN 0267-3649 . 
  21. ^ Ипхофен, Рон; Критикос, Михалис (2019-01-03). «Регулирование искусственного интеллекта и робототехники: этика по замыслу в цифровом обществе». Современные социальные науки . 16 (2): 170–184. DOI : 10.1080 / 21582041.2018.1563803 . ISSN 2158-2041 . S2CID 59298502 .  
  22. ^ Принципы искусственного интеллекта: Рекомендации Министерства обороны по этическому использованию искусственного интеллекта (PDF) . Вашингтон, округ Колумбия: Совет по инновациям в области обороны США. 2019. OCLC 1126650738 .  
  23. ^ a b c Бабута, Александр; Освальд, Марион; Джанжева, Арди (2020). Искусственный интеллект и национальная безопасность Великобритании: политические соображения (PDF) . Лондон: Королевский институт объединенных служб.
  24. ^ а б «Роботы с оружием: рост автономных систем оружия» . Snopes.com . 21 апреля 2017 . Проверено 24 декабря 2017 года .
  25. ^ Бенто, Лукас (2017). «No Mere Deodands: ответственность человека при использовании агрессивных интеллектуальных систем в соответствии с международным публичным правом» . Депозитарий стипендий Гарварда . Проверено 14 сентября 2019 .
  26. ^ a b «Илон Маск предупреждает губернаторов: искусственный интеллект создает« экзистенциальный риск » » . NPR.org . Проверено 27 ноября 2017 года .
  27. Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с« экзистенциальной угрозой », пока не стало слишком поздно» . Хранитель . Проверено 27 ноября 2017 года .
  28. ^ Kharpal, Арджун (7 ноября 2017). «ИИ находится в зачаточном состоянии, и еще рано его регулировать, - говорит генеральный директор Intel Брайан Кржанич» . CNBC . Проверено 27 ноября 2017 года .
  29. ^ Каплан, Андреас; Хенлайн, Майкл (2019). «Siri, Siri, в моей руке: кто самый справедливый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты . 62 : 15–25. DOI : 10.1016 / j.bushor.2018.08.004 .
  30. ^ a b c d Сотала, Кай; Ямпольский, Роман V (2014-12-19). «Ответы на катастрофический риск AGI: обзор» . Physica Scripta . 90 (1): 018001. DOI : 10,1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 . 
  31. ^ a b Барретт, Энтони М .; Баум, Сет Д. (23 мая 2016 г.). «Модель путей к катастрофе искусственного суперинтеллекта для анализа рисков и решений». Журнал экспериментального и теоретического искусственного интеллекта . 29 (2): 397–414. arXiv : 1607.07730 . DOI : 10.1080 / 0952813x.2016.1186228 . ISSN 0952-813X . S2CID 928824 .  
  32. ^ Бойд, Мэтью; Уилсон, Ник (2017-11-01). «Быстрое развитие искусственного интеллекта: как может отреагировать правительство Новой Зеландии?» . Политика ежеквартально . 13 (4). DOI : 10,26686 / pq.v13i4.4619 . ISSN 2324-1101 . 
  33. ^ Инновации, наука и экономическое развитие Канада (2019-05-16). «Декларация Международной группы экспертов по искусственному интеллекту» . gcnws . Проверено 29 марта 2020 .
  34. ^ «У мира есть план обуздать ИИ, но США это не нравится» . Проводной . 2020-01-08 . Проверено 29 марта 2020 .
  35. ^ a b «Регулирование ИИ: время пришло?» . Информационная неделя . Проверено 29 марта 2020 .
  36. ^ «Принципы ОЭСР по искусственному интеллекту - Организация экономического сотрудничества и развития» . www.oecd.org . Проверено 29 марта 2020 .
  37. ^ Заявление министров G20 по торговле и цифровой экономике (PDF) . Город Цукуба, Япония: G20. 2019.
  38. ^ «Международная комиссия по этике ИИ должна быть независимой» . Природа . 572 (7770): 415. 21.08.2019. Bibcode : 2019Natur.572R.415. . DOI : 10.1038 / d41586-019-02491-х . PMID 31435065 . 
  39. ^ Руководство по закупкам искусственного интеллекта (PDF) . Колоньи / Женева: Всемирный экономический форум. 2019.
  40. ^ a b c d NíFhaoláin, Labhaoise; Хайнс, Эндрю; Наллур, Вивек (2020). Оценка аппетита к надежности и регулирования искусственного интеллекта в Европе (PDF) . Дублин: Дублинский технологический университет, Школа компьютерных наук, Дублин. С. 1–12.  Эта статья включает текст, доступный по лицензии CC BY 4.0 . (Лицензия CC BY 4.0 означает, что каждый имеет право повторно использовать цитируемый здесь текст или другие части самой исходной статьи, если они указывают на авторов. Дополнительная информация: лицензия Creative Commons ). Изменения были внесены следующим образом: цитирование удалены и незначительные грамматические поправки.
  41. ^ "UNICRI :: Межрегиональный научно-исследовательский институт ООН по вопросам преступности и правосудия" . www.unicri.it . Проверено 8 августа 2020 .
  42. ^ Юридическая библиотека Конгресса (США). Издательский орган, Управление глобальных правовых исследований. Регулирование искусственного интеллекта в отдельных юрисдикциях . LCCN 2019668143 . OCLC 1110727808 .  
  43. ^ Попова, Анна В .; Горохова, Светлана С .; Абрамова, Марианна Г .; Балашкина, Ирина В. (2021 г.), «Система права и искусственный интеллект в современной России: цели и инструменты цифровой модернизации» , Исследования в области систем, принятия решений и контроля , Cham: Springer International Publishing, стр. 89–96, doi : 10.1007 / 978-3-030-56433-9_11 , ISBN 978-3-030-56432-2, получено 2021-03-27
  44. ^ «Обсерватория инноваций государственного сектора ОЭСР - стратегии ИИ и компоненты государственного сектора» . Проверено 4 мая 2020 .
  45. ^ Беррихилл, Джейми; Хеанг, Кевин Кок; Клогер, Роб; Макбрайд, Киган (2019). Привет, мир: искусственный интеллект и его использование в государственном секторе (PDF) . Париж: Обсерватория инноваций в государственном секторе ОЭСР.
  46. ^ Кэмпбелл, Томас А. (2019). Искусственный интеллект: обзор государственных инициатив (PDF) . Эвергрин, Колорадо: FutureGrasp, LLC.
  47. ^ Аноним (2018-04-25). «Коммуникационный искусственный интеллект для Европы» . Формируя цифровое будущее Европы - Европейская комиссия . Проверено 5 мая 2020 .
  48. ^ smuhana (14.06.2018). «Экспертная группа высокого уровня по искусственному интеллекту» . Формируя цифровое будущее Европы - Европейская комиссия . Проверено 5 мая 2020 .
  49. ^ Андрашко, Йозеф; Месарчик, Матуш; Хамужак, Ондрей (2021-01-02). «Регулирующие пересечения между искусственным интеллектом, защитой данных и кибербезопасностью: проблемы и возможности для правовой базы ЕС» . AI и общество . DOI : 10.1007 / s00146-020-01125-5 . ISSN 0951-5666 . S2CID 230109912 .  
  50. ^ Вайзер, Стефани (2019-04-03). «Укрепление доверия к ИИ, ориентированному на человека» . FUTURIUM - Европейская комиссия . Проверено 5 мая 2020 .
  51. ^ Аноним (2019-06-26). «Политические и инвестиционные рекомендации для надежного искусственного интеллекта» . Формируя цифровое будущее Европы - Европейская комиссия . Проверено 5 мая 2020 .
  52. ^ a b Европейская комиссия. (2020). Белая книга по искусственному интеллекту: европейский подход к совершенству и доверию . OCLC 1141850140 . 
  53. ^ Структура этики данных (PDF) . Лондон: Департамент цифровых технологий, культуры, СМИ и спорта. 2018.
  54. ^ Лесли, Дэвид (2019-06-11). «Понимание этики и безопасности искусственного интеллекта: руководство по ответственному проектированию и внедрению систем искусственного интеллекта в государственном секторе» . DOI : 10.5281 / zenodo.3240529 . S2CID 189762499 .  Цитировать журнал требует |journal=( помощь )
  55. ^ «Интеллектуальные средства безопасности» . www.ncsc.gov.uk . Проверено 28 апреля 2020 .
  56. ^ Уивер, Джон Франк (2018-12-28). «Регулирование искусственного интеллекта в США» . Справочник по закону искусственного интеллекта : 155–212. DOI : 10.4337 / 9781786439055.00018 . ISBN 9781786439055.
  57. ^ Комитет Национального совета по науке и технологиям по технологиям (октябрь 2016 г.). «Подготовка к будущему искусственного интеллекта» . whitehouse.gov - через Национальный архив .
  58. ^ "О" . Комиссия национальной безопасности по искусственному интеллекту . Проверено 29 июня 2020 .
  59. ^ Стефаник, Элиза М. (2018-05-22). «HR5356 - 115-й Конгресс (2017–2018): Закон 2018 года об искусственном интеллекте Комиссии национальной безопасности» . www.congress.gov . Проверено 13 марта 2020 .
  60. ^ Генрих, Мартин (21.05.2019). «Текст - S.1558 - 116-й Конгресс (2019-2020): Закон об инициативе в области искусственного интеллекта» . www.congress.gov . Проверено 29 марта 2020 .
  61. ^ Шерер, Мэтью У. (2015). «Регулирование систем искусственного интеллекта: риски, проблемы, компетенции и стратегии». Серия рабочих документов SSRN . DOI : 10.2139 / ssrn.2609777 . ISSN 1556-5068 . 
  62. ^ «Обновление AI: Белый дом издает 10 принципов регулирования искусственного интеллекта» . Внутри Tech Media . 2020-01-14 . Проверено 25 марта 2020 .
  63. ^ Лидерство США в искусственном интеллекте: план федерального участия в разработке технических стандартов и связанных с ними инструментов (PDF) . Национальный институт науки и технологий. 2019.
  64. ^ Промежуточный отчет NSCAI для Конгресса . Комиссия национальной безопасности по искусственному интеллекту. 2019.
  65. ^ Принципы AI: Рекомендации по этическому использованию искусственного интеллекта Министерством обороны (PDF) . Вашингтон, округ Колумбия: Совет по оборонным инновациям. 2020.
  66. ^ «Запрос комментариев к проекту меморандума главам исполнительных департаментов и агентств,« Руководство по регулированию приложений искусственного интеллекта » » . Федеральный регистр . 2020-01-13 . Проверено 28 ноября 2020 .
  67. ^ "Предпосылки к смертоносным автономным системам оружия в CCW" . Организация Объединенных Наций Женева.
  68. ^ «Руководящие принципы, утвержденные Группой правительственных экспертов по новым технологиям в области смертоносной автономной системы оружия» (PDF) . Организация Объединенных Наций Женева.
  69. ^ Baum, Сет (2018-09-30). «Противодействие дезинформации суперинтеллекта» . Информация . 9 (10): 244. DOI : 10,3390 / info9100244 . ISSN 2078-2489 . 
  70. ^ "Взгляды страны на роботов-убийц" (PDF) . Кампания по остановке роботов-убийц.