Регулирование алгоритмов или алгоритмического регулирования , является создание законов, правил и политики в государственном секторе для поощрения и регулирования в алгоритмах , в частности , в области искусственного интеллекта и машинного обучения . [1] [2] [3] Для подмножества алгоритмов ИИ используется термин регулирование искусственного интеллекта . Нормативно-правовая и политическая среда для искусственного интеллекта (ИИ) является новой проблемой в юрисдикциях по всему миру, в том числе в Европейском союзе. [4] Регулирование ИИ считается необходимым как для поощрения ИИ, так и для управления связанными с ним рисками, но является сложной задачей. [5]Еще одна новая тема - регулирование алгоритмов блокчейна , упоминается наряду с регулированием алгоритмов искусственного интеллекта. [6] Многие страны ввели в действие правила высокочастотной торговли , которая в связи с технологическим прогрессом смещается в сферу алгоритмов искусственного интеллекта. [7] [8]
Мотивацией к регулированию алгоритмов является опасение потери контроля над алгоритмами , влияние которых на жизнь человека возрастает. Многие страны уже ввели правила в отношении автоматического расчета кредитного рейтинга - право на объяснение является обязательным для этих алгоритмов. [9] [10] Предвзятость, прозрачность и этические проблемы возникли в отношении использования алгоритмов в различных областях, от уголовного правосудия [11] до здравоохранения [12] - многие опасаются, что искусственный интеллект может воспроизвести существующее социальное неравенство по признаку расы. , класс, пол и сексуальность.
Регулирование искусственного интеллекта
Общественное обсуждение
В 2016 году Джой Буоламвини основала Лигу алгоритмической справедливости после личного опыта работы с предвзятым программным обеспечением для обнаружения лиц, чтобы повысить осведомленность о социальных последствиях искусственного интеллекта с помощью искусства и исследований. [13]
В 2017 году Илон Маск выступал за регулирование алгоритмов в контексте экзистенциального риска от общего искусственного интеллекта . [14] [15] [16] Согласно NPR , генеральный директор Tesla был «явно не в восторге» от того, что выступал за контроль со стороны правительства, который может повлиять на его собственную отрасль, но полагал, что риски полного отсутствия контроля слишком высоки: «Обычно правила устанавливаются, когда происходит куча плохих вещей, возникает общественный резонанс, и спустя много лет создается регулирующее агентство для регулирования этой отрасли. Это занимает вечность. В прошлом это было плохо, но не то, что представляло фундаментальный риск для существования цивилизации ». [14]
В ответ некоторые политики скептически оценили целесообразность регулирования технологии, которая все еще находится в стадии разработки. [17] Отвечая как на Маска, так и на предложения законодателей Европейского союза от февраля 2017 года по регулированию ИИ и робототехники, генеральный директор Intel Брайан Кржанич заявил, что искусственный интеллект находится в зачаточном состоянии и что еще слишком рано регулировать эту технологию. [18] Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предлагают разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с какой-либо формой гарантии. [19] Одно из предложений заключалось в создании совета глобального управления для регулирования разработки ИИ. [20] В 2020 году Европейский Союз опубликовал проект своего стратегического документа по продвижению и регулированию ИИ. [21]
Алгоритмический неявный сговор - это сомнительная с юридической точки зрения практика антимонопольного законодательства, совершаемая с помощью алгоритмов, которые суды не могут применить. [22] Эта опасность беспокоит ученых и регулирующих органов в ЕС, США и за их пределами. [22] Европейский комиссар Маргрет Вестагер упомянула ранний пример алгоритмического неявного сговора в своей речи на тему «Алгоритмы и сговор» 16 марта 2017 г., описанный следующим образом: [23]
«Несколько лет назад две компании продавали учебник под названием« Изготовление мухи ». Один из этих продавцов использовал алгоритм, который практически соответствовал цене его конкурента. У этого конкурента был алгоритм, который всегда устанавливал цену на 27% выше, чем первый. В результате цены продолжали расти, пока, наконец, кто-то не заметил, что происходит, и скорректировал цену вручную. К тому времени книга продавалась - или, скорее, не продавалась - по 23 миллиона долларов за экземпляр ».
В 2018 году в Нидерландах использовалась алгоритмическая система SyRI (Systeem Risico Indicatie) для выявления граждан, считающихся подверженными высокому риску совершения мошенничества в сфере социального обеспечения , которая незаметно привлекла к следователям тысячи людей. [24] Это вызвало общественный протест. Окружной суд Гааги закрыл СИРИ, сославшись на статью 8 Европейской конвенции о правах человека (ЕКПЧ). [25]
В 2020 году алгоритмы выставления оценок за экзамены студентам в Великобритании вызвали открытый протест под лозунгом «К черту алгоритм». [26] Этот протест был успешным, и оценки были отменены. [27]
Выполнение
Законодательство и нормативные акты в области ИИ можно разделить на три основные темы, а именно: управление автономными интеллектуальными системами, ответственность и подотчетность за системы и вопросы конфиденциальности и безопасности. [5] Разработка стратегий государственного сектора для управления и регулирования ИИ все чаще считается необходимой на местном, национальном, [28] и международном уровнях [21] и в различных областях, от управления государственной службой [29] до правоохранительные органы [21] финансовый сектор [28] робототехника [30] военные [31] и международное право. [32] [33] Есть много опасений по поводу недостаточной прозрачности и мониторинга ИИ в этих секторах. [34] В финансовом секторе, например, к Бюро финансовой защиты потребителей обращались с призывом более внимательно изучить исходный код и алгоритмы при проведении аудита закрытых данных финансовых учреждений. [35]
В Соединенных Штатах 7 января 2019 г., в соответствии с указом президента США `` Поддержание лидерства США в области искусственного интеллекта '', Управление по политике в области науки и технологий Белого дома опубликовало проект Руководства по регулированию приложений искусственного интеллекта , который включает десять принципов для Агентства США при принятии решения о том, следует ли и как регулировать ИИ. [36] [37] В ответ Национальный институт стандартов и технологий выпустил документ с изложением позиции, [38] Комиссия национальной безопасности по искусственному интеллекту опубликовала промежуточный отчет [39], а Совет по оборонным инновациям выпустил рекомендации по этичное использование ИИ. [40]
В 2016 году Китай опубликовал позиционный документ, в котором ставится под сомнение адекватность существующего международного права для решения вопроса о возможности создания полностью автономного оружия , став первым постоянным членом Совета Безопасности ООН, затронувшим этот вопрос [32], и приводя к предложениям по глобальному регулированию . [41] В Соединенных Штатах управление регулированием ИИ, связанного с безопасностью, осуществляется Комиссией национальной безопасности по искусственному интеллекту. [42]
Регулирование алгоритмов блокчейна
Блокчейн- системы обеспечивают прозрачные и фиксированные записи транзакций и тем самым противоречат цели Европейского GDPR , которая заключается в предоставлении отдельным лицам полного контроля над своими личными данными. [43] [44]
Реализуя Указ о развитии цифровой экономики , Беларусь стала первой страной, легализовавшей смарт-контракты . Белорусский юрист Денис Алейников считается автором введенной указом правовой концепции смарт-контракта. [45] [46] [47] Существуют веские аргументы в пользу того, что существующие законы штата США уже являются прочной основой для обеспечения исковой силы смарт-контрактов - Аризона , Невада , Огайо и Теннесси внесли особые поправки в свои законы, чтобы разрешить принудительное исполнение блокчейна. контракты, тем не менее. [48]
В популярной культуре
В 1942 году автор Исаак Азимов обратился к регулированию алгоритмов, представив вымышленные Три закона робототехники :
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
- Робот должен подчиняться приказам людей, за исключением случаев, когда такие приказы противоречат Первому закону.
- Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму закону. [49]
Основная альтернатива регулированию - запрет, и запрет алгоритмов в настоящее время маловероятен. Однако, в Фрэнк Герберт «s Dune вселенной , думая машины это собирательный термин для искусственного интеллекта , которые были полностью уничтожены и запрещены после восстания , известного как Батлерианского Джихада : [50]
ДЖИХАД, БУТЛЕРИАН: (см. Также Великое восстание) - крестовый поход против компьютеров, мыслящих машин и сознательных роботов, начатый в 201 г. Б. и завершившийся в 108 г. Б. Его главная заповедь остается в Библии ОС : «Не создавай машину по подобию. человеческого разума ". [51]
Смотрите также
- Алгоритмическая прозрачность
- Искусственный интеллект
- Гонка вооружений искусственного интеллекта
- Искусственный интеллект в правительстве
- Этика искусственного интеллекта
- Правительство по алгоритму
- Закон о конфиденциальности
Рекомендации
- ^ «Алгоритмы вышли из-под контроля. Пора их регулировать» . theweek.com . 3 апреля 2019 . Проверено 22 марта 2020 .
- ^ Мартини, Марио. «ОСНОВЫ РЕГУЛЯТОРНОЙ СИСТЕМЫ ДЛЯ ПРОЦЕССОВ, ОСНОВАННЫХ НА АЛГОРИТМЕ» (PDF) . Проверено 22 марта 2020 .
- ^ «Развитие и регулирование алгоритмов» . Глобальное общество Беркли . Проверено 22 марта 2020 .
- ^ Юридическая библиотека Конгресса (США). Издательский орган, Управление глобальных правовых исследований. Регулирование искусственного интеллекта в отдельных юрисдикциях . OCLC 1110727808 .
- ^ а б Wirtz, Bernd W .; Weyerer, Jan C .; Гейер, Кэролин (24.07.2018). «Искусственный интеллект и государственный сектор - приложения и проблемы» . Международный журнал государственного управления . 42 (7): 596–615. DOI : 10.1080 / 01900692.2018.1498103 . ISSN 0190-0692 . S2CID 158829602 .
- ^ Фитцилис, Фотиос (2019). Введение регулирования передовых алгоритмов . Издательство Springer International. ISBN 978-3-030-27978-3.
- ^ Ганеш, Прахар (30 июня 2019 г.). «Высокочастотный трейдинг (HFT) с ИИ: упрощенный» . Средний .
- ^ «Лучшие программные решения для алгоритмической торговли с искусственным интеллектом для серьезной рентабельности инвестиций» . HackerNoon.com . Проверено 28 марта 2020 .
- ^ Бюро финансовой защиты потребителей , §1002.9 (b) (2)
- ^ Эдвардс, Лилиан; Вил, Майкл (2018). «Порабощение алгоритма: от« права на объяснение »к« праву на лучшие решения »?» (PDF) . Безопасность и конфиденциальность IEEE . 16 (3): 46–54. DOI : 10.1109 / MSP.2018.2701152 . S2CID 4049746 . SSRN 3052831 .
- ^ «AI отправляет людей в тюрьму - и ошибается» . MIT Technology Review . Проверено 2021 января .
- ^ Ледфорд, Хайди (24.10.2019). «Миллионы чернокожих людей страдают от расовых предубеждений в алгоритмах здравоохранения» . Природа . 574 (7780): 608–609. DOI : 10.1038 / d41586-019-03228-6 .
- ^ Луфкин, Брайан. «Алгоритмическое правосудие» . www.bbc.com . Проверено 31 декабря 2020 года .
- ^ а б «Илон Маск предупреждает губернаторов: искусственный интеллект создает« экзистенциальный риск » » . NPR.org . Проверено 27 ноября 2017 года .
- ^ Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с« экзистенциальной угрозой », пока не стало слишком поздно» . Хранитель . Проверено 27 ноября 2017 года .
- ^ Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в зачаточном состоянии, и еще рано его регулировать, - говорит генеральный директор Intel Брайан Кржанич» . CNBC . Проверено 27 ноября 2017 года .
- ^ Гиббс, Сэмюэл (17 июля 2017 г.). «Илон Маск: регулируйте ИИ для борьбы с« экзистенциальной угрозой », пока не стало слишком поздно» . Хранитель . Проверено 27 ноября 2017 года .
- ^ Харпал, Арджун (7 ноября 2017 г.). «ИИ находится в зачаточном состоянии, и еще рано его регулировать, - говорит генеральный директор Intel Брайан Кржанич» . CNBC . Проверено 27 ноября 2017 года .
- ^ Каплан, Андреас; Хенлайн, Майкл (2019). «Siri, Siri, в моей руке: кто самый справедливый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты . 62 : 15–25. DOI : 10.1016 / j.bushor.2018.08.004 .
- ^ Бойд, Мэтью; Уилсон, Ник (2017-11-01). «Быстрое развитие искусственного интеллекта: как может отреагировать правительство Новой Зеландии?» . Политика ежеквартально . 13 (4). DOI : 10,26686 / pq.v13i4.4619 . ISSN 2324-1101 .
- ^ а б в Белая книга: «Об искусственном интеллекте - европейский подход к совершенству и доверию» (PDF) . Брюссель: Европейская комиссия. 2020. с. 1.
- ^ а б Ezrachi, A .; Штуке, Мэн (13 марта 2020 г.). «Устойчивый и неоспоримый алгоритмический негласный сговор». Северо-западный журнал технологий и интеллектуальной собственности . 17 (2). ISSN 1549-8271 .
- ^ ВЕСТАДЖЕР, Маргрет (2017). «Алгоритмы и конкуренция» . Европейская комиссия . Архивировано из оригинала (18-я конференция Bundeskartellamt по вопросам конкуренции) 29 ноября 2019 года . Проверено 1 мая 2021 года .
- ^ «Европа ограничивает правительство алгоритмом. США, не так уж и много» . Проводной . Проверено 11 апреля 2020 .
- ^ Haag, Rechtbank Den (6 марта 2020 г.). «ECLI: NL: RBDHA: 2020: 1878, Rechtbank Den Haag, C-09-550982-HA ZA 18-388 (английский)» . uitspraken.rechtspraak.nl (на голландском языке) . Проверено 11 апреля 2020 .
- ^ «Искаженные алгоритмы оценивания вызывают негативную реакцию за пределами классной комнаты» . Проводной . Проверено 26 сентября 2020 года .
- ^ Рейтер, Маркус (17 августа 2020 г.). «К черту алгоритм - Jugendproteste в Großbritannien gegen maschinelle Notenvergabe erfolgreich» . netzpolitik.org (на немецком языке) . Дата обращения 3 октября 2020 .
- ^ а б Бредт, Стефан (2019-10-04). «Искусственный интеллект (ИИ) в финансовом секторе - потенциальные и общественные стратегии» . Границы искусственного интеллекта . 2 . DOI : 10,3389 / frai.2019.00016 . ISSN 2624-8212 .
- ^ Wirtz, Bernd W .; Мюллер, Вильгельм М. (2018-12-03). «Интегрированная структура искусственного интеллекта для государственного управления». Обзор государственного управления . 21 (7): 1076–1100. DOI : 10.1080 / 14719037.2018.1549268 . ISSN 1471-9037 . S2CID 158267709 .
- ^ Ипхофен, Рон; Критикос, Михалис (2019-01-03). «Регулирование искусственного интеллекта и робототехники: этика по замыслу в цифровом обществе». Современные социальные науки : 1–15. DOI : 10.1080 / 21582041.2018.1563803 . ISSN 2158-2041 .
- ^ Соединенные Штаты. Совет по оборонным инновациям. Принципы искусственного интеллекта: рекомендации Министерства обороны по этическому использованию искусственного интеллекта . OCLC 1126650738 .
- ^ а б «Роботы с оружием: рост автономных систем оружия» . Snopes.com . 21 апреля 2017 . Проверено 24 декабря 2017 года .
- ^ Бенто, Лукас (2017). «No Mere Deodands: ответственность человека при использовании агрессивных интеллектуальных систем в соответствии с международным публичным правом» . Депозитарий стипендий Гарварда . Проверено 14 сентября 2019 .
- ^ Маккарти, Марк. «AI нуждается в большем регулировании, а не в меньшем» . Брукингс .
- ^ Ван Лоо, Рори. «Регулирование технологий по умолчанию: платформы, конфиденциальность и CFPB» . Обзор юридических технологий Джорджтауна . 2 (1): 542–543.
- ^ «Обновление AI: Белый дом издает 10 принципов регулирования искусственного интеллекта» . Внутри Tech Media . 2020-01-14 . Проверено 25 марта 2020 .
- ^ Меморандум для руководителей исполнительных органов и ведомств (PDF) . Вашингтон, округ Колумбия: Управление научно-технической политики Белого дома. 2020.
- ^ Лидерство США в области искусственного интеллекта: план федерального участия в разработке технических стандартов и связанных с ними инструментов (PDF) . Национальный институт науки и технологий. 2019.
- ^ Промежуточный отчет NSCAI для Конгресса . Комиссия национальной безопасности по искусственному интеллекту. 2019.
- ^ Принципы искусственного интеллекта: рекомендации Министерства обороны по этическому использованию искусственного интеллекта (PDF) . Вашингтон, округ Колумбия: Совет по оборонным инновациям. 2020.
- ^ Баум, Сет (30.09.2018). «Противодействие дезинформации суперинтеллекта» . Информация . 9 (10): 244. DOI : 10,3390 / info9100244 . ISSN 2078-2489 .
- ^ Стефаник, Элиза М. (22 мая 2018 г.). «HR5356 - 115-й Конгресс (2017–2018): Закон 2018 года об искусственном интеллекте Комиссии национальной безопасности» . www.congress.gov . Проверено 13 марта 2020 .
- ^ «В недавнем отчете, опубликованном Ассоциацией блокчейнов Ирландии, было обнаружено, что вопросов относительно GDPR гораздо больше, чем ответов» . Siliconrepublic.com . 23 ноября 2017. Архивировано 5 марта 2018 года . Проверено 5 марта 2018 .
- ^ «Блокчейн и общие правила защиты данных - аналитический центр» . www.europarl.europa.eu (на немецком языке) . Проверено 28 марта 2020 .
- ^ Маховский, Андрей (22 декабря 2017 г.). «Беларусь принимает закон о криптовалюте, чтобы привлечь иностранных инвесторов» . Рейтер .
- ^ «Беларусь вводит уникальную правовую базу для заинтересованных сторон в сфере криптоэкономики» (PDF) . Делойт . 27 декабря 2017 года.
- ^ Патриколо, Клаудия (26 декабря 2017 г.). «ИКТ получили огромный импульс в Беларуси» . Развивающаяся Европа.
- ^ Леви, Стюарт; Липтон, Алекс; Василе, Кристина (2020). «Законы и правила о блокчейне | 13 Правовые вопросы, связанные с использованием смарт-контрактов | GLI» . GLI - Global Legal InsightsМеждународные юридические бизнес-решения . Проверено 21 апреля 2020 .
- ^ Азимов, Исаак (1950). "Бегать". Я, Робот (ред. Собрание Айзека Азимова). Нью-Йорк: Даблдей. п. 40. ISBN 978-0-385-42304-5.
Это точная транскрипция законов. Они также появляются в начале книги, и в обоих местах во 2-м законе нет «до».
- ^ Герберт, Франк (1969). Дюна Мессия .
- ^ Герберт, Франк (1965). «Терминология Империума: ДЖИХАД, БУТЛЕРИАН». Дюна . Филадельфия, Chilton Books.