Регулирование алгоритмов


Регулирование алгоритмов или алгоритмическое регулирование это создание законов, правил и политик государственного сектора для продвижения и регулирования алгоритмов , особенно в области искусственного интеллекта и машинного обучения . [1] [2] [3] Для подмножества алгоритмов ИИ используется термин регулирование искусственного интеллекта . Нормативная и политическая среда для искусственного интеллекта (ИИ) является новой проблемой в юрисдикциях по всему миру, в том числе в Европейском Союзе. [4] Регулирование ИИ считается необходимым как для поощрения ИИ, так и для управления сопутствующими рисками, но это сложно. [5]Еще одна новая тема — регулирование алгоритмов блокчейна (использование смарт-контрактов должно регулироваться) — упоминается наряду с регулированием алгоритмов ИИ. [6] Многие страны ввели правила высокочастотных сделок , которые смещаются из-за технического прогресса в область алгоритмов ИИ. [7]

Мотивом регулирования алгоритмов является опасение потери контроля над алгоритмами , влияние которых на жизнь человека возрастает. Несколько стран уже ввели правила в случае автоматического расчета кредитного рейтинга — право на объяснение является обязательным для этих алгоритмов. [8] [9] Например, IEEE приступила к разработке нового стандарта для явного решения этических вопросов и ценностей потенциальных будущих пользователей. [10] Предвзятость, прозрачность и этические проблемы возникли в связи с использованием алгоритмов в различных областях, от уголовного правосудия [11] до здравоохранения [12].— многие опасаются, что искусственный интеллект может воспроизвести существующее социальное неравенство по признаку расы, класса, пола и сексуальности.

В 2016 году Джой Буоламвини основала Алгоритмическую лигу справедливости после личного опыта работы с предвзятым программным обеспечением для обнаружения лиц, чтобы повысить осведомленность о социальных последствиях искусственного интеллекта с помощью искусства и исследований. [13]

В 2017 году Илон Маск выступил за регулирование алгоритмов в контексте экзистенциального риска от общего искусственного интеллекта . [14] [15] [16] По данным NPR , генеральный директор Tesla был «явно не в восторге» от того, что выступает за правительственную проверку, которая могла бы повлиять на его собственную отрасль, но считал, что риски полного отсутствия надзора слишком высоки: «Обычно правила устанавливаются так: когда происходит куча плохих вещей, возникает общественный резонанс, и спустя много лет создается регулирующее агентство для регулирования этой отрасли. Это занимает вечность. В прошлом это было плохо, но не то, что представляло фундаментальный риск для существования цивилизации». [14]

В ответ некоторые политики выразили скептицизм по поводу разумности регулирования технологии, которая все еще находится в разработке. [15] Отвечая как на Маска, так и на предложения законодателей Европейского Союза от февраля 2017 года по регулированию ИИ и робототехники, генеральный директор Intel Брайан Кржанич заявил, что искусственный интеллект находится в зачаточном состоянии и что еще слишком рано регулировать эту технологию. [16] Вместо того, чтобы пытаться регулировать саму технологию, некоторые ученые предлагают разработать общие нормы, включая требования к тестированию и прозрачности алгоритмов, возможно, в сочетании с какой-либо формой гарантии. [17] Одно из предложений заключалось в создании глобального совета по управлению для регулирования развития ИИ. [18]В 2020 году Европейский союз опубликовал проект своего стратегического документа по продвижению и регулированию ИИ. [19]

Алгоритмический молчаливый сговор — юридически сомнительная антимонопольная практика, совершаемая с помощью алгоритмов, за которую суды не имеют права преследовать. [20] Эта опасность касается ученых и регулирующих органов в ЕС, США и других странах. [20] Европейский комиссар Маргрет Вестагер упомянула ранний пример алгоритмического молчаливого сговора в своей речи «Алгоритмы и сговор» 16 марта 2017 г., описанной следующим образом: [21]