Из Википедии, свободной энциклопедии
Перейти к навигации Перейти к поиску

Лига Справедливости алгоритмической (AJL) является цифровой правозащитной организации , базирующейся в Кембридже, штат Массачусетс . Основанная в 2016 году специалистом по информатике Джой Буоламвини , AJL стремится повысить осведомленность о социальных последствиях искусственного интеллекта с помощью искусства и исследований. [1] Это было показано в документальном фильме « Закодированное предубеждение» 2020 года . [2]

История [ править ]

Буоламвини основала Лигу алгоритмической справедливости в 2016 году после личного опыта работы с предвзятым программным обеспечением для распознавания лиц: программа не могла обнаружить ее «сильно меланизированное» лицо, пока она не надела белую маску. AJL был создан для того, чтобы разоблачить повсеместное распространение такой предвзятости в искусственном интеллекте и угрозу, которую он представляет для гражданских прав. [3] Ранние кампании AJL были сосредоточены в основном на программном обеспечении для распознавания лиц , тогда как недавние кампании более широко рассматривали вопросы справедливости и подотчетности в ИИ, включая алгоритмическую предвзятость , алгоритмическое принятие решений, алгоритмическое управление и алгоритмический аудит .

Действия [ править ]

Распознавание лиц [ править ]

В 2018 году основатель Буоламвини сотрудничал с специалистом по этике ИИ Тимнитом Гебру, чтобы опубликовать знаменательное исследование расовых и гендерных предубеждений в алгоритмах распознавания лиц. Их исследование под названием Gender Shades показало , что программное обеспечение для анализа лица, выпущенное IBM и Microsoft, было менее точным при анализе темнокожих и женских лиц по сравнению со светлокожими и мужскими лицами. [4] [5] [6] С момента публикации работа часто цитируется защитниками и исследователями, по состоянию на декабрь 2020 года было цитировано более 1000 академических источников. Публикация этой работы сопровождалась запуском программы Safe Face Pledge, инициативы, разработанной с Джорджтаунский центр конфиденциальности и технологий, который призвал разработчиков распознавания лиц к саморегулированию.[7] Проект « Гендерные оттенки » и последующая пропаганда, проведенная AJL и аналогичными группами, побудили несколько технологических компаний, включая Amazon и IBM, устранить предубеждения при разработке своих алгоритмов и даже временно запретить использование их продуктов полицией в 2020 году. [ 8] [9]

В результате исследовательского сотрудничества с участием AJL в мае 2020 года был выпущен технический документ, в котором содержится призыв к созданию федерального ведомства по регулированию использования распознавания лиц правительством. [10] В июле AJL присоединилась к ACLU и Юридическому центру Джорджтаунского университета в призыве к федеральному мораторию на технологию распознавания лиц. [11]

Распознавание речи [ править ]

В марте 2020 года AJL выпустила проект устной речи под названием Voicing Erasure, который направлен на устранение расовых предубеждений в алгоритмах распознавания речи . Произведение было исполнено многочисленными активистками и исследователями в этой области, включая Руху Бенджамин , Сашу Костанцу-Чок , Сафию Нобл и Кимберли Креншоу . [12]

Алгоритмическое управление [ править ]

В 2019 году Буоламвини представлял AJL на слушаниях в Конгрессе Комитета по науке, космосу и технологиям Палаты представителей США, обсуждая социальные и этические последствия ИИ. [13] [14]

Ссылки [ править ]

  1. ^ «Узнать больше - Алгоритмическая Лига Справедливости» . www.ajl.org . Проверено 12 декабря 2020 .
  2. Ли, Дженнифер (8 февраля 2020 г.). «Когда предвзятость закодирована в нашей технологии» . NPR.org . Проверено 12 декабря 2020 .
  3. ^ Trahan, Erin (18 ноября 2020). «Документальный фильм« Закодированное предубеждение »разоблачает расизм искусственного интеллекта» . www.wbur.org . Проверено 12 декабря 2020 .
  4. ^ Буоламвини, Радость; Гебру, Тимнит (2018). «Гендерные оттенки: межсекторные различия в точности в коммерческой гендерной классификации» (PDF) . Материалы 1-й конференции по справедливости, подотчетности и прозрачности . 81 : 77–91 . Проверено 12 декабря 2020 .
  5. ^ «Гендерные оттенки» . gendershades.org . Проверено 12 декабря 2020 .
  6. Рианна Буэлл, Спенсер (23 февраля 2018 г.). «Исследователь Массачусетского технологического института: у ИИ есть проблема расы, и мы должны ее исправить» . Бостонский журнал . Проверено 12 декабря 2020 .
  7. ^ «Объявление - Залог безопасного лица» . Залог безопасного лица . 11 декабря 2018. Архивировано из оригинала 20 апреля 2019 года . Проверено 8 февраля 2021 года .
  8. Хао, Карен (12 июня 2020 г.). «Двухлетняя борьба за то, чтобы не дать Amazon продавать распознавание лиц полиции» . Обзор технологий Массачусетского технологического института . Проверено 12 декабря 2020 .
  9. Мейер, Дэвид (9 июня 2020 г.). «IBM отказывается от распознавания лиц, опасаясь расового профилирования и массового наблюдения» . Удача . Проверено 12 декабря 2020 .
  10. Берт, Крис (8 июня 2020 г.). «Эксперты в области биометрии призывают к созданию государственного органа в стиле FDA для регулирования распознавания лиц» . Биометрическое обновление . Проверено 12 декабря 2020 .
  11. Родриго, Крис Миллс (2 июля 2020 г.). «Десятки правозащитных групп настаивают на том, чтобы Конгресс запретил технологию распознавания лиц» . Холм . Проверено 12 декабря 2020 .
  12. Джонсон, Хари (1 апреля 2020 г.). «Алгоритмическая Лига справедливости протестует против предвзятости в голосовом искусственном интеллекте и освещении в СМИ» . VentureBeat . Проверено 11 декабря 2020 .
  13. ^ Quach, Katyanna (22 мая 2019). «Мы прослушали более 3 часов свидетельских показаний Конгресса США по распознаванию лиц, поэтому вам не пришлось их проходить» . www.theregister.com . Проверено 12 декабря 2020 .
  14. ^ "Искусственный интеллект: социальные и этические последствия | Комитет Палаты представителей по науке, космосу и технологиям" . science.house.gov . Проверено 12 декабря 2020 .

Внешние ссылки [ править ]

  • Алгоритмическая Лига Справедливости