Это хорошая статья. Для получения дополнительной информации нажмите здесь.
Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Блок-схема, показывающая решения, принятые механизмом рекомендаций , около 2001 г. [1]

Алгоритмическая предвзятость описывает систематические и повторяющиеся ошибки в компьютерной системе, которые приводят к несправедливым результатам, например, привилегия одной произвольной группы пользователей над другими. Предвзятость может возникать из-за многих факторов, включая, помимо прочего, дизайн алгоритма или непреднамеренное или непредвиденное использование или решения, касающиеся того, как данные кодируются, собираются, выбираются или используются для обучения алгоритма. Алгоритмическая предвзятость обнаруживается на разных платформах, включая, помимо прочего, результаты поисковых систем и платформы социальных сетей, и может иметь различные последствия от непреднамеренного нарушения конфиденциальности до усиления социальных предубеждений.расы, пола, сексуальности и этнической принадлежности. Изучение алгоритмической предвзятости больше всего касается алгоритмов, отражающих «систематическую и несправедливую» дискриминацию. Эта предвзятость только недавно была рассмотрена в правовых рамках, таких как Общий регламент ЕС по защите данных 2018 года . Требуется более комплексное регулирование, поскольку новые технологии становятся все более совершенными и непрозрачными.

По мере того, как алгоритмы расширяют свою способность организовывать общество, политику, институты и поведение, социологов стали интересовать способы, которыми непредвиденные результаты и манипуляции с данными могут повлиять на физический мир. Поскольку алгоритмы часто считаются нейтральными и беспристрастными, они могут неточно демонстрировать больший авторитет, чем человеческий опыт, а в некоторых случаях использование алгоритмов может заменить человеческую ответственность за их результаты. Предвзятость может появиться в алгоритмических системах в результате уже существующих культурных, социальных или институциональных ожиданий; из-за технических ограничений их конструкции; или путем использования в непредвиденных контекстах или аудиторией, не учтенной при первоначальном дизайне программного обеспечения.

Алгоритмическая предвзятость упоминалась в самых разных случаях, от результатов выборов до распространения ненавистнических высказываний в Интернете.. Он также возник в сфере уголовного правосудия, здравоохранения и найма, усугубляя существующие расовые, экономические и гендерные предубеждения. Относительная неспособность технологии распознавания лиц точно идентифицировать лица с более темной кожей была связана с множественными неправомерными арестами чернокожих мужчин, проблема, возникающая из-за несбалансированных наборов данных. Проблемы с пониманием, исследованием и обнаружением алгоритмической предвзятости сохраняются из-за патентованной природы алгоритмов, которые обычно считаются коммерческой тайной. Даже когда обеспечивается полная прозрачность, сложность определенных алгоритмов создает препятствие для понимания их функционирования. Кроме того, алгоритмы могут изменяться или реагировать на ввод или вывод таким образом, который невозможно предвидеть или легко воспроизвести для анализа. Во многих случаях, даже в рамках одного веб-сайта или приложения, нет единого "алгоритм »для изучения, но сеть из множества взаимосвязанных программ и входных данных, даже между пользователями одного и того же сервиса.

Определения [ править ]

Диаграмма 1969 года, показывающая, как простая компьютерная программа принимает решения, иллюстрирующая очень простой алгоритм.

Алгоритмы трудно определить , [2] , но могут быть обычно понимаются как списки инструкций , которые определяют , как программы чтения, собирать, обрабатывать и анализировать данные для создания вывода. [3] : 13 Строгое техническое введение см . В разделе « Алгоритмы» . Достижения в области компьютерного оборудования привели к увеличению возможностей обработки, хранения и передачи данных. Это, в свою очередь, стимулировало разработку и внедрение таких технологий, как машинное обучение и искусственный интеллект . [4] : 14–15 Благодаря анализу и обработке данных алгоритмы составляют основу поисковых систем, [5]веб-сайты социальных сетей, [6] системы рекомендаций, [7] интернет-магазины, [8] интернет-реклама [9] и многое другое. [10]

Современные социологи озабочены алгоритмическими процессами, встроенными в аппаратные и программные приложения из-за их политического и социального воздействия, и ставят под сомнение основные предположения о нейтральности алгоритма. [11] : 2 [12] : 563 [13] : 294 [14] Термин « алгоритмическая предвзятость» описывает систематические и повторяющиеся ошибки, которые приводят к несправедливым результатам, например, привилегия одной произвольной группы пользователей над другими. Например, кредитный рейтингалгоритм может отказать в выдаче ссуды, не будучи несправедливым, если он последовательно взвешивает соответствующие финансовые критерии. Если алгоритм рекомендует ссуды одной группе пользователей, но отказывает в ссуде другой группе почти идентичных пользователей на основании несвязанных критериев, и если такое поведение может повторяться в нескольких случаях, алгоритм можно охарактеризовать как предвзятый . [15] : 332 Эта предвзятость может быть преднамеренной или непреднамеренной (например, она может происходить из предвзятых данных, полученных от работника, который ранее выполнял работу, которую алгоритм будет выполнять с этого момента).

Методы [ править ]

Смещение может быть внесено в алгоритм несколькими способами. Во время сборки набора данных данные могут быть собраны, оцифрованы, адаптированы и введены в базу данных в соответствии с критериями каталогизации, разработанными человеком . [16] : 3 Затем программисты назначают приоритеты или иерархии того , как программа оценивает и сортирует эти данные. Это требует человеческих решений о том, как данные классифицироваться, и какие данные должны быть включены или отброшены. [16] : 4 Некоторые алгоритмы собирают собственные данные на основе критериев, выбранных людьми, которые также могут отражать предвзятость разработчиков. [16] : 8Другие алгоритмы могут усиливать стереотипы и предпочтения при обработке и отображении «релевантных» данных для пользователей-людей, например, путем выбора информации на основе предыдущих выборов аналогичного пользователя или группы пользователей. [16] : 6

Помимо сборки и обработки данных, предвзятость может возникнуть в результате дизайна. [17] Например, алгоритмы, которые определяют распределение ресурсов или тщательную проверку (например, определение места в школе), могут непреднамеренно дискриминировать категорию при определении риска на основе схожих пользователей (как в кредитных рейтингах). [18] : 36Между тем, механизмы рекомендаций, которые работают, связывая пользователей с похожими пользователями или использующие предполагаемые маркетинговые черты, могут полагаться на неточные ассоциации, которые отражают широкие этнические, гендерные, социально-экономические или расовые стереотипы. Другой пример связан с определением критериев включения и исключения из результатов. Этот критерий может привести к неожиданным результатам для результатов поиска, например, с программным обеспечением рекомендаций по рейсам, которое пропускает рейсы, которые не следуют по маршрутам полета спонсирующей авиакомпании. [17] Алгоритмы также могут отображать погрешность неопределенности , предлагая более надежные оценки при больших наборах данных.доступны. Это может смещать алгоритмические процессы в сторону результатов, которые более точно соответствуют более крупным выборкам, что может не учитывать данные из недостаточно представленных групп населения. [19] : 4

История [ править ]

Ранняя критика [ править ]

Эта карта использовалась для загрузки программного обеспечения в старый мэйнфрейм. Каждый байт (например, буква «А») вводится путем пробивки отверстий. Хотя современные компьютеры более сложны, они отражают этот процесс принятия решений человеком при сборе и обработке данных. [20] : 70 [21] : 16

Самые ранние компьютерные программы были разработаны, чтобы имитировать человеческие рассуждения и умозаключения, и считались работающими, когда они успешно и последовательно воспроизводили эту человеческую логику. В 1976 г. книги питание компьютера и человеческий разум , искусственный интеллект пионер Вейценбаум предположил , что смещение может возникнуть как из данных , используемых в программе, но и от того , как программа закодирована. [20] : 149

Вайценбаум писал, что программы - это последовательность правил, созданных людьми для компьютера. Последовательно следуя этим правилам, такие программы «воплощают закон» [20] : 40, то есть навязывают определенный способ решения проблем. Правила, которым следует компьютер, основаны на предположениях программиста о том, как эти проблемы могут быть решены. Это означает, что код может включать в себя представление программиста о том, как устроен мир, включая его или ее предубеждения и ожидания. [20] : 109 Несмотря на то, что компьютерная программа может таким образом учитывать предвзятость, Вейценбаум также отметил, что любые данные, передаваемые в машину, дополнительно отражают «процессы принятия решений человеком» по мере того, как данные выбираются. [20] :70, 105

Наконец, он отметил, что машины также могут передавать полезную информацию с непредвиденными последствиями, если пользователи не знают, как интерпретировать результаты. [20] : 65 Вайценбаум предостерег от доверчивых решений, принимаемых компьютерными программами, которые пользователь не понимает, сравнивая такую ​​веру с туристом, который может найти свой путь в гостиничный номер, только повернув налево или направо при подбрасывании монеты. Важно отметить, что у туриста нет оснований понимать, как и почему он прибыл в пункт назначения, и успешное прибытие не означает, что процесс является точным или надежным. [20] : 226

Один из первых примеров алгоритмической предвзятости привел к тому, что с 1982 по 1986 год 60 женщин и представителей этнических меньшинств не могли посещать медицинскую школу больницы Святого Георгия в год, что было обусловлено внедрением новой компьютерной системы оценки, которая запрещала вход женщинам и мужчинам. с «иностранно звучащими именами», основанными на исторических тенденциях приема. [22] В то время как многие школы в то время использовали аналогичные предубеждения в процессе отбора, Сент-Джордж был наиболее известен тем, что автоматизировал указанную предвзятость с помощью алгоритма, что позволило привлечь внимание людей в гораздо более широком масштабе.

Современная критика и отзывы [ править ]

Хотя хорошо разработанные алгоритмы часто определяют результаты, которые в равной степени (или более) справедливы, чем решения людей, случаи предвзятости все же имеют место, и их трудно предсказать и проанализировать. [23] Сложность анализа алгоритмической ошибки выросла вместе со сложностью программ и их дизайна. Решения, принятые одним дизайнером или командой дизайнеров, могут быть не видны среди множества частей кода, созданных для одной программы; со временем об этих решениях и их коллективном влиянии на результат программы можно забыть. [24] : 115 Теоретически эти предубеждения могут создавать новые модели поведения или «сценарии» по отношению к конкретным технологиям, поскольку код взаимодействует с другими элементами общества. [25]Предубеждения также могут повлиять на то, как общество формируется вокруг точек данных, которые требуются алгоритмам. Например, если данные показывают большое количество арестов в определенном районе, алгоритм может назначить больше полицейских патрулей в этот район, что может привести к большему количеству арестов. [26] : 180

Решения алгоритмических программ можно рассматривать как более авторитетные, чем решения людей, которым они призваны помогать [27] : 15 процесс, описанный автором Клэем Ширки как «алгоритмический авторитет». [28] Ширки использует этот термин для описания «решения считать авторитетным неуправляемый процесс извлечения ценности из различных, ненадежных источников», таких как результаты поиска. [28] Этот нейтралитет также может быть искажен языком, используемым экспертами и средствами массовой информации при представлении результатов общественности. Например, список новостей, выбранных и представленных как «популярные» или «популярные», может быть создан на основе значительно более широких критериев, чем просто их популярность.[16]: 14

Из-за их удобства и авторитета алгоритмы рассматриваются как средство делегирования ответственности от людей. [27] : 16 [29] : 6 Это может привести к сокращению альтернативных вариантов, компромиссов или гибкости. [27] : 16 Социолог Скотт Лэш критиковал алгоритмы как новую форму «порождающей силы», поскольку они являются виртуальным средством достижения реальных целей. Там, где ранее человеческое поведение генерировало данные для сбора и изучения, мощные алгоритмы все чаще могли формировать и определять человеческое поведение. [30] : 71

Обеспокоенность влиянием алгоритмов на общество привела к созданию рабочих групп в таких организациях, как Google и Microsoft , которые совместно создали рабочую группу под названием «Справедливость, подотчетность и прозрачность в машинном обучении». [31] : 115 идей от Google включают группы сообщества, которые отслеживают результаты алгоритмов и голосуют за контроль или ограничение результатов, которые, по их мнению, имеют негативные последствия. [31] : 117 В последние годы исследование справедливости, подотчетности и прозрачности (FAT) алгоритмов стало отдельной междисциплинарной областью исследований с ежегодной конференцией под названием FAT *. [32]Критики предположили, что инициативы FAT не могут эффективно служить в качестве независимых наблюдателей, когда многие из них финансируются корпорациями, создающими изучаемые системы. [33]

Типы [ править ]

Ранее существовавшие [ править ]

Предвзятость, существовавшая ранее в алгоритме, является следствием лежащих в основе социальных и институциональных идеологий . Такие идеи могут влиять или создавать личные предубеждения внутри отдельных дизайнеров или программистов. Такие предрассудки могут быть явными и сознательными или неявными и бессознательными. [15] : 334 [13] : 294 Плохо выбранные входные данные или просто данные из предвзятого источника будут влиять на результаты, создаваемые машинами. [21] : 17 Кодирование существующей предвзятости в программное обеспечение может сохранить социальную и институциональную предвзятость и без исправлений может быть воспроизведено во всех будущих применениях этого алгоритма. [24] : 116 [29] : 8

Примером такой формы предвзятости является Программа Закона о британском гражданстве, разработанная для автоматизации оценки новых британских граждан после Закона о британском гражданстве 1981 года . [15] : 341 Программа точно отражала положения закона, который гласил, что «мужчина является отцом только своих законных детей, а женщина - матерью всех своих детей, законных или незаконнорожденных». [15] : 341 [34] : 375 Пытаясь перенести определенную логику в алгоритмический процесс, BNAP вписал логику Закона о британском гражданстве в свой алгоритм, который увековечил бы его, даже если бы этот закон был в конечном итоге отменен. [15] : 342

Технические [ править ]

Было обнаружено, что программное обеспечение для распознавания лиц, используемое в сочетании с камерами наблюдения, демонстрирует предвзятость при распознавании азиатских и черных лиц над белыми. [26] : 191

Техническая предвзятость возникает из-за ограничений программы, вычислительной мощности, ее дизайна или других ограничений системы. [15] : 332 Подобная предвзятость также может быть ограничением дизайна, например, можно понять, что поисковая машина, которая показывает три результата на экране, имеет несколько более приоритетных преимуществ, чем следующие три, как при отображении цен на авиабилеты. [15] : 336 Другой случай - программное обеспечение, которое полагается на случайность для справедливого распределения результатов. Если механизм генерации случайных чисел не является действительно случайным, он может внести систематическую ошибку, например, смещая выборку в сторону элементов в конце или начале списка. [15] : 332

Без увязки алгоритма использует несвязанную информацию для сортировки результатов, например, летно-ценообразования алгоритм сортирует результаты по алфавиту будут смещены в пользу American Airlines над United Airlines. [15] : 332 Может также применяться противоположное, когда результаты оцениваются в контексте, отличном от того, в котором они собираются. Данные могут быть собраны без критического внешнего контекста: например, когда программное обеспечение для распознавания лиц используется камерами наблюдения, но оценивается удаленным персоналом в другой стране или регионе, или оценивается нечеловеческими алгоритмами без понимания того, что происходит за пределами камеры. поле зрения. Это может привести к неполному пониманию места преступления, например, из-за того, что случайные прохожие будут ошибочно приняты за тех, кто совершает преступление. [12] : 574

Наконец, технический уклон может быть создан путем попытки формализовать решения в виде конкретных шагов, исходя из предположения, что человеческое поведение работает таким же образом. Например, программное обеспечение взвешивает точки данных, чтобы определить, должен ли обвиняемый согласиться на сделку о признании вины, игнорируя при этом влияние эмоций на присяжных. [15] : 332 Еще один непредвиденный результат такой формы предвзятости был обнаружен в программе обнаружения плагиата Turnitin., который сравнивает написанные студентом тексты с информацией, найденной в Интернете, и возвращает оценку вероятности того, что работа студента скопирована. Поскольку программа сравнивает длинные строки текста, она с большей вероятностью идентифицирует носителей английского языка, не являющихся носителями языка, чем носителей языка, поскольку последняя группа может лучше изменять отдельные слова, разбивать строки плагиата или скрывать скопированные отрывки из синонимы. Поскольку носителям языка легче избежать обнаружения из-за технических ограничений программного обеспечения, это создает сценарий, в котором Turnitin выявляет иностранцев, говорящих на английском языке, на предмет плагиата, позволяя большему количеству носителей языка избежать обнаружения. [27] : 21–22

Emergent [ править ]

Возникающая предвзятость - это результат использования алгоритмов в новых или неожиданных контекстах и ​​зависимости от них. [15] : 334 Алгоритмы, возможно, не были адаптированы для учета новых форм знаний, таких как новые лекарства или медицинские открытия, новые законы, бизнес-модели или меняющиеся культурные нормы. [15] : 334,336 Это может исключать группы с помощью технологий без предоставления четких рамок, позволяющих понять, кто несет ответственность за их исключение. [26] : 179 [13] : 294 Аналогичным образом могут возникнуть проблемы при обучении данных.(образцы, «подаваемые» в машину, с помощью которой она моделирует определенные выводы) не соответствуют контекстам, с которыми алгоритм сталкивается в реальном мире. [35]

В 1990 году пример внезапной предвзятости был выявлен в программном обеспечении, используемом для размещения студентов-медиков в США в ординатуре, Национальной программе выбора места жительства (NRMP). [15] : 338Алгоритм был разработан в то время, когда несколько супружеских пар хотели вместе искать жилье. По мере того, как все больше женщин поступали в медицинские вузы, все больше студентов, вероятно, запрашивали место жительства вместе со своими партнерами. Процесс требовал, чтобы каждый кандидат предоставил список предпочтений для размещения в США, который затем был отсортирован и назначен, когда больница и кандидат согласились на совпадение. В случае супружеских пар, где оба стремились получить постоянное место жительства, алгоритм сначала взвесил выбор местоположения партнера с более высоким рейтингом. Результатом стало частое назначение наиболее предпочтительных школ первому партнеру и менее предпочтительных школ второму партнеру, вместо того, чтобы искать компромиссы в предпочтениях при размещении. [15] : 338 [36]

Дополнительные возникающие предубеждения включают:

Корреляции [ править ]

Непредсказуемые корреляции могут возникать при сравнении больших наборов данных друг с другом. Например, данные, собранные о шаблонах просмотра веб-страниц, могут совпадать с сигналами, обозначающими конфиденциальные данные (например, расу или сексуальную ориентацию). При выборе в соответствии с определенным поведением или шаблонами просмотра конечный эффект будет почти идентичен дискриминации посредством использования прямых данных о расе или сексуальной ориентации. [19] : 6В других случаях алгоритм делает выводы из корреляций, не имея возможности понять эти корреляции. Например, в одной программе сортировки астматикам с пневмонией уделялось меньше внимания, чем астматикам без пневмонии. Алгоритм программы сделал это, потому что он просто сравнил выживаемость: астматики с пневмонией находятся в группе наибольшего риска. Исторически сложилось так, что по той же причине больницы обычно оказывают таким астматикам самую лучшую и самую немедленную помощь. [37]

Непредвиденное использование [ править ]

Возникающая предвзятость может возникнуть, когда алгоритм используется непредвиденной аудиторией. Например, машинам может потребоваться, чтобы пользователи могли читать, писать или понимать числа или относиться к интерфейсу, используя метафоры, которые они не понимают. [15] : 334 Эти исключения могут усугубляться по мере того, как предвзятые или исключающие технологии все глубже интегрируются в общество. [26] : 179

Помимо исключения, непредвиденное использование может возникнуть из-за того, что конечный пользователь полагается на программное обеспечение, а не на свои собственные знания. В одном примере непредвиденная группа пользователей привела к алгоритмической предвзятости в Великобритании, когда программа British National Act Program была создана компьютерными учеными и иммиграционными юристами в качестве доказательства концепции для оценки пригодности для получения британского гражданства.. Дизайнеры имели доступ к юридическим знаниям помимо конечных пользователей в иммиграционных офисах, чье понимание программного обеспечения и иммиграционного законодательства, вероятно, было бы несложным. Агенты, отвечающие за вопросы, полностью полагались на программное обеспечение, которое исключало альтернативные пути к гражданству, и использовали программное обеспечение даже после того, как новое прецедентное право и юридические интерпретации привели к тому, что алгоритм устарел. В результате разработки алгоритма для пользователей, которые, как предполагается, разбираются в иммиграционном законодательстве, алгоритм программного обеспечения косвенно привел к предвзятости в пользу кандидатов, которые соответствуют очень узкому набору юридических критериев, установленных алгоритмом, а не более широким критериям. британского иммиграционного законодательства. [15] : 342

Петли обратной связи [ править ]

Возникающее смещение может также создать петлю обратной связи или рекурсию, если данные, собранные для алгоритма, приводят к реальным ответам, которые возвращаются в алгоритм. [38] [39] Например, моделирование программного обеспечения прогнозирующей полицейской деятельности (PredPol), развернутого в Окленде, Калифорния, на основании данных о преступности, сообщаемых общественностью, свидетельствует об увеличении присутствия полиции в чернокожих кварталах. [40] Моделирование показало, что общественность сообщала о преступлении, основываясь на виде полицейских машин, независимо от того, что делала полиция. Симуляция интерпретировала наблюдения полицейских машин при моделировании своих прогнозов преступности и, в свою очередь, указала на еще большее увеличение присутствия полиции в этих районах. [38][41] [42] Группа анализа данных по правам человека , которая провела моделирование, предупредила, что в местах, где расовая дискриминация является фактором арестов, такие петли обратной связи могут усилить и увековечить расовую дискриминацию в полицейской деятельности. [39] Еще одним хорошо известным примером такого алгоритма, демонстрирующего такое поведение, является COMPAS , программа, которая определяет вероятность того, что человек станет преступником. Программное обеспечение часто критикуют за то, что оно клеймит чернокожих людей как преступников с гораздо большей вероятностью, чем другие, а затем возвращает данные себе в случае, если отдельные лица становятся зарегистрированными преступниками, еще больше усиливая предвзятость, создаваемую набором данных, на который действует алгоритм.

Рекомендательные системы, например те, которые используются для рекомендации онлайн-видео или новостных статей, могут создавать петли обратной связи. [43] Когда пользователи нажимают на контент, предложенный алгоритмами, это влияет на следующий набор предложений. [44] Со временем это может привести к тому, что пользователи попадут в пузырь фильтра и не узнают о важном или полезном содержании. [45] [46]

Воздействие [ править ]

Коммерческие влияния [ править ]

Корпоративные алгоритмы могут быть искажены, чтобы незаметно благоприятствовать финансовым договоренностям или соглашениям между компаниями, без ведома пользователя, который может ошибочно принять алгоритм за беспристрастность. Например, American Airlines в 1980-х годах создала алгоритм поиска рейсов. Программное обеспечение предлагало клиентам ряд рейсов различных авиакомпаний, но учитывало факторы, которые увеличивали его собственные полеты, независимо от цены или удобства. Выступая перед Конгрессом США , президент авиакомпании прямо заявил, что система была создана с намерением получить конкурентное преимущество за счет преференциального режима. [47] : 2 [15] : 331

В статье 1998 года, описывающей Google , основатели компании приняли политику прозрачности результатов поиска в отношении платного размещения, утверждая, что «поисковые системы, финансируемые за счет рекламы, будут по своей сути смещены в сторону рекламодателей, а не на нужды потребителей». [48] Эта предвзятость была бы «невидимой» манипуляцией со стороны пользователя. [47] : 3

Поведение при голосовании [ править ]

Серия исследований неопределившихся избирателей в США и Индии показала, что результаты поисковых систем смогли изменить результаты голосования примерно на 20%. Исследователи пришли к выводу, что кандидаты «не имеют возможности конкурировать», если алгоритм, намеренно или без намерения, увеличивает листинг страниц для конкурирующего кандидата. [49] Пользователи Facebook, которые видели сообщения, связанные с голосованием, голосовали с большей вероятностью. Рандомизированное испытание пользователей Facebook в 2010 году показало увеличение на 20% (340 000 голосов) пользователей, которые видели сообщения, призывающие к голосованию, а также изображения своих проголосовавших друзей. [50]Ученый-правовед Джонатан Зиттрейн предупредил, что это может создать эффект «цифровой подделки» на выборах, «выборочное представление информации посредником для выполнения своей повестки дня, а не для обслуживания пользователей», в случае преднамеренных манипуляций. [51] : 335

Гендерная дискриминация [ править ]

В 2016 году было обнаружено , что профессиональный сетевой сайт LinkedIn рекомендует мужские варианты женских имен в ответ на поисковые запросы. Сайт не давал подобных рекомендаций по поиску мужских имен. Например, «Андреа» вызовет подсказку с вопросом, имели ли пользователи в виду «Эндрю», но запросы «Эндрю» не спрашивали, хотели ли пользователи найти «Андреа». Компания заявила, что это результат анализа взаимодействия пользователей с сайтом. [52]

В 2012 году франшиза универмага Target была названа за сбор данных, позволяющий определить, когда женщины-покупательницы были беременны, даже если они не объявили об этом, а затем поделиться этой информацией с партнерами по маркетингу. [53] : 94 [54] Поскольку данные были предсказаны, а не непосредственно наблюдались или сообщались, у компании не было юридических обязательств по защите конфиденциальности этих клиентов. [53] : 98

Алгоритмы веб-поиска также обвиняли в предвзятости. Результаты Google может приоритеты порнографического содержания в поисковых терминов , связанных с сексуальностью, например, «лесбиянка». Это предубеждение распространяется и на поисковую систему, показывающую популярный, но сексуальный контент в нейтральных поисках. Например, статьи «25 самых сексуальных спортсменок» отображаются на первой странице при поиске по запросу «спортсменки». [55] : 31 В 2017 году, Google регулировать эти результаты , наряду с другими , которые всплыли группы ненависти , взгляды расистские, жестокого обращения с детьми и порнографии, а также другие расстроить и оскорбительным содержанием. [56] Другие примеры включают показ более высокооплачиваемых вакансий мужчинам-кандидатам на сайтах поиска работы. [57]Исследователи также определили, что машинный перевод демонстрирует сильную тенденцию к мужским дефолтам. [58] В частности, это наблюдается в областях, связанных с несбалансированным гендерным распределением, включая профессии STEM . [59] Фактически, существующие системы машинного перевода не могут воспроизвести реальное распределение работающих женщин .

В 2015 году Amazon.com отключил систему искусственного интеллекта, разработанную для проверки заявлений о приеме на работу, когда они поняли, что она ориентирована на женщин. [60] Инструмент приема на работу исключал кандидатов, которые посещали женские колледжи и резюме, в котором было слово «женщины». [61] То же самое произошло и с сервисами потоковой передачи музыки. В 2019 году Spotify было обнаружено, что его алгоритм рекомендательной системы был предвзятым против женщин-артистов. [62] В рекомендациях Spotify к песням предлагалось больше мужчин-исполнителей, чем женщин.

Расовая и этническая дискриминация [ править ]

Алгоритмы подвергались критике как метод сокрытия расовых предрассудков при принятии решений. [63] [64] [65] : 158 Из-за того, как в прошлом обращались с определенными расами и этническими группами, данные часто могут содержать скрытые предубеждения. Например, чернокожие люди могут получить более длительные сроки заключения, чем белые люди, совершившие то же преступление. [66] [67] Это потенциально может означать, что система усиливает исходные ошибки в данных.

В 2015 году Google извинился, когда чернокожие пользователи пожаловались на то, что алгоритм идентификации изображений в приложении «Фото» идентифицировал их как горилл . [68] В 2010 году камеры Nikon подверглись критике, когда алгоритмы распознавания изображений постоянно спрашивали азиатских пользователей, моргают ли они. [69] Такие примеры являются результатом систематической ошибки в наборах биометрических данных . [68] Биометрические данные берутся из аспектов тела, включая наблюдаемые или предполагаемые расовые особенности, которые затем могут быть перенесены в точки данных. [65] : 154Технология распознавания речи может иметь разную точность в зависимости от акцента пользователя. Это может быть вызвано отсутствием обучающих данных для говорящих с таким акцентом. [70]

Биометрические данные о расе также могут быть предполагаемыми, а не наблюдаемыми. Например, исследование 2012 года показало, что имена, обычно связанные с чернокожими, с большей вероятностью дадут результаты поиска, подразумевающие записи об арестах, независимо от того, есть ли какие-либо полицейские записи на имя этого человека. [71]

В 2019 году исследование показало, что алгоритм здравоохранения, продаваемый Optum, отдавал предпочтение белым пациентам, а не более больным чернокожим пациентам. Алгоритм предсказывает, во сколько пациенты будут стоить системе здравоохранения в будущем. Однако стоимость не является нейтральной для расы, так как черные пациенты несут медицинские расходы примерно на 1800 долларов в год меньше, чем белые пациенты с таким же количеством хронических заболеваний, что привело к алгоритму, который оценивал белых пациентов как равных подверженных риску будущих проблем со здоровьем, как и черных. пациенты, перенесшие значительно большее количество заболеваний. [72]

Исследование, проведенное исследователями из Калифорнийского университета в Беркли в ноябре 2019 года, показало, что алгоритмы ипотеки были дискриминационными по отношению к латиноамериканцам и афроамериканцам, которые дискриминировали меньшинства на основе «кредитоспособности», которая коренится в законе США о справедливом кредитовании, который позволяет кредиторам использовать меры идентификации. чтобы определить, достойно ли физическое лицо получать ссуды. Эти конкретные алгоритмы присутствовали в компаниях FinTech и, как было показано, дискриминируют меньшинства. [73] [ требуется неосновной источник ]

Правоохранительные органы и судопроизводство [ править ]

Алгоритмы уже нашли множество применений в правовых системах. Примером этого является COMPAS , коммерческая программа, широко используемая судами США для оценки вероятности того, что ответчик станет рецидивистом . ProPublica утверждает, что средний уровень риска рецидивизма, присвоенный Компасом для чернокожих обвиняемых, значительно выше, чем средний уровень риска, установленный Компасом для белых обвиняемых, и что чернокожие обвиняемые в два раза чаще ошибочно получают ярлык "высокого риска", чем белые. ответчики. [74] [75]

Одним из примеров является использование оценок риска при вынесении уголовных приговоров в Соединенных Штатах и слушаниях по условно-досрочному освобождению , судьям была представлена ​​алгоритмически сгенерированная оценка, предназначенная для отражения риска того, что заключенный повторяет преступление. [76] В течение периода времени, начиная с 1920 года и заканчивая 1970 годом, национальность отца преступника учитывалась в этих оценках риска. [77] : 4 Сегодня эти оценки делятся с судьями в Аризоне, Колорадо, Делавэре, Кентукки, Луизиане, Оклахоме, Вирджинии, Вашингтоне и Висконсине. Независимое расследование ProPublicaобнаружили, что оценки были неточными в 80% случаев и непропорционально искажены, чтобы предположить, что чернокожие подвержены риску рецидива, на 77% чаще, чем белые. [76]

Одно исследование, посвященное изучению «Риск, раса и рецидивизм: предвзятость в прогнозе и несопоставимое влияние», предполагает двойную (45 процентов против 23 процентов) неблагоприятную вероятность того, что обвиняемые из числа чернокожих и европеоидов будут ошибочно классифицированы как представляющие более высокий риск. несмотря на то, что в течение двухлетнего периода наблюдения объективно оставался без каких-либо документально подтвержденных рецидивов. [78]

Разжигание ненависти в Интернете [ править ]

Согласно внутренним документам Facebook, в 2017 году было обнаружено, что алгоритм Facebook , предназначенный для удаления языка ненависти в Интернете, дает преимущество белым мужчинам перед чернокожими детьми при оценке нежелательного контента. [79] Алгоритм, представляющий собой комбинацию компьютерных программ и рецензентов контента, был создан для защиты широких категорий, а не конкретных подмножеств категорий. Например, сообщения, осуждающие «мусульман», будут заблокированы, а сообщения, осуждающие «радикальных мусульман», будут разрешены. Непредвиденный результат алгоритма - разрешить язык вражды в отношении чернокожих детей, потому что они осуждают подмножество чернокожих «детей», а не «всех черных», тогда как «все белые люди» вызовут блокировку,потому что белые и мужчины не считаются подмножествами. [79]Было также установлено, что Facebook позволяет покупателям рекламы нацеливать на «ненавистников евреев» как категорию пользователей, что, по словам компании, было непреднамеренным результатом алгоритмов, используемых для оценки и категоризации данных. Дизайн компании также позволял покупателям рекламы блокировать афроамериканцев от просмотра рекламы жилья. [80]

Хотя для отслеживания и блокирования языка вражды используются алгоритмы, некоторые из них в 1,5 раза чаще помечают информацию, опубликованную чернокожими пользователями, и в 2,2 раза чаще отмечают информацию как разжигающую ненависть, если она написана на Ebonics. [81] Без контекста для оскорблений и эпитетов, даже когда они используются сообществами, которые повторно присвоили их, были помечены. [82]

Наблюдение [ править ]

Программное обеспечение камеры наблюдения может считаться политическим по своей сути, поскольку оно требует алгоритмов, позволяющих отличать нормальное поведение от ненормального и определять, кто принадлежит в определенное место в определенное время. [12] : 572 Было показано, что способность таких алгоритмов распознавать лица разных рас ограничена расовым разнообразием изображений в их обучающей базе данных; если большинство фотографий принадлежат к одной расе или полу, программа лучше распознает других представителей этой расы или пола. [83] Однако даже аудит этих систем распознавания изображений является этически сложным, и некоторые ученые предположили, что контекст технологии всегда будет иметь непропорциональное влияние на сообщества, действия которых чрезмерно контролируются. [84]Например, в 2002 году анализ программного обеспечения, используемого для идентификации людей на изображениях с камер видеонаблюдения, обнаружил несколько примеров предвзятости при работе с криминальными базами данных. Было оценено, что программа выявляет мужчин чаще, чем женщин, пожилых людей чаще, чем молодых, и выявляет азиатов, афроамериканцев и представителей других рас чаще, чем белых. [26] : 190 Дополнительные исследования программного обеспечения для распознавания лиц показали, что верно обратное при обучении на не криминальных базах данных, при этом программное обеспечение наименее точно идентифицирует темнокожих женщин. [85]

Сексуальная дискриминация [ править ]

В 2011 году пользователи приложения для общения геев Grindr сообщили, что алгоритм рекомендаций магазина Android связывает Grindr с приложениями, предназначенными для поиска сексуальных преступников, которые, по словам критиков, неточно связывают гомосексуализм с педофилией. Писатель Майк Ананни раскритиковал эту ассоциацию в The Atlantic , утверждая, что такие ассоциации еще больше стигматизируют геев . [86] В 2009 году интернет-магазин Amazon исключил из списка 57 000 книг после изменения алгоритма, расширив свой черный список «контента для взрослых», включив в него все книги, посвященные сексуальности или гей-тематике, например, получивший признание критиков роман « Горбатая гора» . [87] [16] :5 [88]

В 2019 году было обнаружено, что поисковые запросы «фотографии моих подруг» в Facebook давали подсказки типа «в бикини» или «на пляже». Напротив, поисковые запросы "фотографии моих друзей-мужчин" не дали результатов. [89]

Было замечено, что технология распознавания лиц вызывает проблемы у трансгендеров. В 2018 году поступали сообщения о том, что водители Uber, которые были трансгендерами или перешли на другую сторону, испытывали трудности с программным обеспечением для распознавания лиц, которое Uber реализует в качестве встроенной меры безопасности. В результате этого некоторые из учетных записей водителей-транснациональных водителей были заблокированы, что стоило им проездных и потенциально стоило им работы, все из-за того, что программное обеспечение для распознавания лиц испытывало трудности с распознаванием лица транс-водителя, который выполнял переход. [90]Хотя решение этой проблемы могло бы заключаться в включении трансгендеров в обучающие наборы для моделей машинного обучения, экземпляр транс-видео на YouTube, которые были собраны для использования в обучающих данных, не получил согласия трансгендерных лиц, включенных в видео. , что создало проблему нарушения конфиденциальности. [91]

В 2017 году в Стэнфордском университете также было проведено исследование, в ходе которого были протестированы алгоритмы в системе машинного обучения, которая, как утверждается, способна определять сексуальную ориентацию людей на основе изображений их лиц. [92] Модель в исследовании предсказывала правильное различие между геями и гетеросексуалами в 81% случаев и правильное различие между геями и гетеросексуалами в 74% случаев. Это исследование вызвало негативную реакцию со стороны сообщества LGBTQIA, которое опасалось возможных негативных последствий, которые эта система искусственного интеллекта может иметь для людей из сообщества LGBTQIA, подвергая людей риску быть «раскрытым» против их воли. [93]

Поиск Google [ править ]

Хотя пользователи генерируют результаты, которые «заполняются» автоматически, Google не удалось удалить сексистский и расистский текст автозаполнения. Например, алгоритмы Oppression: Как поисковые системы Усилить Расизм Сафия Noble отмечает пример поиска «черных девочек», который был представлен в результате порнографических изображений. Google утверждает, что не может удалить эти страницы, если они не будут признаны незаконными. [94]

Препятствия для исследования [ править ]

Некоторые проблемы препятствуют изучению крупномасштабных алгоритмических предвзятостей, препятствуя применению академически строгих исследований и общественного понимания. [11] : 5

Определение справедливости [ править ]

Литература по алгоритмической предвзятости сосредоточена на средстве справедливости, но определения справедливости часто несовместимы друг с другом и с реалиями оптимизации машинного обучения. Например, определение справедливости как «равенства результатов» может просто относиться к системе, дающей одинаковый результат для всех людей, в то время как справедливость, определяемая как «равенство обращения», может прямо учитывать различия между людьми. [95] : 2 В результате справедливость иногда описывается как противоречащая точности модели, предполагая врожденное противоречие между приоритетами социального обеспечения и приоритетами поставщиков, разрабатывающих эти системы. [96] : 2В ответ на это противоречие исследователи предложили уделять больше внимания проектированию и использованию систем, основанных на потенциально предвзятых алгоритмах, с определением «справедливости» для конкретных приложений и контекстов. [97]

Сложность [ править ]

Алгоритмические процессы сложны и часто выходят за рамки понимания людей, которые их используют. [11] : 2 [98] : 7 Крупномасштабные операции могут быть непонятны даже тем, кто участвует в их создании. [99] Методы и процессы современных программ часто неясны из-за невозможности узнать каждую перестановку ввода или вывода кода. [26] : 183 Социолог Бруно Латур назвал этот процесс « черным ящиком»., процесс, в котором "научная и техническая работа становится невидимой из-за ее собственного успеха. Когда машина работает эффективно, когда факт решен, нужно сосредоточиться только на ее входах и выходах, а не на ее внутренней сложности. Таким образом, как это ни парадоксально, но чем больше преуспевают наука и техника, тем более непрозрачными и непонятными они становятся ». [100] Другие критиковали метафору черного ящика, предполагая, что текущие алгоритмы - это не один черный ящик, а сеть взаимосвязанных алгоритмов. [101] : 92

Пример такой сложности можно найти в диапазоне входных данных для настройки обратной связи. Сайт социальной сети Facebook учел по крайней мере 100 000 точек данных для определения макета ленты пользователя в социальной сети в 2013 году. [102] Кроме того, большие команды программистов могут работать в относительной изоляции друг от друга и не знать кумулятивных эффектов. небольших решений в рамках связанных сложных алгоритмов. [24] : 118 Не весь код является оригинальным и может быть заимствован из других библиотек, создавая сложный набор взаимосвязей между системами обработки и ввода данных. [103] : 22

Дополнительная сложность возникает из-за машинного обучения и персонализации алгоритмов на основе взаимодействий с пользователем, таких как клики, время, проведенное на сайте, и другие показатели. Эти личные настройки могут сбить с толку общие попытки понять алгоритмы. [104] : 367 [98] : 7 Одна неопознанная служба потокового радио сообщила, что она использовала пять уникальных алгоритмов выбора музыки, которые она выбрала для своих пользователей в зависимости от их поведения. Это создает различный опыт использования одних и тех же потоковых сервисов между разными пользователями, что затрудняет понимание того, что делают эти алгоритмы. [11] : 5 компаний также часто проводят A / B-тесты.для точной настройки алгоритмов на основе ответа пользователя. Например, поисковая система Bing может запускать до десяти миллионов тонких вариантов своей службы в день, создавая различный опыт использования службы для каждого использования и / или пользователя. [11] : 5

Отсутствие прозрачности [ править ]

Коммерческие алгоритмы являются собственностью и могут рассматриваться как коммерческая тайна . [11] : 2 [98] : 7 [26] : 183 Отношение к алгоритмам как к коммерческой тайне защищает компании, например поисковые системы , где прозрачный алгоритм может раскрыть тактику манипулирования рейтингом в поисковой сети. [104] : 366 Из- за этого исследователям сложно проводить интервью или анализировать, как работают алгоритмы. [103] : 20 Критики предполагают, что такая секретность может также скрыть возможные неэтичные методы, используемые при производстве или обработке алгоритмических выходных данных. [104] :369 Другие критики, такие как юрист и активист Катаржина Шимелевич, предположили, что отсутствие прозрачности часто маскируется в результате алгоритмической сложности, ограждая компании от раскрытия или расследования собственных алгоритмических процессов. [105]

Отсутствие данных о деликатных категориях [ править ]

Существенным препятствием для понимания того, как бороться с предвзятостью на практике, является то, что такие категории, как демографические данные лиц, защищенных законом о борьбе с дискриминацией , часто не учитываются явным образом при сборе и обработке данных. [106] В некоторых случаях существует небольшая возможность собирать эти данные в явном виде, например, при снятии отпечатков пальцев с устройств , повсеместных вычислениях и Интернете вещей . В других случаях контролер данных может не пожелать собирать такие данные по причинам репутации или потому, что это представляет повышенную ответственность и риск для безопасности. Также может быть так, что, по крайней мере, в отношении Общего регламента ЕС по защите данных, такие данные подпадают под положения «особой категории» (статья 9) и, следовательно, имеют больше ограничений на потенциальный сбор и обработку.

Некоторые специалисты-практики пытались оценить и вменять эти недостающие чувствительные категоризации, чтобы позволить смягчить предвзятость, например, построив системы для определения этнической принадлежности по именам [107], однако это может привести к другим формам предвзятости, если не будет предпринято с осторожностью. [108] Исследователи машинного обучения использовали криптографические технологии, повышающие конфиденциальность, такие как безопасные многосторонние вычисления, чтобы предложить методы, с помощью которых можно оценить или смягчить алгоритмическую погрешность, при этом эти данные никогда не будут доступны разработчикам моделей в открытом виде . [109]

Алгоритмическая предвзятость не только включает защищенные категории, но также может касаться характеристик, которые менее легко наблюдаемы или кодифицируемы, например, политические точки зрения. В этих случаях редко бывает легкодоступная или не вызывающая сомнений основополагающая истина , и устранить предвзятость такой системы труднее. [110] Кроме того, ложные и случайные корреляции могут возникать из-за недостаточного понимания защищаемых категорий, например, ставок страхования, основанных на исторических данных об автомобильных авариях, которые могут совпадать, строго по совпадению, с жилыми кластерами этнических меньшинств. [111]

Решения [ править ]

Изучение 84 руководящих принципов в отношении этического ИИ показало, что справедливость и «смягчение нежелательной предвзятости» были общей проблемой и решались с помощью сочетания технических решений, прозрачности и мониторинга, права на исправление и усиление надзора, а также разнообразия и усилия по включению. [112]

Технические [ править ]

Было предпринято несколько попыток создать методы и инструменты, которые могут обнаруживать и наблюдать ошибки в алгоритме. Эти новые поля сосредоточены на инструментах, которые обычно применяются к (обучающим) данным, используемым программой, а не к внутренним процессам алгоритма. Эти методы могут также анализировать вывод программы и ее полезность и, следовательно, могут включать анализ ее матрицы ошибок (или таблицы ошибок). [113] [114] [115] [116] [117] [118] [119] [120] [121] Объясняемый ИИ для обнаружения алгоритма Смещение является предлагаемым способом обнаружения наличия смещения в алгоритме или модели обучения. [122]Использование машинного обучения для обнаружения предвзятости называется «проведением аудита ИИ», где «аудитор» - это алгоритм, который просматривает модель ИИ и обучающие данные для выявления смещений. [123]

В настоящее время разрабатывается новый стандарт IEEE , который направлен на определение методологий, которые помогут создателям алгоритмов устранить проблемы предвзятости и сформулировать прозрачность (то есть для властей или конечных пользователей ) о функциях и возможных эффектах их алгоритмов. Проект был одобрен в феврале 2017 года и спонсируется Комитетом по стандартам программного обеспечения и системной инженерии , комитетом, учрежденным IEEE Computer Society . Ожидается, что проект стандарта будет представлен на голосование в июне 2019 года. [124] [125]

Прозрачность и мониторинг [ править ]

Руководящие принципы этики ИИ указывают на необходимость подотчетности и рекомендуют предпринять шаги для улучшения интерпретируемости результатов. [126] Такие решения включают учет «права на понимание» в алгоритмах машинного обучения и сопротивление развертыванию машинного обучения в ситуациях, когда решения не могут быть объяснены или пересмотрены. [127] С этой целью в таких организациях, как DARPA , уже идет движение за « Объяснимый ИИ » по причинам, выходящим за рамки средства защиты от предвзятости. [128] Прайс Уотерхаус Куперс , например, также предполагает, что мониторинг результатов означает проектирование систем таким образом, чтобы гарантировать, что отдельные компоненты системы могут быть изолированы и отключены, если они искажают результаты. [129]

Первоначальный подход к прозрачности включал использование алгоритмов с открытым исходным кодом . [130] Программный код может быть изучен, а улучшения могут быть предложены с помощью средств размещения исходного кода . Однако такой подход не обязательно дает желаемый эффект. Компании и организации могут делиться всей возможной документацией и кодом, но это не обеспечивает прозрачности, если аудитория не понимает предоставленную информацию. Следовательно, стоит изучить роль заинтересованной критической аудитории в отношении прозрачности. Алгоритмы нельзя привлекать к ответственности без критической аудитории. [131]

Право на исправление [ править ]

С точки зрения регулирования, Торонтская декларация призывает к применению системы прав человека для устранения вреда, вызванного алгоритмической предвзятостью. [132] Это включает в себя законодательное закрепление ожиданий должной осмотрительности от имени разработчиков этих алгоритмов и создание подотчетности, когда частные субъекты не в состоянии защитить общественные интересы, отмечая, что такие права могут быть скрыты сложностью определения ответственности в сети сложных, переплетающиеся процессы. [133] Другие предполагают необходимость четких механизмов страхования ответственности. [134]

Разнообразие и инклюзивность [ править ]

На фоне опасений по поводу того, что проектирование систем ИИ в первую очередь является прерогативой белых инженеров-мужчин [135], ряд ученых предположили, что алгоритмическую предвзятость можно свести к минимуму, расширив ряды тех, кто разрабатывает системы ИИ. [127] [112] Например, только 12% инженеров по машинному обучению - женщины [136], причем черные лидеры ИИ указывают на «кризис разнообразия» в этой области. [137] Критика простых усилий по инклюзивности предполагает, что программы разнообразия не могут рассматривать перекрывающиеся формы неравенства, и призвали к применению более осознанной линзы пересечения при разработке алгоритмов. [138] [139] : 4Исследователи из Кембриджского университета утверждают, что решению проблемы расового разнообразия препятствует «белизна» культуры ИИ. [140]

Регламент [ править ]

Европа [ править ]

Общие Положение о защите данных (GDPR), то Европейский союз режим пересмотренных защит данных о том , что было реализовано в 2018 году, адреса „Автоматизированные индивидуальные принятия решений, в том числе профилирования“ в статье 22. Эти правила запрещают „исключительно“ автоматизированные решения , которые имеют «значительные» или «юридические» последствия для физического лица, если они явно не разрешены соглашением, контрактом или законодательством государства-члена . Там, где они разрешены, должны быть приняты меры предосторожности, такие как право на связь с человеком и необязательное право на объяснение.принятых решений. Хотя эти правила обычно считаются новыми, почти идентичные положения существуют в Европе с 1995 года в статье 15 Директивы о защите данных . Первоначальные автоматизированные правила принятия решений и гарантии, принятые во французском законодательстве с конца 1970-х годов. [141]

GDPR рассматривает алгоритмическую предвзятость в системах профилирования, а также статистические подходы, которые можно исправить, прямо в декларации 71 [142], отмечая, что

... контролер должен использовать соответствующие математические или статистические процедуры для профилирования, принимать соответствующие технические и организационные меры ... которые предотвращают, среди прочего, дискриминационное воздействие на физических лиц на основе расового или этнического происхождения, политических убеждений, религии или убеждения, членство в профсоюзах, генетическое состояние или состояние здоровья или сексуальная ориентация, или которые приводят к мерам, имеющим такой эффект.

Подобно необязательному праву на объяснение в рассказе 71, проблема заключается в необязательном характере выступления . [143] Хотя это было рассмотрено как требование Рабочей группой по статье 29, которая давала рекомендации по применению закона о защите данных, [142] его практические аспекты неясны. Утверждалось, что оценка воздействия на защиту данных для профилирования данных с высоким риском (наряду с другими превентивными мерами в рамках защиты данных) может быть лучшим способом решения проблем алгоритмической дискриминации, поскольку она ограничивает действия тех, кто развертывает алгоритмы, а не требование к потребителям подавать жалобы или запрашивать изменения. [144]

Соединенные Штаты [ править ]

В Соединенных Штатах нет общего законодательства, регулирующего алгоритмическую предвзятость, и проблема решается с помощью различных государственных и федеральных законов, которые могут различаться в зависимости от отрасли, сектора и способа использования алгоритма. [145] Многие политики осуществляются самостоятельно или контролируются Федеральной торговой комиссией . [145] В 2016 году администрация Обамы опубликовала Национальный стратегический план исследований и разработок в области искусственного интеллекта , [146]который был предназначен для руководства политиками к критической оценке алгоритмов. Исследователям рекомендовалось «спроектировать эти системы так, чтобы их действия и принятие решений были прозрачными и легко интерпретируемыми людьми, и, таким образом, их можно было исследовать на предмет любых предвзятостей, которые они могут содержать, а не просто изучать и повторять эти предубеждения». Задуманный только в качестве руководства, отчет не создал никаких юридических прецедентов. [147] : 26

В 2017 году Нью-Йорк принял первый в США закон об алгоритмической ответственности. [148] Законопроект, вступивший в силу 1 января 2018 г., требовал «создания целевой группы, которая предоставляет рекомендации о том, как информация об автоматизированных системах принятия решений агентства может быть передана общественности, и как агентства могут решать случаи, когда люди пострадали от автоматизированных систем принятия решений агентства ". [149] Целевая группа должна представить выводы и рекомендации для дальнейших регулирующих действий в 2019 году. [150]

Индия [ править ]

31 июля 2018 г. был представлен проект закона о персональных данных. [151] В проекте предлагаются стандарты хранения, обработки и передачи данных. Хотя в нем не используется термин «алгоритм», в нем предусмотрены положения о «... вреде, причиненном любой обработкой или любыми видами обработки, предпринятыми фидуциаром». Он определяет «любой отказ или отказ в предоставлении услуги, выгоды или блага в результате оценочного решения в отношении субъекта данных» или «любое дискриминационное обращение» как источник вреда, который может возникнуть в результате ненадлежащего использования данных. Он также содержит специальные положения для людей с «статусом интерсексуалов» [152].

См. Также [ править ]

  • Этика искусственного интеллекта

Дальнейшее чтение [ править ]

  • Баер, Тобиас (2019). Понимание, управление и предотвращение алгоритмической предвзятости: руководство для бизнес-пользователей и специалистов по данным . Нью-Йорк: Апресс. ISBN 9781484248843.
  • Благородный, Сафия Умоджа (2018). Алгоритмы подавления: как поисковые системы усиливают расизм . Нью-Йорк: Издательство Нью-Йоркского университета. ISBN 9781479837243.
  • Справедливость (машинное обучение)

Ссылки [ править ]

  1. Якоби, Дженнифер (13 сентября 2001 г.). «Патент № US2001021914» . Эспаснет . Проверено 4 июля 2018 года .
  2. ^ Стрипхас, Тед. «Что такое алгоритм? - Культура в цифровом виде» . culturedigitally.org . Проверено 20 ноября 2017 года .
  3. ^ Кормен, Томас Х .; Leiserson, Charles E .; Ривест, Рональд Л .; Стейн, Клиффорд (2009). Введение в алгоритмы (3-е изд.). Кембридж, Массачусетс: MIT Press. п. 5 . ISBN 978-0-262-03384-8.
  4. ^ Kitchin, Rob (25 февраля 2016). «Критическое мышление и исследование алгоритмов» (PDF) . Информация, коммуникация и общество . 20 (1): 14–29. DOI : 10.1080 / 1369118X.2016.1154087 . S2CID 13798875 . Проверено 19 ноября 2017 года .  
  5. ^ Google. «Как работает поиск Google» . Проверено 19 ноября 2017 года .
  6. ^ Лакерсон, Виктор. «Вот как на самом деле работает ваша новостная лента Facebook» . TIME.com . Проверено 19 ноября 2017 года .
  7. ^ Вандербильт, Том (2013-08-07). «Наука, лежащая в основе алгоритмов Netflix, которые решают, что вы будете смотреть дальше» . Проводной . Проверено 19 ноября 2017 года .
  8. ^ Ангвин, Джулия; Матту, Сурья (20 сентября 2016 г.). «Amazon утверждает, что ставит на первое место клиентов. Но ее алгоритм ценообразования - нет - ProPublica» . ProPublica . Проверено 19 ноября 2017 года .
  9. ^ Ливингстон, Роб. «Будущее интернет-рекламы - это большие данные и алгоритмы» . Разговор . Проверено 19 ноября 2017 года .
  10. Рианна Хикман, Лео (1 июля 2013 г.). «Как алгоритмы правят миром» . Хранитель . Проверено 19 ноября 2017 года .
  11. ^ a b c d e f Сивер, Ник. «Знание алгоритмов» (PDF) . СМИ в переходный период 8, Кембридж, штат Массачусетс, апрель 2013 года . Проверено 18 ноября 2017 года .
  12. ^ a b c Грэм, Стивен Д. Н. (июль 2016 г.). «Географии с программной сортировкой» (PDF) . Progress in Human Geography (Представленная рукопись). 29 (5): 562–580. DOI : 10.1191 / 0309132505ph568oa . S2CID 19119278 .  
  13. ^ a b c Тьюэлл, Имон (4 апреля 2016 г.). «К Устойчив чтения информации: Google, резистентного вуайеризм и критической информационной грамотности» . Портал: Библиотеки и Академия . 16 (2): 289–310. DOI : 10,1353 / pla.2016.0017 . ISSN 1530-7131 . S2CID 55749077 . Проверено 19 ноября 2017 года .  
  14. ^ Кроуфорд, Кейт (1 апреля 2013 г.). «Скрытые предубеждения в больших данных» . Harvard Business Review .
  15. ^ a b c d e f g h i j k l m n o p q Фридман, Батья; Ниссенбаум, Хелен (июль 1996 г.). «Предвзятость в компьютерных системах» (PDF) . ACM-транзакции в информационных системах . 14 (3): 330–347. DOI : 10.1145 / 230538.230561 . S2CID 207195759 . Проверено 10 марта 2019 .  
  16. ^ a b c d e f Гиллеспи, Тарлтон; Бочковски, Пабло; Нога, Кристин (2014). Медиа Технологии . Кембридж: MIT Press. С. 1–30. ISBN 9780262525374.
  17. ^ a b Диакопулос, Николай. «Алгоритмическая подотчетность: расследование черных ящиков |» . Towcenter.org . Проверено 19 ноября 2017 года .
  18. ^ Lipartito, Кеннет (6 января 2011). «Повествование и алгоритм: жанры кредитной отчетности с девятнадцатого века до наших дней» (PDF) (Представленная рукопись). DOI : 10.2139 / ssrn.1736283 . S2CID 166742927 .   Цитировать журнал требует |journal=( помощь )
  19. ^ а б Гудман, Брайс; Флаксман, Сет (2017). «Правила ЕС по алгоритмическому принятию решений и« право на объяснение » ». Журнал AI . 38 (3): 50. arXiv : 1606.08813 . DOI : 10,1609 / aimag.v38i3.2741 . S2CID 7373959 . 
  20. ^ Б с д е е г Weizenbaum, Джозеф (1976). Компьютерная мощь и человеческий разум: от суждения к расчету . Сан-Франциско: WH Freeman. ISBN 978-0-7167-0464-5.
  21. ^ a b Гоффри, Эндрю (2008). "Алгоритм". В Фуллере, Мэтью (ред.). Программные исследования: лексика . Кембридж, Массачусетс: MIT Press. стр.  15 -20. ISBN 978-1-4356-4787-9.
  22. ^ Лоури, Стелла; Макферсон, Гордон (5 марта 1988 г.). «Клякса о профессии» . Британский медицинский журнал . 296 (6623): 657–8. DOI : 10.1136 / bmj.296.6623.657 . PMC 2545288 . PMID 3128356 . Проверено 17 ноября 2017 года .  
  23. Миллер, Алекс П. (26 июля 2018 г.). «Хотите менее предвзятые решения? Используйте алгоритмы» . Harvard Business Review . Проверено 31 июля 2018 года .
  24. ^ a b c Интрона, Лукас Д. (2 декабря 2011 г.). «Обрамление кода». Теория, культура и общество . 28 (6): 113–141. DOI : 10.1177 / 0263276411418131 . S2CID 145190381 . 
  25. ^ Богост, Ян (2015-01-15). «Вычислительный собор» . Атлантика . Проверено 19 ноября 2017 года .
  26. ^ Б с д е е г Introna, Лукас; Вуд, Дэвид (2004). «Изображение алгоритмического наблюдения: политика систем распознавания лиц» . Наблюдение и общество . 2 : 177–198 . Проверено 19 ноября 2017 года .
  27. ^ a b c d Introna, Лукас Д. (21 декабря 2006 г.). «Сохранение обратимости сворачивания: сделать этику (политику) информационных технологий видимой». Этика и информационные технологии . 9 (1): 11–25. CiteSeerX 10.1.1.154.1313 . DOI : 10.1007 / s10676-006-9133-Z . S2CID 17355392 .  
  28. ^ a b Ширки, Клей. «Спекулятивный пост об идее алгоритмического авторитета Клэя Ширки» . www.shirky.com . Проверено 20 ноября 2017 года .
  29. ^ a b Зевиц, Мальте (1 января 2016 г.). «Управляющие алгоритмы: миф, беспорядок и методы» . Наука, технологии и человеческие ценности . 41 (1): 3–16. DOI : 10.1177 / 0162243915608948 . ISSN 0162-2439 . S2CID 148023125 .  
  30. Лэш, Скотт (30 июня 2016 г.). «Власть после гегемонии». Теория, культура и общество . 24 (3): 55–78. DOI : 10.1177 / 0263276407075956 . S2CID 145639801 . 
  31. ^ a b Гарсия, Меган (1 января 2016 г.). «Расист в машине». Журнал мировой политики . 33 (4): 111–117. DOI : 10.1215 / 07402775-3813015 . S2CID 151595343 . 
  32. ^ «ACM FAT * - 2018 Информация для прессы» . fatconference.org . Проверено 26 февраля 2019 .
  33. ^ Ochigame, Родриго (20 декабря 2019). «Изобретение« этического ИИ »: как крупные технологии манипулируют академическими кругами, чтобы избежать регулирования» . Перехват . Дата обращения 11 февраля 2020 .
  34. ^ Серго, MJ; Садри, Ф; Ковальский, Р.А.; Кривачек, Ф; Hammond, P; Кори, HT (май 1986 г.). «Акт о британском гражданстве как логическая программа» (PDF) . Коммуникации ACM . 29 (5): 370–386. DOI : 10.1145 / 5689.5920 . S2CID 5665107 . Проверено 18 ноября 2017 года .  
  35. ^ Гиллеспи, Тарлтон. «Алгоритм [черновик] [#digitalkeywords] - Культура в цифровом виде» . culturedigitally.org . Проверено 20 ноября 2017 года .
  36. Roth, AE 1524–1528. (14 декабря 1990 г.). «Новые врачи: естественный эксперимент в рыночной организации» . Наука . 250 (4987): 1524–1528. Bibcode : 1990Sci ... 250.1524R . DOI : 10.1126 / science.2274783 . PMID 2274783 . S2CID 23259274 . Проверено 18 ноября 2017 года .  
  37. Рианна Куанг, Клифф (21 ноября 2017 г.). «Можно ли научить ИИ объяснять себя?» . Нью-Йорк Таймс . Проверено 26 ноября 2017 года .
  38. ^ a b Жувеналь, Джастин (17 ноября 2016 г.). «Полиция использует программное обеспечение для прогнозирования преступлений. Это« Святой Грааль »или предвзятое отношение к меньшинствам?» . Вашингтон Пост . Проверено 25 ноября 2017 года .
  39. ^ a b Чамма, Морис (03.02.2016). «Полицейский в будущем» . Проект Маршалла . Проверено 25 ноября 2017 года .
  40. ^ Лам, Кристиан; Исаак, Уильям (октябрь 2016 г.). "Прогнозировать и служить?" . Значение . 13 (5): 14–19. DOI : 10.1111 / j.1740-9713.2016.00960.x .
  41. ^ Смит, Джек. «Прогнозирующая работа полиции только усиливает расовые предубеждения, как показывают исследования» . Мик . Проверено 25 ноября 2017 года .
  42. ^ Лам, Кристиан; Исаак, Уильям (1 октября 2016 г.). «Часто задаваемые вопросы о прогнозировании полицейской деятельности и предвзятости» . HRDAG . Проверено 25 ноября 2017 года .
  43. ^ Солнце, Вэньлун; Насрауи, Ольфа; Шафто, Патрик (2018). «Итерированный алгоритмический уклон в процессе интерактивного машинного обучения фильтрации информации» . Труды 10-й Международной совместной конференции по открытию знаний, инженерии знаний и управлению знаниями . Севилья, Испания: SCITEPRESS - Научно-технические публикации: 110–118. DOI : 10.5220 / 0006938301100118 . ISBN 9789897583308.
  44. ^ Синха, Аян; Gleich, Дэвид Ф .; Рамани, Картик (2018-08-09). «Закон Гаусса для сетей прямо показывает границы сообщества» . Научные отчеты . 8 (1): 11909. Bibcode : 2018NatSR ... 811909S . DOI : 10.1038 / s41598-018-30401-0 . ISSN 2045-2322 . PMC 6085300 . PMID 30093660 .   
  45. Хао, Карен. «Google наконец-то признает, что у него есть проблема с фильтром» . Кварц . Проверено 26 февраля 2019 .
  46. ^ «Facebook тестирует эту новую функцию для борьбы с« пузырями фильтров » » . Удача . Проверено 26 февраля 2019 .
  47. ^ а б Сандвиг, Кристиан; Гамильтон, Кевин; Карахалиос, Кэрри ; Лангборт, Седрик (22 мая 2014 г.). «Алгоритмы аудита: методы исследования для выявления дискриминации на интернет-платформах» (PDF) . 64-е ежегодное собрание Международной ассоциации коммуникаций . Проверено 18 ноября 2017 года .
  48. Брин, Сергей; Пейдж, Лоуренс. «Анатомия поисковой машины» . www7.scu.edu.au . Архивировано из оригинального 2 -го июля 2019 года . Проверено 18 ноября 2017 года .
  49. ^ Эпштейн, Роберт; Робертсон, Рональд Э. (18 августа 2015 г.). «Эффект манипулирования поисковой системой (SEME) и его возможное влияние на результаты выборов» . Труды Национальной академии наук . 112 (33): E4512 – E4521. Bibcode : 2015PNAS..112E4512E . DOI : 10.1073 / pnas.1419828112 . PMC 4547273 . PMID 26243876 .  
  50. ^ Бонд, Роберт М .; Фарисс, Кристофер Дж .; Джонс, Джейсон Дж .; Крамер, Адам Д.И.; Марлоу, Кэмерон; Settle, Jaime E .; Фаулер, Джеймс Х. (13 сентября 2012 г.). «61-миллионный эксперимент по социальному влиянию и политической мобилизации» . Природа . 489 (7415): 295–8. Bibcode : 2012Natur.489..295B . DOI : 10.1038 / nature11421 . ISSN 0028-0836 . PMC 3834737 . PMID 22972300 .   
  51. ^ Зиттрейн, Джонатан (2014). «Инжиниринг выборов» (PDF) . Гарвардский форум по обзору права . 127 : 335–341 . Проверено 19 ноября 2017 года .
  52. ^ Дэй, Мэтт (31 августа 2016 г.). «Как поисковая система LinkedIn может отражать гендерные предубеждения» . Сиэтл Таймс . Проверено 25 ноября 2017 года .
  53. ^ a b Кроуфорд, Кейт; Шульц, Джейсон (2014). «Большие данные и надлежащая правовая процедура: на пути к системе компенсации ущерба, причиняемого предсказуемой конфиденциальностью» . Обзор права Бостонского колледжа . 55 (1): 93–128 . Проверено 18 ноября 2017 года .
  54. ^ Duhigg, Чарльз (16 февраля 2012). «Как компании узнают ваши секреты» . Нью-Йорк Таймс . Проверено 18 ноября 2017 года .
  55. ^ Благородный, Сафия (2012). «Пропущенные контакты: что поисковые системы говорят о женщинах» (PDF) . Журнал "Сука" . 12 (4): 37–41.
  56. ^ Guynn, Джессика (16 марта 2017). «Google начинает отмечать оскорбительный контент в результатах поиска» . США СЕГОДНЯ . USA Today . Проверено 19 ноября 2017 года .
  57. ^ Simonite, Том. «Исследование показывает, что система таргетинга рекламы Google может дискриминировать» . Обзор технологий Массачусетского технологического института . Массачусетский технологический институт . Проверено 17 ноября 2017 года .
  58. ^ Пратес, Марсело OR; Авелар, Педро ХК; Лэмб, Луис (2018). «Оценка гендерных предубеждений в машинном переводе - пример использования Google Translate» . arXiv : 1809.02208 [ cs.CY ].
  59. ^ Пратес, Марсело OR; Avelar, Pedro H .; Лэмб, Луис К. (2019). «Оценка гендерной предвзятости в машинном переводе: пример использования Google Translate». Нейронные вычисления и приложения . 32 (10): 6363–6381. arXiv : 1809.02208 . DOI : 10.1007 / s00521-019-04144-6 . S2CID 52179151 . 
  60. ^ Дастин Джеффри (9 октября 2018). «Amazon отказывается от секретного инструмента найма ИИ, который показал предвзятое отношение к женщинам» . Рейтер .
  61. Винсент, Джеймс (10 октября 2018 г.). «Сообщается, что Amazon отказывается от внутреннего инструмента найма ИИ, который был настроен против женщин» . Грань .
  62. ^ «Размышляя о системе рекомендаций Spotify - SongData» . Проверено 7 августа 2020 .
  63. ^ Буоламвини, Радость; Гебру, Тимнит. "Буоламвини, Джой и Тимнит Гебру." Гендерные оттенки: межсекторные различия в точности в коммерческой гендерной классификации. "FAT (2018)" . Труды исследований машинного обучения . 81 (2018): 1–15 . Проверено 27 сентября 2020 года .
  64. Благородный, Сафия Умоджа (20 февраля 2018 г.). Алгоритмы притеснения: как поисковые системы усиливают расизм . Нью-Йорк: NYU Press. ISBN 978-1479837243.
  65. ^ a b Накамура, Лиза (2009). Магнит, Шошана; Гейтс, Келли (ред.). Новые средства наблюдения . Лондон: Рутледж. С. 149–162. ISBN 978-0-415-56812-8.
  66. ^ Александр, Рудольф; Гьямера, Жаклин (сентябрь 1997 г.). «Дифференциальное наказание афроамериканцев и белых, владеющих наркотиками: справедливая политика или продолжение прошлого?». Журнал черных исследований . 28 (1): 97–111. DOI : 10.1177 / 002193479702800106 . ISSN 0021-9347 . S2CID 152043501 .  
  67. ^ Petersilia, Джоан (январь 1985). «Расовые различия в системе уголовного правосудия: резюме». Преступность и правонарушения . 31 (1): 15–34. DOI : 10.1177 / 0011128785031001002 . ISSN 0011-1287 . S2CID 146588630 .  
  68. ^ a b Гинн, Джессика (1 июля 2015 г.). «Google Фотографии меченые черных людей„горилл » . США СЕГОДНЯ . USA Today. USA Today . Проверено 18 ноября 2017 года .
  69. Роуз, Адам (22 января 2010 г.). «Являются ли камеры с распознаванием лиц расистскими?» . Время . Проверено 18 ноября 2017 года .
  70. ^ «Алекса не понимает ваш акцент» . Вашингтон Пост .
  71. ^ Sweeney, Latanya (28 января 2013). «Дискриминация при доставке рекламы в Интернете». СИОЗС . arXiv : 1301,6822 . Bibcode : 2013arXiv1301.6822S . DOI : 10.2139 / ssrn.2208240 .
  72. Джонсон, Кэролайн Ю. (24 октября 2019 г.). «Расовая предвзятость в медицинском алгоритме отдает предпочтение белым пациентам, а не более больным черным» . Вашингтон Пост . Проверено 28 октября 2019 .
  73. ^ Бартлетт, Роберт; Морс, Адэр; Стэнтон, Ричард; Уоллес, Нэнси (июнь 2019 г.). «Дискриминация в сфере потребительского кредитования в эпоху финансовых технологий» . Рабочий документ NBER № 25943 . DOI : 10,3386 / w25943 .
  74. Джефф Ларсон, Джулия Ангвин (23 мая 2016 г.). «Как мы проанализировали алгоритм рецидивизма КОМПАС» . ProPublica . Архивировано 29 апреля 2019 года . Проверено 19 июня 2020 .
  75. ^ «Комментарий: Плохие новости. Искусственный интеллект предвзят» . CNA . 2019-01-12. Архивировано 12 января 2019 года . Проверено 19 июня 2020 .
  76. ^ a b Ангвин, Джулия; Ларсон, Джефф; Матту, Сурья; Киршнер, Лорен (23 мая 2016 г.). "Машинный уклон - ProPublica" . ProPublica . Проверено 18 ноября 2017 года .
  77. Перейти ↑ Harcourt, Bernard (16 сентября 2010 г.). «Риск как показатель гонки». Криминология и государственная политика, готовится к печати . SSRN 1677654 . 
  78. ^ Skeem J, Lowenkamp C, риск гонки, и Рецидив: Predictive Bias и соразмерности воздействия, (14 июня 2016). Доступно на SSRN: https://ssrn.com/abstract=2687339 или https://doi.org/10.2139/ssrn.2687339
  79. ^ a b Ангвин, Джулия; Грассеггер, Ханнес (28 июня 2017 г.). «Секретные правила цензуры Facebook защищают белых мужчин от языка вражды, но не чернокожих детей - ProPublica» . ProPublica . Проверено 20 ноября 2017 года .
  80. ^ Ангвин, Джулия; Варнер, Мадлен; Тобин, Ариана (14 сентября 2017 г.). «Facebook позволил рекламодателям выйти на« ненавистников евреев »- ProPublica» . ProPublica . Проверено 20 ноября 2017 года .
  81. ^ Сап, Маартен. «Риск расовой предвзятости при выявлении языка ненависти» (PDF) .
  82. ^ Гаффари, Ширин. «Алгоритмы, обнаруживающие язык вражды в Интернете, ориентированы на чернокожих» . Vox . Дата обращения 19 февраля 2020 .
  83. ^ Furl, N (декабрь 2002). «Алгоритмы распознавания лиц и эффект другой расы: вычислительные механизмы для гипотезы развития контакта» . Когнитивная наука . 26 (6): 797–815. DOI : 10,1207 / s15516709cog2606_4 .
  84. ^ Раджи, Inioluwa Deborah; Гебру, Тимнит; Митчелл, Маргарет; Буоламвини, Радость; Ли, Джунсок; Дентон, Эмили (7 февраля 2020 г.). «Спасение лица: исследование этических проблем аудита распознавания лиц» . Материалы конференции AAAI / ACM по ИИ, этике и обществу . Ассоциация вычислительной техники: 145–151. arXiv : 2001.00964 . DOI : 10.1145 / 3375627.3375820 . S2CID 209862419 . 
  85. ^ Буоламвини, Радость; Гебру, Тимнит (2018). «Гендерные оттенки: межсекторные различия в точности в коммерческой гендерной классификации» (PDF) . Труды исследований машинного обучения . 81 : 1 - через MLR Press.
  86. ^ Ананни, Майк (2011-04-14). «Любопытная связь между приложениями для геев и сексуальных преступников» . Атлантика . Проверено 18 ноября 2017 года .
  87. Кафка, Питер. «Действительно ли Amazon провалила эти выходные?« Твиттерсфера говорит: «Да», - говорит интернет-магазин, - «сбой » » . Все вещиD . Проверено 22 ноября 2017 года .
  88. Кафка, Питер. «Amazon приносит свои извинения за« коварную ошибку каталогизации » » . Все вещиD . Все вещиD . Проверено 22 ноября 2017 года .
  89. ^ Мацакис, Луиза (2019-02-22). «Поисковая ошибка« сексиста »говорит о нас больше, чем Facebook» . Проводной . ISSN 1059-1028 . Проверено 26 февраля 2019 . 
  90. ^ «Некоторых ИИ просто не должно существовать» . 2019-04-19.
  91. ^ Сэмюэл, Сигал (2019-04-19). «Некоторых ИИ просто не должно существовать» . Vox . Проверено 12 декабря 2019 .
  92. ^ Ван, Илунь; Косинский, Михал (15.02.2017). «Глубокие нейронные сети точнее людей определяют сексуальную ориентацию по изображениям лиц» . OSF .
  93. ^ Левин, Сэм (2017-09-09). «ЛГБТ-группы осуждают« опасный »ИИ, который использует ваше лицо, чтобы угадать сексуальность» . Хранитель . ISSN 0261-3077 . Проверено 12 декабря 2019 . 
  94. ^ Благородный, Сафия Umoja (2018-02-20). Алгоритмы подавления: как поисковые системы усиливают расизм . Нью-Йорк. ISBN 9781479837243. OCLC  987591529 .
  95. ^ Friedler, Sorelle A .; Шайдеггер, Карлос; Венкатасубраманян, Суреш (2016). «О (не) возможности справедливости». arXiv : 1609.07236 . Цитировать журнал требует |journal=( помощь )
  96. ^ Ху, Лили; Чен, Илин (2018). «Влияние справедливой классификации на благосостояние и распределение». arXiv : 1807.01134 . Цитировать журнал требует |journal=( помощь )
  97. ^ Дворк, Синтия; Хардт, Мориц; Питасси, Тониан; Рейнгольд, Омер; Земель, Рич (28 ноября 2011 г.). «Справедливость через осведомленность». arXiv : 1104.3913 . Цитировать журнал требует |journal=( помощь )
  98. ^ a b c Сандвиг, Кристиан; Гамильтон, Кевин; Карахалиос, Кэрри; Лэнгборт, Седрик (2014). Гангадхаран, Сита Пена; Юбэнкс, Вирджиния; Барокас, Солон (ред.). «Алгоритмный аудит» (PDF) . Данные и дискриминация: Сборник статей .
  99. ^ ЛаФранс, Адриенн (2015-09-18). «Алгоритмы, лежащие в основе Интернета, становятся все более загадочными» . Атлантика . Проверено 19 ноября 2017 года .
  100. ^ Бруно Латур (1999). Надежда Пандоры: очерки о реальности научных исследований . Кембридж, Массачусетс : Издательство Гарвардского университета .
  101. ^ Кубичко, Себастьян; Каун, Энн (2016). Инновационные методы в медиа и коммуникационных исследованиях . Springer. ISBN 978-3-319-40700-5. Проверено 19 ноября 2017 года .
  102. Рианна Макги, Мэтт (16 августа 2013 г.). «EdgeRank мертв: алгоритм ленты новостей Facebook теперь имеет около 100 тыс. Весовых коэффициентов» . Маркетинговая земля . Проверено 18 ноября 2017 года .
  103. ^ a b Китчин, Роб (25 февраля 2016 г.). «Критическое мышление и исследование алгоритмов» (PDF) . Информация, коммуникация и общество . 20 (1): 14–29. DOI : 10.1080 / 1369118X.2016.1154087 . S2CID 13798875 .  
  104. ^ a b c Гранка, Лаура А. (27 сентября 2010 г.). "Политика поиска: ретроспектива десятилетия" (PDF) . Информационное общество . 26 (5): 364–374. DOI : 10.1080 / 01972243.2010.511560 . S2CID 16306443 . Проверено 18 ноября 2017 года .  
  105. ^ Szymielewicz, Катажина (2020-01-20). «Политика черного ящика» . Средний . Проверено 11 февраля 2020 .
  106. ^ Вел, Майкл; Биннс, Рубен (2017). «Более справедливое машинное обучение в реальном мире: снижение дискриминации без сбора конфиденциальных данных» . Большие данные и общество . 4 (2): 205395171774353. DOI : 10,1177 / 2053951717743530 . SSRN 3060763 . 
  107. ^ Эллиотт, Марк Н .; Моррисон, Питер А .; Фремонт, Аллен; McCaffrey, Daniel F .; Пантоха, Филипп; Лурье, Николь (июнь 2009 г.). «Использование списка фамилий Бюро переписи для улучшения оценок расовой / этнической принадлежности и связанных с ними различий». Медицинские услуги и методология исследования результатов . 9 (2): 69–83. DOI : 10.1007 / s10742-009-0047-1 . ISSN 1387-3741 . S2CID 43293144 .  
  108. ^ Чен, Цзяхао; Каллус, Натан; Мао, Сяоцзе; Свача, Джеффри; Уделл, Мадлен (2019). «Справедливость в условиях незнания: оценка несоответствия, когда охраняемый класс не наблюдается» . Труды конференции по справедливости, подотчетности и прозрачности - FAT * '19 . Атланта, Джорджия, США: ACM Press: 339–348. arXiv : 1811.11154 . DOI : 10.1145 / 3287560.3287594 . ISBN 9781450361255. S2CID  58006233 .
  109. ^ Килбертус, Ники; Гасконец, Адрия; Куснер, Мэтт; Вил, Майкл; Гуммади, Кришна; Веллер, Адриан (2018). «Слепое правосудие: справедливость с зашифрованными конфиденциальными атрибутами» . Международная конференция по машинному обучению : 2630–2639. arXiv : 1806.03281 . Bibcode : 2018arXiv180603281K .
  110. ^ Биннс, Рувим; Вил, Майкл; Клек, Макс Ван; Шедболт, Найджел (13 сентября 2017 г.). Как трейнер, как бот? Наследование смещения при алгоритмической модерации контента . Социальная информатика . Конспект лекций по информатике. 10540 . С. 405–415. arXiv : 1707.01477 . DOI : 10.1007 / 978-3-319-67256-4_32 . ISBN 978-3-319-67255-7. S2CID  2814848 .
  111. ^ Claburn, Томас. «Закон ЕС о защите данных может положить конец непостижимому алгоритму - информационная неделя» . Информационная неделя . Проверено 25 ноября 2017 года .
  112. ^ a b Джобин, Анна; Йенка, Марчелло; Вайена, Эффи (2 сентября 2019 г.). «Глобальный ландшафт руководящих принципов этики ИИ». Природа Машинный интеллект . 1 (9): 389–399. arXiv : 1906.11668 . DOI : 10.1038 / s42256-019-0088-2 . S2CID 201827642 . 
  113. ^ https://research.google.com/bigpicture/attacking-discrimination-in-ml/ Противодействие дискриминации с помощью интеллектуального машинного обучения
  114. ^ Хардт, Мориц; Прайс, Эрик; Сребро, Натан (2016). «Равенство возможностей в обучении с учителем». arXiv : 1610.02413 [ cs.LG ].
  115. ^ https://venturebeat.com/2018/05/25/microsoft-is-developing-a-tool-to-help-engineers-catch-bias-in-algorithms/ Microsoft разрабатывает инструмент, который поможет инженерам выявить предвзятость алгоритмы
  116. ^ https://qz.com/1268520/facebook-says-it-has-a-tool-to-detect-bias-in-its-artificial-intelligence/ Facebook заявляет, что у него есть инструмент для обнаружения предвзятости в его искусственном интеллекте.
  117. ^ Открытый исходный код Pymetrics audit-ai
  118. ^ https://venturebeat-com.cdn.ampproject.org/c/s/venturebeat.com/2018/05/31/pymetrics-open-sources-audit-ai-an-algorithm-bias-detection-tool/amp / Pymetrics с открытым исходным кодом Audit AI, инструмент обнаружения смещения алгоритмов
  119. ^ https://github.com/dssg/aequitas Aequitas с открытым исходным кодом: инструментарий аудита предвзятости и справедливости
  120. ^ https://dsapp.uchicago.edu/aequitas/ с открытым исходным кодом Audit AI, Aequitas в Чикагском университете
  121. ^ https://www.ibm.com/blogs/research/2018/02/mitigating-bias-ai-models/ Снижение предвзятости в моделях ИИ
  122. ^ С. Сен, Д. Дасгупта и К.Д. Гупта, «Эмпирическое исследование алгоритмического уклона», 44-я ежегодная конференция IEEE по компьютерам, программному обеспечению и приложениям (COMPSAC) 2020 г., Мадрид, Испания, 2020 г., стр. 1189-1194, doi : 10.1109 / COMPSAC48688.2020.00-95 .
  123. ^ Zou, Джеймс; Шибингер, Лонда (июль 2018 г.). «AI может быть сексистским и расистским - пора сделать это честно» . Природа . 559 (7714): 324–326. DOI : 10.1038 / d41586-018-05707-8 .
  124. ^ Koene, Ansgar (июнь 2017). «Алгоритмический уклон: решение растущих проблем [передовой край]» (PDF) . Журнал IEEE Technology and Society . 36 (2): 31–32. DOI : 10.1109 / mts.2017.2697080 . ISSN 0278-0097 .  
  125. ^ «P7003 - Соображения алгоритмического смещения» . standard.ieee.org . Проверено 3 декабря 2018 .
  126. ^ The Internet Society (18 апреля 2017 г.). «Искусственный интеллект и машинное обучение: программный документ» . Интернет-общество . Дата обращения 11 февраля 2020 .
  127. ^ a b «Белая книга: как предотвратить дискриминационные результаты в машинном обучении» . Всемирный экономический форум . 12 марта 2018 . Дата обращения 11 февраля 2020 .
  128. ^ «Объяснимый искусственный интеллект» . www.darpa.mil . Проверено 11 февраля 2020 .
  129. ^ PricewaterhouseCoopers. «Ответственный фреймворк ИИ» . PwC . Проверено 11 февраля 2020 .
  130. ^ Хилд, Дэвид (2007-09-07). Прозрачность: ключ к лучшему управлению? . Британская академия. DOI : 10.5871 / bacad / 9780197263839.003.0002 . ISBN 978-0-19-726383-9.
  131. ^ Кемпер, Якко; Колкман, Даан (06.12.2019). «Прозрачный для кого? Никакой алгоритмической ответственности без критической аудитории» . Информация, коммуникация и общество . 22 (14): 2081–2096. DOI : 10.1080 / 1369118X.2018.1477967 . ISSN 1369-118X . 
  132. ^ «Торонтская декларация: защита прав на равенство и недискриминацию в системах машинного обучения» . Хьюман Райтс Вотч . 2018-07-03 . Проверено 11 февраля 2020 .
  133. ^ Хьюман Райтс Вотч (2018). Торонтская декларация: защита права на равенство и недискриминацию в системах машинного обучения (PDF) . Хьюман Райтс Вотч. п. 15.
  134. ^ Флориди, Лучано; Cowls, Джош; Бельтраметти, Моника; Чатила, Раджа; Хазеранд, Патрис; Дигнум, Вирджиния; Люэдж, Кристоф; Мадлен, Роберт; Пагалло, Уго; Росси, Франческа; Шафер, Буркхард (2018-12-01). «AI4People - этические рамки для хорошего общества искусственного интеллекта: возможности, риски, принципы и рекомендации» . Умы и машины . 28 (4): 703. DOI : 10.1007 / s11023-018-9482-5 . ISSN 1572-8641 . PMC 6404626 . PMID 30930541 .   
  135. ^ Кроуфорд, Кейт (25.06.2016). "Мнение | Проблема белого парня искусственного интеллекта" . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 11 февраля 2020 . 
  136. ^ «AI - будущее - но где женщины?» . Проводной . ISSN 1059-1028 . Проверено 11 февраля 2020 . 
  137. Снег, Джеки. « » Мы находимся в кризисе разнообразия «: один из основателей Black в AI на то , что отравляет алгоритмы в нашей жизни» . Обзор технологий Массачусетского технологического института . Проверено 11 февраля 2020 .
  138. ^ Систон, Сара (2019-12-29). «Межсекционный ИИ необходим» . Журнал науки и технологий искусств . 11 (2): 3–8. DOI : 10.7559 / citarj.v11i2.665 . ISSN 2183-0088 . 
  139. ^ Д'Игнацио, Кэтрин; Кляйн, Лорен Ф. (2020). Феминизм данных . MIT Press. ISBN 978-0262044004.
  140. ^ Пещера, Стивен; Дихал, Канта (06.08.2020). «Белизна AI» . Философия и технологии . DOI : 10.1007 / s13347-020-00415-6 . ISSN 2210-5441 . 
  141. ^ Bygrave, Ли A (2001). «Автоматизированное профилирование». Обзор компьютерного права и безопасности . 17 (1): 17–24. DOI : 10.1016 / s0267-3649 (01) 00104-2 .
  142. ^ a b Виль, Майкл; Эдвардс, Лилиан (2018). «Ясность, неожиданности и дополнительные вопросы в проекте руководства Рабочей группы по статье 29 по автоматизированному принятию решений и профилированию» (PDF) . Обзор компьютерного права и безопасности . DOI : 10.2139 / ssrn.3071679 . SSRN 3071679 .  
  143. ^ Вахтер, Сандра; Миттельштадт, Брент; Флориди, Лучано (1 мая 2017 г.). «Почему право на объяснение автоматизированного принятия решений не существует в Общем регламенте защиты данных» . Международный закон о конфиденциальности данных . 7 (2): 76–99. DOI : 10.1093 / idpl / ipx005 . ISSN 2044-3994 . 
  144. ^ Эдвардс, Лилиан; Вил, Майкл (23 мая 2017 г.). «Раб алгоритма? Почему право на объяснение, вероятно, не то средство, которое вы ищете». Duke Law & Technology Review . 16 : 18–84. DOI : 10.2139 / ssrn.2972855 . SSRN 2972855 . 
  145. ^ a b Певица Наташа (2 февраля 2013 г.). «Законы о защите данных потребителей, кроме океана» . Нью-Йорк Таймс . Проверено 26 ноября 2017 года .
  146. Обама, Барак (12 октября 2016 г.). «Отчет администрации о будущем искусственного интеллекта» . whitehouse.gov . Национальный архив . Проверено 26 ноября 2017 года .
  147. ^ и Технологический совет, Национальная наука (2016). Национальный стратегический план исследований и разработок в области искусственного интеллекта (PDF) . Правительство США . Проверено 26 ноября 2017 года .
  148. Рианна Кирхнер, Лорен (18 декабря 2017 г.). «Нью-Йорк предпринимает шаги по обеспечению ответственности за алгоритмы - ProPublica» . ProPublica . ProPublica . Проверено 28 июля 2018 .
  149. ^ "Совет города Нью-Йорка - Файл №: Int 1696-2017" . legistar.council.nyc.gov . Городской совет Нью-Йорка . Проверено 28 июля 2018 .
  150. ^ Паулз, Джулия. «Смелая, ошибочная попытка Нью-Йорка сделать алгоритмы подотчетными» . Житель Нью-Йорка . Житель Нью-Йорка . Проверено 28 июля 2018 .
  151. ^ «Индия взвешивает всеобъемлющий законопроект о конфиденциальности данных, аналогичный GDPR ЕС» . Страховой журнал . 2018-07-31 . Проверено 26 февраля 2019 .
  152. ^ https://meity.gov.in/writereaddata/files/Personal_Data_Protection_Bill,2018.pdf