Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Машинная этика (или машинная мораль , вычислительная мораль или вычислительная этика ) является частью этики искусственного интеллекта, связанной с добавлением морального поведения к машинам, которые используют искусственный интеллект, иначе известные как агенты искусственного интеллекта . [1] Машинная этика отличается от других этических областей, связанных с инженерией и технологиями . Машинную этику не следует путать с компьютерной этикой , которая фокусируется на использовании компьютеров людьми. Также следует отличать от философии техники., который касается более грандиозных социальных эффектов технологий. [2]

История [ править ]

До 21 века этика машин в значительной степени была предметом научной фантастики, в основном из-за ограничений вычислительной техники и искусственного интеллекта (ИИ). Хотя определение «машинной этики» с тех пор эволюционировало, этот термин был придуман Митчеллом Уолдропом в статье журнала AI Magazine 1987 года «Вопрос ответственности»:

«Однако одна вещь, которая очевидна из приведенного выше обсуждения, заключается в том, что интеллектуальные машины будут воплощать ценности, предположения и цели, независимо от того, намерены ли их программисты сознательно это делать или нет. Таким образом, по мере того, как компьютеры и роботы становятся все более и более умными, становится необходимым что мы тщательно и подробно думаем о том, что представляют собой эти встроенные ценности. Возможно, нам действительно нужны теория и практика машинной этики в духе трех законов робототехники Азимова ». [3]

В 2004 г. на семинаре AAAI по агентским организациям: теория и практика [5 ] была представлена ​​книга « На пути к машинной этике» [4], на которой были изложены теоретические основы машинной этики.

Именно на симпозиуме AAAI по этике машин осенью 2005 г. исследователи впервые встретились, чтобы рассмотреть вопрос о внедрении этического аспекта в автономные системы. [6] Разнообразные точки зрения на эту зарождающуюся область можно найти в сборнике «Машинная этика» [7], который был составлен на симпозиуме по машинной этике осенью 2005 года.

В 2007 году А. И. Журнал признакам машина этики: Создание Ethical Intelligent Agent , [8] статью , в которой обсуждается важность этики машины, потребность в машинах , которые представляют собой этические принципы , явно, и задачи , стоящие перед теми , кто работает на компьютере этики. Он также продемонстрировал, что машина может, по крайней мере в ограниченной области, абстрагировать этический принцип из примеров этических суждений и использовать этот принцип для управления своим собственным поведением.

В 2009 году , Oxford University Press опубликовал Моральный машины, Обучение роботов правильное от неправильного , [9] , который он рекламируется как «первой книги для изучения проблемы построения искусственных моральных агентов, зондировании глубоко в природу решений и этики человеческого решения.» Он процитировал около 450 источников, около 100 из которых касались основных вопросов машинной этики.

В 2011 году издательство Cambridge University Press опубликовало сборник эссе по машинной этике под редакцией Майкла и Сьюзан Ли Андерсон [7], которые также редактировали специальный выпуск IEEE Intelligent Systems по этой теме в 2006 году. [10] Сборник состоит из проблем. добавления этических принципов к машинам. [11]

В 2014 году Управление военно-морских исследований США объявило, что в течение пяти лет оно выделит университетским исследователям гранты в размере 7,5 миллионов долларов на изучение вопросов машинной этики применительно к автономным роботам [12] и « Суперинтеллект Ника Бострома : пути, опасности». Стратегии , в которых этика машин была названа «самой важной ... проблемой, с которой когда-либо сталкивалось человечество», достигли 17-го места в списке самых продаваемых научных книг New York Times. [13]

В 2016 году Европейский парламент опубликовал документ [14] (22-страничный PDF-файл), чтобы побудить Комиссию рассмотреть вопрос о правовом статусе роботов, как это более кратко описано в прессе. [15] В этот документ включены разделы, касающиеся юридических обязательств роботов, в которых ответственность утверждается как пропорциональная уровню автономии роботов. В документе также ставится под сомнение количество рабочих мест, которые могут быть заменены роботами с искусственным интеллектом. [16]

Определения [ править ]

Джеймс Х. Мур , один из первых теоретиков в области компьютерной этики , определяет четыре типа этических роботов. Как обширный исследователь философии искусственного интеллекта , философии разума , философии науки и логики , Мур определяет машины как этические агенты воздействия, неявные этические агенты, явные этические агенты или полные этические агенты. На машине может быть более одного типа агентов. [17]

  • Агенты этического воздействия : это машинные системы, которые оказывают этическое воздействие независимо от того, преднамеренно или нет. В то же время эти агенты могут действовать неэтично. Мур приводит гипотетический пример, названный «агентом Гудмана» в честь философа Нельсона Гудмана . Агент Гудмана сравнивает даты, но обнаруживает ошибку тысячелетия . Эта ошибка возникла из-за того, что программисты представляли даты только с двумя последними цифрами года. Таким образом, любые даты после 2000 года будут ошибочно рассматриваться как более ранние, чем даты конца двадцатого века. Таким образом, агент Гудмана был агентом этического воздействия до 2000 года, а затем - агентом неэтичного воздействия.
  • Неявные этические агенты : из соображений безопасности человека эти агенты запрограммированы на отказоустойчивость или встроенные достоинства. Они не совсем этичны по своей природе, а скорее запрограммированы на избежание неэтичных результатов.
  • Явные этические агенты : это машины, которые способны обрабатывать сценарии и действовать в соответствии с этическими решениями. Машины, у которых есть алгоритмы этичного поведения.
  • Полные этические агенты : эти машины похожи на явных этических агентов в способности принимать этические решения. Однако они также содержат человеческие метафизические черты. (т.е. иметь свободную волю , сознание и намерение )

(См. Искусственные системы и моральная ответственность .)

Фокусы машинной этики [ править ]

Проблема управления ИИ [ править ]

Некоторые ученые, такие как философ Ник Бостром и исследователь искусственного интеллекта Стюарт Рассел , утверждают, что если ИИ превзойдет человечество в целом по интеллекту и станет « сверхразумным », то этот новый сверхразум может стать могущественным и трудноуправляемым: так же, как зависит судьба горной гориллы. от человеческой доброй воли, поэтому судьба человечества может зависеть от действий будущего машинного суперинтеллекта. [18] В своих соответствующих книгах « Суперинтеллект» и « Совместимость с людьми» оба ученых утверждают, что, хотя будущее ИИ остается неуверенным, риск для человечества достаточно велик, чтобы заслужить серьезные действия в настоящем.

Это представляет проблему управления ИИ : как создать интеллектуального агента, который будет помогать своим создателям, избегая при этом непреднамеренного создания суперинтеллекта, который нанесет вред его создателям. Опасность неправильной разработки управления «с первого раза» состоит в том, что сверхразум может захватить власть над окружающей средой и не дать людям выключить ее. Потенциальные стратегии управления ИИ включают «управление возможностями» (ограничение способности ИИ влиять на мир) и «мотивационный контроль» (создание ИИ, цели которого соответствуют человеческим ценностям). Существует ряд организаций, исследующих проблему управления искусственным интеллектом, в том числе Институт будущего человечества , Исследовательский институт машинного интеллекта ,Центр искусственного интеллекта , совместимого с человеком , и институт будущего жизни .

Алгоритмы и обучение [ править ]

Парадигмы ИИ обсуждались, особенно в отношении их эффективности и предвзятости. Ник Бостром и Элиэзер Юдковски выступали за деревья решений (такие как ID3 ) над нейронными сетями и генетическими алгоритмами на том основании, что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости (например, пристальный взгляд ). [19] Напротив, Крис Сантос-Ланг выступал в пользу нейронных сетей и генетических алгоритмов на том основании, что нормы любого возраста должны быть изменены, и что естественная неспособность полностью удовлетворить эти конкретные нормы сыграла важную роль в том, уязвимы для преступников, чем машины "хакеры ». [20] [21]

В 2009 году в качестве эксперимента в лаборатории интеллектуальных систем в политехнической школе Fédérale в Лозанне в Швейцарии , роботы ИИ были запрограммированы сотрудничать друг с другом и поставлена задача с целью поисков полезного ресурса, избегая при этом ядовитый ресурс. [22] Во время эксперимента роботы были сгруппированы в кланы, и цифровой генетический код успешных членов был использован для следующего поколения, тип алгоритма, известного как генетический алгоритм.. После 50 последовательных поколений в ИИ, члены одного клана обнаружили, как отличить полезный ресурс от ядовитого. Затем роботы научились лгать друг другу, пытаясь сохранить полезный ресурс у других роботов. [23] В том же эксперименте те же роботы ИИ также научились вести себя самоотверженно и сигнализировали об опасности другим роботам, а также умерли за счет спасения других роботов. [24] Значение этого эксперимента было оспорено специалистами по машинной этике. В эксперименте Ecole Polytechnique Fédérale цели роботов были запрограммированы как «конечные». Напротив, человеческие мотивы обычно требуют бесконечного обучения.

Автономные системы вооружения [ править ]

В 2009 году ученые и технические эксперты посетили конференцию, на которой обсудили потенциальное влияние роботов и компьютеров и влияние гипотетической возможности того, что они смогут стать самодостаточными и иметь возможность принимать собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могут получить любой уровень автономии, и в какой степени они могут использовать такие способности, чтобы, возможно, представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли «тараканьего интеллекта». Они отметили, что самосознание, описанное в научной фантастике, вероятно, маловероятно.но были и другие потенциальные опасности и подводные камни.[25]

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда таким роботам дается некоторая степень автономности. [26] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [27] [28] Президент Ассоциации по развитию искусственного интеллекта заказал исследование, чтобы изучить этот вопрос. [29] Они указывают на такие программы, как Language Acquisition Device, которые могут имитировать человеческое взаимодействие.

Интеграция общего искусственного интеллекта с обществом [ править ]

Предварительная работа была проведена по методам интеграции искусственного общего интеллекта (полных этических агентов, как определено выше) с существующими правовыми и социальными структурами. Подходы сосредоточены на учете их правового положения и прав. [30]

Предвзятость машинного обучения [ править ]

Алгоритмы больших данных и машинного обучения стали популярными во многих отраслях, включая интернет-рекламу , кредитные рейтинги и уголовные наказания, с обещанием обеспечить более объективные, основанные на данных результаты, но были определены как потенциальный источник сохранения социального неравенства и дискриминации. . [31] [32] 2015 исследование показало , что женщины были менее вероятно, будут показаны с высоким уровнем дохода объявления Работа в Google «s AdSense . Другое исследование показало, что AmazonСлужба доставки в тот же день была намеренно недоступна в районах проживания чернокожих. И Google, и Amazon не смогли выделить эти результаты в одну проблему, а вместо этого объяснили, что результаты были результатом используемых ими алгоритмов черного ящика . [31]

Судебная система США начала использовать программное обеспечение для количественной оценки рисков при принятии решений, связанных с освобождением людей под залог и вынесением приговора, чтобы быть более справедливыми и снизить и без того высокий уровень тюремного заключения . Эти инструменты анализируют криминальное прошлое обвиняемого и другие атрибуты. В исследовании 7000 человек, арестованных в округе Бровард , штат Флорида , только 20% лиц, которым было предсказано совершение преступления с использованием системы оценки риска округа, совершили преступление. [32] В отчете ProPublica за 2016 год анализируется рецидивизм.оценки риска рассчитывались с помощью одного из наиболее часто используемых инструментов, системы Northpointe COMPAS , и учитывали результаты за два года. В отчете было обнаружено, что только 61% из тех, кто считался повышенным риском, совершили дополнительные преступления во время. В отчете также отмечалось, что обвиняемые афроамериканцы с гораздо большей вероятностью получали оценки высокого риска по сравнению с их белыми обвиняемыми коллегами. [32]

В 2016 году рабочая группа администрации Обамы по большим данным, которая контролирует различные нормативно-правовые базы больших данных, опубликовала отчеты, в которых аргументируется «возможность кодирования дискриминации в автоматизированных решениях» и содержится призыв «предусмотреть равные возможности» для приложений, таких как кредит подсчет очков. [33] [34] Отчеты поощряют дискуссии среди политиков , граждан и ученых, но признают, что у них нет потенциального решения для кодирования предвзятости и дискриминации в алгоритмических системах.

Этические рамки и практики [ править ]

Практики [ править ]

В марте 2018 года, стремясь снять растущую обеспокоенность по поводу воздействия машинного обучения на права человека , Всемирный экономический форум и Совет глобального будущего по правам человека опубликовали официальный документ с подробными рекомендациями о том, как лучше всего предотвратить дискриминационные результаты в машинном обучении. [35] Всемирный экономический форум разработал четыре рекомендации, основанные на Руководящих принципах ООН в области прав человека, чтобы помочь устранить и предотвратить дискриминационные результаты в машинном обучении.

Рекомендации Всемирного экономического форума заключаются в следующем: [35]

  1. Активное включение: разработка и проектирование приложений для машинного обучения должны активно искать разнообразие входных данных, особенно норм и ценностей конкретных групп населения, на которые влияют выходные данные систем искусственного интеллекта.
  2. Справедливость: люди, участвующие в концептуализации, разработке и внедрении систем машинного обучения, должны подумать, какое определение справедливости лучше всего применимо к их контексту и применению, и расставить приоритеты в архитектуре системы машинного обучения и ее оценочных показателях.
  3. Право на понимание: участие систем машинного обучения в принятии решений, затрагивающих права человека, должно быть раскрыто, и системы должны иметь возможность предоставлять объяснение их принятия решений, понятное конечным пользователям и доступное для проверки компетентным человеческим органом. Там, где это невозможно и права поставлены на карту, лидеры в разработке, развертывании и регулировании технологии машинного обучения должны задаться вопросом, следует ли ее использовать.
  4. Доступ к возмещению ущерба: руководители, дизайнеры и разработчики систем машинного обучения несут ответственность за выявление потенциальных негативных воздействий своих систем на права человека. Они должны предоставить видимые возможности для возмещения ущерба для тех, кто пострадал от разрозненных воздействий, и установить процессы для своевременного устранения любых дискриминационных результатов.

В январе 2020 года Центр Интернета и общества им. Беркмана Кляйна Гарвардского университета опубликовал метаисследование 36 известных наборов принципов ИИ, определяющих восемь ключевых тем: конфиденциальность, подотчетность, безопасность и защищенность, прозрачность и объяснимость, справедливость и недискриминация, человеческий контроль над технологиями, профессиональная ответственность и продвижение человеческих ценностей. [36] Аналогичное мета-исследование было проведено исследователями из Швейцарского федерального технологического института в Цюрихе в 2019 году. [37]

Подходы [ править ]

Было сделано несколько попыток сделать этику вычислимой или, по крайней мере, формальной . В то время как « Три закона робототехники» Айзека Азимова обычно не считаются подходящими для искусственного морального агента [38] , было изучено, можно ли использовать категорический императив Канта . [39] Однако было указано, что человеческие ценности в некоторых аспектах очень сложны. [40] Одним из способов явного преодоления этой трудности является получение человеческих ценностей напрямую от людей с помощью некоторого механизма, например, путем их изучения. [41] [42] [43]
Другой подход состоит в том, чтобы основывать текущие этические соображения на предыдущих аналогичных ситуациях. Это называется казуистикой , и ее можно реализовать с помощью исследований в Интернете. Консенсус из миллиона прошлых решений приведет к новому решению, зависящему от демократии. [8] Однако это может привести к решениям, отражающим предубеждения и неэтичное поведение, проявляемое в обществе. Негативные эффекты такого подхода можно увидеть в Tay (бот) от Microsoft , где чаттер- бот научился повторять расистские и сексуально заряженные сообщения, отправленные пользователями Twitter. [44]

В одном мысленном эксперименте читателю предстает джин-голем с неограниченными способностями. Этот джин заявляет, что он вернется через 50 лет, и требует, чтобы ему был предоставлен определенный набор моральных принципов, в соответствии с которыми он затем немедленно начнет действовать. Цель этого эксперимента - начать дискуссию о том, как лучше всего справиться с определением полного набора этических норм, которые компьютеры могут понять. [45]

В художественной литературе [ править ]

В научной фантастике , фильмы и романы играли с идеей разумности роботов и машин.

Чаппи Нила Бломкампа (2015) разыграл сценарий возможности перенести свое сознание в компьютер. [46] В фильме « Ex Machina» (2014) Алекса Гарланда рассказывается об андроиде с искусственным интеллектом, который проходит разновидность теста Тьюринга - теста , проводимого для машины, чтобы увидеть, можно ли ее поведение отличить от человеческого. Такие работы, как « Терминатор» (1984) и «Матрица» (1999), включают концепцию машин, включающих своих людей-хозяев (см. « Искусственный интеллект» ).

Айзек Азимов рассматривал этот вопрос в 1950-х годах в « Я, Робот» . По настоянию своего редактора Джона У. Кэмпбелла-младшего он предложил Три закона робототехники для управления системами с искусственным интеллектом. Затем большая часть его работы была потрачена на проверку границ трех его законов, чтобы увидеть, где они нарушатся, а где приведут к парадоксальному или непредвиденному поведению. Его работа предполагает, что никакой набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства. [47] В романе Филипа К. Дика « Мечтают ли андроиды об электрических овцах?»(1968) он исследует, что значит быть человеком. В своем постапокалиптическом сценарии он сомневался, была ли эмпатия полностью человеческой характеристикой. Его история легла в основу фантастического фильма « Бегущий по лезвию» (1982).

Связанные поля [ править ]

  • Аффективные вычисления
  • Формальная этика [48]
  • Биоэтика
  • Вычислительная теория разума
  • Компьютерная этика
  • Этика искусственного интеллекта
  • Моральная психология
  • Философия искусственного интеллекта
  • Философия разума

См. Также [ править ]

  • Искусственный интеллект
    • Захват искусственного интеллекта
    • Искусственный интеллект в художественной литературе
    • Дружественный искусственный интеллект
  • Автоматизация поддержки принятия медицинских решений
  • Автомобиль Google
  • Военный робот
  • Научно-исследовательский институт машинного интеллекта
  • Этика роботов
  • Проект Watson для автоматизации поддержки принятия медицинских решений
  • Тай (бот)

Заметки [ править ]

  1. Перейти ↑ Moor, JH (2006). «Природа, важность и сложность машинной этики». Интеллектуальные системы IEEE . 21 (4): 18–21. DOI : 10.1109 / MIS.2006.80 . S2CID  831873 .
  2. ^ Бойлс, Роберт Джеймс. «Дело в пользу машинной этики при моделировании интеллектуальных агентов человеческого уровня» (PDF) . Критике . Дата обращения 1 ноября 2019 .
  3. ^ Уолдроп, Митчелл (весна 1987). «Вопрос ответственности». Журнал AI . 8 (1): 28–39. DOI : 10,1609 / aimag.v8i1.572 .
  4. Андерсон, М., Андерсон, С., и Армен, К. (2004) «К машинной этике» в материалах семинара AAAI по организации агентов: теория и практика, AAAI Press [1]
  5. ^ Семинар AAAI по организации агентов: теория и практика, AAAI Press [2]
  6. ^ «Документы с осеннего симпозиума AAAI 2005 г.» . Архивировано из оригинала на 2014-11-29.
  7. ^ a b Андерсон, Майкл; Андерсон, Сьюзан Ли, ред. (Июль 2011 г.). Машинная этика . Издательство Кембриджского университета . ISBN 978-0-521-11235-2.
  8. ^ a b Андерсон, М. и Андерсон, С. (2007). Создание этичного интеллектуального агента . Журнал AI , Том 28 (4).
  9. ^ Уоллах, Венделл; Аллен, Колин (2009). Моральные машины: учат роботов правильно и неправильно . Издательство Оксфордского университета. ISBN 9780195374049.
  10. ^ Андерсон, Майкл; Андерсон, Сьюзан Ли, ред. (Июль – август 2006 г.). «Специальный выпуск о машинной этике» . Интеллектуальные системы IEEE . 21 (4): 10–63. DOI : 10.1109 / mis.2006.70 . ISSN 1541-1672 . S2CID 9570832 . Архивировано из оригинала на 2011-11-26.  
  11. ^ Сайлер, Cory (2015). «Обзор машинной этики Андерсона и Андерсона» . Искусственный интеллект . 229 : 200–201. DOI : 10.1016 / j.artint.2015.08.013 . S2CID 5613776 . Дата обращения 7 ноября 2019 . 
  12. Такер, Патрик (13 мая 2014 г.). «Теперь военные собираются создавать роботов, обладающих моральными принципами» . Первая защита . Проверено 9 июля 2014 .
  13. ^ "Самые продаваемые научные книги" . Нью-Йорк Таймс . 8 сентября 2014 . Проверено 9 ноября 2014 .
  14. ^ "Европейский парламент, Комитет по правовым вопросам. Проект отчета с рекомендациями Комиссии по правилам гражданского права о робототехнике" . Европейская комиссия . Проверено 12 января 2017 года .
  15. ^ Уэйкфилд, Джейн (2017-01-12). «Депутаты Европарламента голосуют за правовой статус роботов - и если требуется аварийный выключатель» . BBC News . Проверено 12 января 2017 года .
  16. ^ «Резолюция Европейского парламента от 16 февраля 2017 года с рекомендациями Комиссии по правилам гражданского права о робототехнике» . Европейский парламент . Проверено 8 ноября 2019 .
  17. ^ Мур, Джеймс М. (2009). «Четыре вида этических роботов» . Философия сейчас .
  18. ^ Бостром, Ник (2014). Суперинтеллект: пути, опасности, стратегии (Первое изд.). ISBN 978-0199678112.
  19. ^ Бостром, Ник ; Юдковский, Элиэзер (2011). «Этика искусственного интеллекта» (PDF) . Кембриджский справочник по искусственному интеллекту . Cambridge Press . Архивировано из оригинального (PDF) 04 марта 2016 года . Проверено 28 июня 2011 .
  20. ^ Сантос-Ланг, Крис (2002). «Этика искусственного интеллекта» . Архивировано из оригинала на 2011-12-03.
  21. ^ Сантос-Ланг, Кристофер (2014). «Моральные экологические подходы к машинной этике» (PDF) . У ван Ризевика, Саймона; Понтье, Маттейс (ред.). Машинная медицинская этика . Интеллектуальные системы, управление и автоматизация: наука и техника. 74 . Швейцария: Шпрингер. С. 111–127. DOI : 10.1007 / 978-3-319-08108-3_8 . ISBN  978-3-319-08107-6.
  22. ^ Эволюция роботов научиться лгать друг другу , Popular Science, 18 августа 2009
  23. ^ Эволюция роботов научиться лгать друг другу, Popular Science, 18 августа 2009
  24. ^ Сантос-Ланг, Крис (2002). «Этика искусственного интеллекта». Архивировано 03 декабря 2011 года.
  25. ^ Ученые беспокоятся, что машины могут перехитрить человека, Джон МАРКОФФ, NY Times, 26 июля 2009 г.
  26. ^ Призыв к дискуссии о роботах-убийцах , Джейсон Палмер, репортер по науке и технологиям, BBC News, 8/3/09.
  27. ^ Science Новый финансируемый ВМФ отчет предупреждает о приближении боевых роботов к «Терминатору». Архивировано 28 июля 2009 г.на Wayback Machine Джейсоном Миком (блог), dailytech.com, 17 февраля 2009 г.
  28. ^ Отчет ВМФ предупреждает о восстании роботов, предлагает сильный моральный компас , Джозеф Л. Флэтли engadget.com, 18 февраля 2009 г.
  29. ^ Исследование президентской группы AAAI по долгосрочному будущему ИИ на 2008–2009 гг. , Ассоциация по развитию искусственного интеллекта, по состоянию на 26 июля 2009 г.
  30. ^ Сотала, Кадж; Ямпольский, Роман V (2014-12-19). «Ответы на катастрофический риск AGI: обзор» . Physica Scripta . 90 (1): 8. DOI : 10,1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949 . 
  31. ^ a b Кроуфорд, Кейт (25 июня 2016 г.). «Проблема белого парня искусственного интеллекта» . Нью-Йорк Таймс .
  32. ^ a b c Киршнер, Джулия Ангвин, Сурья Матту, Джефф Ларсон, Лорен (23 мая 2016 г.). «Машинный уклон: по всей стране используется программное обеспечение для прогнозирования будущих преступников. И оно ориентировано против чернокожих» . ProPublica .
  33. Администрация президента (май 2016 г.). «Большие данные: отчет об алгоритмических системах, возможностях и гражданских правах» (PDF) . Белый дом Обамы.
  34. ^ «Большие риски, большие возможности: пересечение больших данных и гражданских прав» . Белый дом Обамы. 4 мая 2016.
  35. ^ a b «Как предотвратить дискриминационные результаты в машинном обучении» . Всемирный экономический форум . Проверено 11 декабря 2018 .
  36. ^ Фьелд, Джессика; Ахтен, Неле; Хиллигосс, Ханна; Надь, Адам; Шрикумар, Мадхулика (2020). «Принцип искусственного интеллекта: отображение консенсуса в этических и основанных на правах подходах к принципам ИИ» . Серия рабочих документов SSRN . DOI : 10.2139 / ssrn.3518482 . ISSN 1556-5068 . 
  37. ^ Джобин, Анна; Йенка, Марчелло; Вайена, Эффи (2019). «Глобальный ландшафт руководящих принципов этики ИИ» . Природа Машинный интеллект . 1 (9): 389–399. DOI : 10.1038 / s42256-019-0088-2 . ISSN 2522-5839 . S2CID 201827642 .  
  38. ^ Андерсон, Сьюзан Ли (2011): неприемлемость трех законов робототехники Азимова как основы машинной этики. В кн .: Машинная этика, под ред. Майкл Андерсон, Сьюзен Ли Андерсон. Нью-Йорк: Издательство Оксфордского университета. С. 285–296. ISBN 9780511978036 
  39. ^ Пауэрс, Томас М. (2011): Перспективы кантовской машины . В кн .: Машинная этика, под ред. Майкл Андерсон, Сьюзен Ли Андерсон. Нью-Йорк: Издательство Оксфордского университета. pp.464–475.
  40. ^ Muehlhauser, Люк, Helm, Louie (2012): разведка взрыва и машина этики .
  41. ^ Юдковский, Элиэзер (2004): когерентное экстраполированное волеизъявление .
  42. ^ Гуарини, Марчелло (2011): Вычислительное нейронное моделирование и философия этики. Размышления о дискуссии о партикуляризме-генерализме . В кн .: Машинная этика, под ред. Майкл Андерсон, Сьюзен Ли Андерсон. Нью-Йорк: Издательство Оксфордского университета. С. 316–334.
  43. ^ Хиббард, Билл (2014): Этический искусственный интеллект. https://arxiv.org/abs/1411.1373
  44. ^ «Чат-бота Microsoft учат ругаться в Твиттере - BBC News» . BBC News . Проверено 17 апреля 2016 .
  45. ^ Назаретян, А. (2014). AH Eden, JH Moor, JH Søraker и E. Steinhart (ред.): Гипотезы сингулярности: научная и философская оценка. Minds & Machines, 24 (2), стр.245–248.
  46. ^ Брандейдж, Майлз; Винтертон, Джейми. «Чаппи и будущее моральных машин» . Шифер . Проверено 30 октября 2019 года .
  47. Азимов, Исаак (2008). Я, робот . Нью-Йорк: Бантам. ISBN 978-0-553-38256-3.
  48. ^ Ganascia, Жан-Габриэль. « Формализация этической системы с использованием немонотонных логик ». Материалы ежегодного собрания Общества когнитивных наук. Vol. 29. № 29. 2007.

Внешние ссылки [ править ]

  • Машинная этика , междисциплинарный проект по машинной этике.
  • Подкаст «Машинная этика» , подкаст, посвященный машинной этике, искусственному интеллекту и технической этике.

Ссылки [ править ]

  • Валлах, Венделл; Аллен, Колин (ноябрь 2008 г.). Моральные машины: обучение роботов правильно, а не неправильно . США: Издательство Оксфордского университета .
  • Андерсон, Майкл; Андерсон, Сьюзан Ли, редакторы (июль 2011 г.). Машинная этика . Издательство Кембриджского университета .
  • Сторрс Холл, Дж. (30 мая 2007 г.). За пределами ИИ: создание совести машины Книги Прометея .
  • Моор, Дж. (2006). Природа, важность и сложность машинной этики. Интеллектуальные системы IEEE , 21 (4), стр. 18–21.
  • Андерсон, М. и Андерсон, С. (2007). Создание этичного интеллектуального агента. Журнал AI , Том 28 (4).

Дальнейшее чтение [ править ]

  • Хагендорф, Тило (2020). « Этическое поведение людей и машин - оценка качества данных обучения для полезного машинного обучения ». arXiv: 200811463.
  • Андерсон, Майкл; Андерсон, Сьюзан Ли, редакторы (июль / август 2006 г.). « Специальный выпуск о машинной этике ». Интеллектуальные системы IEEE 21 (4): 10–63.
  • Бендель, Оливер (11 декабря 2013 г.). Соображения о связи между этикой животных и машин . AI & SOCIETY, DOI : 10.1007 / s00146-013-0526-3 .
  • Дабринджер, Герхард, изд. (2010). « Этические и правовые аспекты беспилотных систем. Интервью ». Министерство обороны и спорта Австрии, Вена, 2010 г., ISBN 978-3-902761-04-0 . 
  • Гарднер, А. (1987). Искусственный подход к правовому рассуждению . Кембридж, Массачусетс: MIT Press .
  • Жорж, Т.М. (2003). Цифровая душа: разумные машины и человеческие ценности . Кембридж, Массачусетс: Westview Press .
  • Певица, PW (29 декабря 2009 г.). Wired for War : Робототехническая революция и конфликт в 21 веке : Пингвин .