Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

В этике искусственного интеллекта является ветвью этики технологий , специфичных для искусственно интеллектуальных систем. Иногда [1] его разделяют на озабоченность нравственным поведением людей при проектировании, изготовлении, использовании и лечении систем с искусственным интеллектом и озабоченность поведением машин в этике машин . Он также включает в себя проблему возможной сингулярности из-за сверхразумного ИИ .

Этика роботов [ править ]

Термин «этика роботов» (иногда «робоэтика») относится к морали того, как люди проектируют, конструируют, используют и обращаются с роботами. [2] Он рассматривает как существа с искусственным интеллектом, которые могут быть использованы для нанесения вреда людям, так и то, как они могут быть использованы во благо людей.

Права роботов [ править ]

«Права роботов» - это концепция, согласно которой люди должны иметь моральные обязательства перед своими машинами, сродни правам человека или правам животных . [3] Было высказано предположение, что права роботов (например, право на существование и выполнение своей собственной миссии) могут быть связаны с обязанностью роботов служить человечеству, аналогично связыванию прав человека с обязанностями человека перед обществом. [4] Они могут включать право на жизнь и свободу, свободу мысли и выражения мнений и равенство перед законом. [5] Этот вопрос рассматривался Институтом будущего [6] и Министерством торговли и промышленности Великобритании . [7]

Эксперты расходятся во мнениях относительно того, как скоро потребуются конкретные и подробные законы по этому вопросу. [7] Гленн Макги сообщает, что к 2020 году могут появиться достаточно гуманоидные роботы, [8] в то время как Рэй Курцвейл устанавливает дату на 2029 год. [9] Другая группа ученых, собравшаяся в 2007 году, предположила, что должно пройти не менее 50 лет, прежде чем какой-либо достаточно продвинутый система будет существовать. [10]

Правила конкурса на премию Лебнера 2003 года предусматривали возможность появления у роботов собственных прав:

61. Если в каком-либо конкретном году общедоступная заявка с открытым исходным кодом, поданная Университетом Суррея или Кембриджским центром, выигрывает Серебряную медаль или Золотую медаль, то медаль и денежная премия будут вручены органу, ответственному за развитие этой записи. Если такой орган не может быть идентифицирован или если есть разногласия между двумя или более претендентами, Медаль и Денежное вознаграждение будут храниться в доверительном управлении до тех пор, пока Заявка не сможет законно владеть, либо в Соединенных Штатах Америки, либо в место проведения конкурса, Денежная премия и Золотая медаль. [11]

В октябре 2017 года андроид София получила «почетное» гражданство Саудовской Аравии , хотя некоторые сочли это скорее рекламным ходом, чем значимым юридическим признанием. [12] Некоторые сочли этот жест откровенным оскорблением прав человека и верховенства закона . [13]

Философия сентиентизма предоставляет степени морального внимания всем живым существам, в первую очередь людям и большинству нечеловеческих животных. Согласно этой философии, если искусственный или инопланетный интеллект демонстрирует признаки разумности , им следует проявить сострадание и предоставить им права.

Джоанна Брайсон утверждала, что создание ИИ, требующего прав, можно избежать и само по себе было бы неэтичным, как бремя для агентов ИИ, так и для человеческого общества. [14]

Угроза человеческому достоинству [ править ]

Джозеф Вайценбаум утверждал в 1976 году, что технологии искусственного интеллекта не должны использоваться для замены людей на должностях, требующих уважения и заботы, таких как:

  • Представитель службы поддержки клиентов (технология искусственного интеллекта уже используется сегодня для телефонных интерактивных систем голосового ответа )
  • Терапевт (как было предложено Кеннетом Колби в 1970-х годах)
  • Няня для престарелых (о чем писала Памела МакКордак в своей книге «Пятое поколение» )
  • Солдат
  • Судья
  • Полицейский

Вайценбаум объясняет, что нам необходимо подлинное чувство сочувствия от людей, занимающих эти должности. Если машины заменят их, мы окажемся отчужденными, обесцененными и разочарованными, поскольку система с искусственным интеллектом не сможет имитировать эмпатию. Искусственный интеллект, если его использовать таким образом, представляет собой угрозу человеческому достоинству. Вайценбаум утверждает, что тот факт, что мы допускаем возможность машин в этих положениях, предполагает, что мы испытали «атрофию человеческого духа, которая возникает из-за того, что мы думаем о себе как о компьютерах». [15]

Памела МакКордак возражает, что, выступая от имени женщин и меньшинств, «я предпочитаю рискнуть с помощью беспристрастного компьютера», указывая на то, что есть условия, при которых мы предпочли бы иметь автоматизированных судей и полицию, у которых вообще нет личных интересов. [15] Однако Каплан и Хенлайн подчеркивают, что системы искусственного интеллекта настолько умны, насколько умны данные, используемые для их обучения, поскольку они, по своей сути, не что иное, как причудливые машины для подгонки кривых; Использование ИИ для поддержки решения суда может быть очень проблематичным, если прошлые постановления демонстрируют предвзятость по отношению к определенным группам, поскольку эти предубеждения формализуются и укореняются, что делает их еще более трудными для выявления и борьбы с ними. [16] Основатель ИИ Джон Маккартивозражает против морализаторского тона критики Вейценбаума. «Когда морализаторство является одновременно неистовым и расплывчатым, оно вызывает авторитарные злоупотребления», - пишет он.

Билл Хиббард [17] пишет, что «человеческое достоинство требует, чтобы мы старались избавиться от нашего невежества о природе существования, и ИИ необходим для этого стремления».

Прозрачность, подотчетность и открытый исходный код [ править ]

Билл Хиббард утверждает, что, поскольку ИИ окажет такое глубокое влияние на человечество, разработчики ИИ являются представителями человечества будущего и, таким образом, несут этическое обязательство прозрачности в своих усилиях. [18] Бен Герцель и Дэвид Харт создали OpenCog как платформу с открытым исходным кодом для разработки ИИ. [19] OpenAI - это некоммерческая исследовательская компания по ИИ, созданная Илоном Маском , Сэмом Альтманом и другими для разработки ИИ с открытым исходным кодом на благо человечества. [20] Существует множество других разработок ИИ с открытым исходным кодом.

К сожалению, создание кода с открытым исходным кодом не делает его понятным, что по многим определениям означает, что код ИИ непрозрачен. IEEE имеет усилия по стандартизации по обеспечению прозрачности AI. [21] IEEE определяет несколько уровней прозрачности для разных пользователей. Кроме того, есть опасения, что раскрытие всех возможностей современного ИИ некоторым организациям может быть общественным злом, то есть причинить больше вреда, чем пользы. Например, Microsoft выразила озабоченность по поводу предоставления универсального доступа к своему программному обеспечению для распознавания лиц даже тем, кто может за него заплатить. Microsoft опубликовала необычный блог на эту тему, в котором просила правительственное регулирование помочь определить, что нужно делать. [22]

Не только компании, но и многие другие исследователи и гражданские защитники рекомендуют государственное регулирование как средство обеспечения прозрачности и, следовательно, подотчетности людей. Обновленная коллекция (список) этики ИИ поддерживается AlgorithmWatch. Эта стратегия оказалась противоречивой, поскольку некоторые опасаются, что она замедлит темпы инноваций. Другие утверждают, что регулирование приводит к системной стабильности, более способной поддерживать инновации в долгосрочной перспективе. [23] ОЭСР , ООН , ЕС , и многие страны в настоящее время разрабатывают стратегии для регулирования ИИ, а также найти соответствующие правовые рамки. [24] [25] [26]

26 июня 2019 года Группа экспертов высокого уровня Европейской комиссии по искусственному интеллекту (AI HLEG) опубликовала свои «Политические и инвестиционные рекомендации для надежного искусственного интеллекта». [27] Это второй результат AI HLEG после публикации в апреле 2019 г. «Руководящих принципов для надежного ИИ». Июньские рекомендации AI HLEG охватывают четыре основных темы: люди и общество в целом, исследования и научные круги, частный сектор и государственный сектор. Европейская комиссия утверждает, что «рекомендации HLEG отражают оценку как возможностей технологий искусственного интеллекта для стимулирования экономического роста, процветания и инноваций, так и потенциальных рисков», и заявляет, что ЕС стремится возглавить разработку политики, регулирующей ИИ. на международном уровне.[28]

Предубеждения в системах ИИ [ править ]

Воспроизвести медиа
Сенатор США Камала Харрис говорит о расовой предвзятости в искусственном интеллекте.

ИИ становится все более неотъемлемой частью систем распознавания лиц и голоса . Некоторые из этих систем имеют реальные бизнес-приложения и напрямую влияют на людей. Эти системы уязвимы для предубеждений и ошибок, вносимых их создателями-людьми. Кроме того, данные, используемые для обучения этих систем ИИ, могут иметь предвзятость. [29] [30] [31] [32] Например, все алгоритмы распознавания лиц , разработанные Microsoft, IBM и Face ++, имели предубеждения, когда дело касалось определения пола людей; [33]Эти системы искусственного интеллекта смогли определить пол белых мужчин более точно, чем пол мужчин с более темной кожей. Кроме того, в исследовании 2020 года, посвященном системам распознавания голоса от Amazon, Apple, Google, IBM и Microsoft, было обнаружено, что они имеют более высокий процент ошибок при расшифровке голосов чернокожих людей, чем белые. [34] Кроме того, Amazon прекратила использование ИИ для найма и набора персонала, потому что алгоритм отдавал предпочтение кандидатам-мужчинам, а не женщинам. Это произошло потому, что система Amazon была обучена с использованием данных, собранных за 10-летний период и поступивших в основном от кандидатов-мужчин. [35]

Предвзятость может закрасться в алгоритмы разными способами. Например, Фридман и Ниссенбаум выделяют три категории предвзятости в компьютерных системах: существующая предвзятость, техническая предвзятость и возникающая предвзятость. [36] В очень влиятельной ветви ИИ, известной как «обработка естественного языка», проблемы могут возникать из-за «корпуса текста» - исходного материала, который алгоритм использует для изучения взаимосвязей между различными словами. [37]

Крупные компании, такие как IBM, Google и т. Д., Приложили усилия для исследования и устранения этих предубеждений. [38] [39] [40] Одним из решений устранения предвзятости является создание документации для данных, используемых для обучения систем ИИ. [41] [42]

Проблема предвзятости в машинном обучении, вероятно, станет более серьезной по мере того, как технология распространяется в критически важные области, такие как медицина и право, и поскольку все больше людей без глубоких технических знаний получают задание развернуть ее. Некоторые эксперты предупреждают, что алгоритмическая предвзятость уже широко распространена во многих отраслях и что почти никто не пытается ее выявить или исправить. [43] Есть несколько инструментов с открытым исходным кодом [44] от гражданского общества, которые стремятся повысить осведомленность о предвзятом ИИ.

Ответственность за беспилотные автомобили [ править ]

Поскольку повсеместное использование автономных автомобилей становится все более неизбежным, необходимо решать новые проблемы, возникающие при использовании полностью автономных транспортных средств. [45] [46] Недавно [ когда? ] ведутся дебаты относительно юридической ответственности ответственной стороны, если эти автомобили попадут в аварию. [47] [48] В одном отчете, где беспилотный автомобиль сбил пешехода, водитель находился внутри машины, но управление полностью находилось в руках компьютеров. Это привело к дилемме, кто виноват в аварии. [49]

Во время другого инцидента 19 марта 2018 года Элейн Херцберг была сбита беспилотным автомобилем Uber в Аризоне. В этом случае автоматизированный автомобиль был способен обнаруживать автомобили и определенные препятствия для автономного перемещения по проезжей части, но не мог предвидеть пешехода посреди дороги. Это подняло вопрос о том, кто должен нести ответственность за ее смерть: водителя, пешехода, автомобильную компанию или правительство. [50]

В настоящее время автомобили с автоматическим управлением считаются полуавтономными, что требует от водителя внимания и готовности взять на себя управление в случае необходимости. [51] [ неудавшаяся проверка ] Таким образом, регулирование драйвера, который чрезмерно полагается на автономные функции, ложится на правительства. а также объясните им, что это всего лишь технологии, которые, хотя и удобны, не могут полностью заменить их. Прежде чем автономные автомобили получат широкое распространение, эти проблемы необходимо решить с помощью новой политики. [52] [53] [54]

Вооружение искусственного интеллекта [ править ]

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда таким роботам предоставляется некоторая степень автономии. [55] [56] 31 октября 2019 года Совет по инновациям в обороне Министерства обороны США опубликовал проект отчета, в котором рекомендованы принципы этичного использования искусственного интеллекта Министерством обороны, которые гарантируют, что человек-оператор всегда будет способен заглянуть в «черный ящик» и понять процесс kill-chain. Однако серьезную озабоченность вызывает то, как отчет будет реализован. [57] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения.[58] [59] Некоторые исследователи заявляют, что автономные роботы могут быть более гуманными, поскольку они могут принимать решения более эффективно. [60]

В течение этого последнего десятилетия проводились интенсивные исследования автономной власти с возможностью учиться, используя возложенные моральные обязанности. «Результаты могут быть использованы при разработке будущих военных роботов, чтобы контролировать нежелательные тенденции и возложить ответственность на роботов». [61] С консеквенциалистской точки зрения, есть шанс, что у роботов разовьется способность принимать собственные логические решения о том, кого убивать, и поэтому должны быть установлены моральные рамки, которые ИИ не может преодолеть. [62]

В последнее время возникла критика в связи с разработкой оружия искусственного интеллекта, которое включает идеи о захвате человечества роботами. Оружие искусственного интеллекта действительно представляет собой тип опасности, отличный от оружия, управляемого человеком. Многие правительства начали финансировать программы по разработке оружия искусственного интеллекта. ВМС США недавно объявили о планах по разработке автономных дронов , параллельно с аналогичными заявлениями России и Кореи соответственно. Из-за того, что оружие ИИ может стать более опасным, чем оружие, управляемое людьми, Стивен Хокинг и Макс Тегмарк подписали петицию «Будущее жизни» [63]запретить ИИ-оружие. В сообщении, опубликованном Хокингом и Тегмарком, говорится, что оружие искусственного интеллекта представляет непосредственную опасность и что необходимо принять меры, чтобы избежать катастрофических бедствий в ближайшем будущем. [64]

«Если какая - либо крупная военная держава толкает вперед с развитием ИИ оружия, глобальная гонка вооружений является практически неизбежной, и конечной точка этой технологической траектории очевидна: Автономное оружие станет Калашниковыми завтра», говорится в петиции, которая включает в себя Skype сотрудничества - основатель Яан Таллинн и профессор лингвистики Массачусетского технологического института Ноам Хомски в качестве дополнительных сторонников борьбы с оружием искусственного интеллекта. [65]

Королевский физик и астроном сэр Мартин Рис предупреждал о таких катастрофических случаях, как «тупые роботы-мошенники или сеть, которая развивает собственный разум». Хью Прайс , коллега Риса из Кембриджа, высказал аналогичное предупреждение о том, что люди могут не выжить, если интеллект «выйдет за рамки ограничений биологии». Эти два профессора создали Центр изучения экзистенциального риска при Кембриджском университете в надежде избежать этой угрозы человеческому существованию. [64]

Что касается возможности использования в военных целях более разумных систем, Open Philanthropy Project пишет, что эти сценарии «кажутся потенциально такими же важными, как и риски, связанные с потерей контроля», но исследования, изучающие долгосрочное социальное воздействие ИИ, потратили относительно мало времени на эту проблему: «этот класс сценариев не был основным фокусом для организаций, которые были наиболее активны в этой сфере, таких как Исследовательский институт машинного интеллекта (MIRI) и Институт будущего человечества (FHI), и похоже, что по ним было меньше анализа и споров ". [66]

Машинная этика [ править ]

Машинная этика (или машинная мораль) - это область исследований, связанная с разработкой искусственных моральных агентов (AMA), роботов или компьютеров с искусственным интеллектом, которые ведут себя морально или как если бы морально. [67] [68] [69] [70] Для того, чтобы объяснить природу этих агентов, было предложено рассмотреть некоторые философские идеи, такие как стандартные характеризации агентства , рациональное агентство , моральное агентство и искусственное агентство, которые связанных с концепцией AMA. [71]

Айзек Азимов рассматривал эту проблему в 1950-х годах в своей книге «Я, робот» . По настоянию своего редактора Джона У. Кэмпбелла-младшего он предложил Три закона робототехники для управления системами с искусственным интеллектом. Затем большая часть его работы была потрачена на проверку границ трех его законов, чтобы увидеть, где они нарушатся, а где приведут к парадоксальному или непредвиденному поведению. Его работа предполагает, что никакой набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства. [72] Совсем недавно ученые и многие правительства оспорили идею о том, что ИИ сам может нести ответственность. [73] Группа, созванная Соединенным Королевствомв 2010 году были внесены поправки в законы Азимова, разъясняющие, что ответственность за ИИ несет либо его производитель, либо его владелец / оператор. [74]

В 2009 году во время эксперимента в Лаборатории интеллектуальных систем Федеральной политехнической школы Лозанны в Швейцарии роботы, которые были запрограммированы на сотрудничество друг с другом (в поиске полезного ресурса и избегании ядовитого), в конечном итоге научились лгать каждому. другие в попытке накопить полезный ресурс. [75]

Некоторые эксперты и ученые подвергают сомнению использование роботов в военных действиях, особенно когда таким роботам дается некоторая степень автономности. [55] ВМС США финансировали отчет, в котором указывается, что по мере того, как военные роботы становятся более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [76] [59] Президент Ассоциации по развитию искусственного интеллекта заказал исследование, чтобы изучить этот вопрос. [77] Они указывают на такие программы, как Language Acquisition Device, которые могут имитировать человеческое взаимодействие.

Вернор Виндж предположил, что может наступить момент, когда некоторые компьютеры будут умнее людей. Он называет это « сингулярностью ». [78] Он предполагает, что это может быть в некоторой степени или, возможно, очень опасно для человека. [79] Это обсуждается философией под названием сингулярность . Разведки научно - исследовательский институт Machine предложил необходимость создания « Дружественный ИИ », а это означает , что достижения , которые уже происходят с ИИ должны также включать в себя усилие , чтобы сделать AI внутренне дружелюбным и гуманным. [80]

Обсуждается создание тестов, чтобы увидеть, способен ли ИИ принимать этические решения . Алан Уинфилд приходит к выводу, что тест Тьюринга ошибочен и требования к ИИ для его прохождения слишком низки. [81] Предлагаемый альтернативный тест называется этическим тестом Тьюринга, который улучшит текущий тест, если несколько судей решат, является ли решение ИИ этичным или неэтичным. [81]

В 2009 году ученые и технические эксперты приняли участие в конференции, организованной Ассоциацией по развитию искусственного интеллекта.обсудить потенциальное влияние роботов и компьютеров и влияние гипотетической возможности того, что они могут стать самодостаточными и иметь возможность принимать свои собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могут получить любой уровень автономии, и в какой степени они могут использовать такие способности, чтобы создать угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли «тараканьего интеллекта». Они отметили, что самосознание, описанное в научной фантастике, вероятно, маловероятно, но есть и другие потенциальные опасности и подводные камни.[78]

Однако, в частности, есть одна технология, которая действительно может воплотить в реальность возможности роботов, обладающих моральными качествами. В статье о приобретении роботами моральных ценностей Найеф Аль-Родхан упоминает случай нейроморфных чипов, которые стремятся обрабатывать информацию аналогично людям, нелинейно и с помощью миллионов взаимосвязанных искусственных нейронов. [82] Роботы, оснащенные нейроморфными технологиями, могут изучать и развивать знания уникальным человеческим способом. Неизбежно возникает вопрос об окружающей среде, в которой такие роботы будут узнавать об окружающем мире и чью мораль они унаследуют, или если они в конечном итоге разовьют человеческие `` слабости '': эгоизм, стремление к выживанию, колебания и т. Д.

В нравственном машин: Обучение роботов правильное от неправильного , [83] Уэнделл Уоллах и Колин Аллен вывод о том , что попытки научить роботов правильное от неправильного, скорее всего , заранее понимание человеческой этики, мотивируя людей к зазорами адресными в современной нормативной теории и предоставляя платформу для экспериментальное исследование. В качестве одного из примеров он познакомил специалистов по нормативной этике с противоречивым вопросом о том, какие конкретные алгоритмы обучения использовать в машинах. Ник Бостром и Элиэзер Юдковски выступили за деревья решений (например, ID3 ) над нейронными сетями и генетическими алгоритмами.на том основании, что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости (например, stare decisis ) [84], в то время как Крис Сантос-Ланг утверждал противоположное на том основании, что нормам любого возраста должно быть позволено изменяться и что естественные несоблюдение этих конкретных норм было существенным для того, чтобы сделать людей менее уязвимыми для преступных « хакеров ». [85]

Согласно отчету Центра управления ИИ при Оксфордском университете за 2019 год, 82% американцев считают, что с роботами и ИИ нужно тщательно обращаться. Вызываемые опасения варьировались от того, как ИИ используется в наблюдении и распространении поддельного контента в Интернете (известных как глубокие подделки, когда они включают в себя подделанные видеоизображения и звук, созданные с помощью ИИ), до кибератак, нарушений конфиденциальности данных, предвзятости при найме, автономных транспортных средств и дроны, которым не нужен человеческий контроллер. [86]

Сингулярность [ править ]

Многие исследователи утверждали, что благодаря «взрыву интеллекта» самосовершенствующийся ИИ может стать настолько мощным, что люди не смогут помешать ему достичь своих целей. [87] В своей статье «Этические проблемы передового искусственного интеллекта» и последующей книге « Суперинтеллект: пути, опасности, стратегии» философ Ник Бостром утверждает, что искусственный интеллект способен вызвать вымирание человечества. Он утверждает, что общий суперинтеллектбыл бы способен проявлять независимую инициативу и строить свои собственные планы, и поэтому его более уместно рассматривать как автономного агента. Поскольку искусственный интеллект не обязательно разделяет наши человеческие мотивационные тенденции, разработчики суперинтеллекта должны определить его исходные мотивы. Поскольку суперинтеллектуальный ИИ способен вызвать практически любой возможный результат и помешать любой попытке помешать достижению его целей, может возникнуть множество неконтролируемых непредвиденных последствий . Он может убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства. [88]

Однако вместо того, чтобы подавить человечество и привести к нашему разрушению, Бостром также утверждал, что суперинтеллект может помочь нам решить многие сложные проблемы, такие как болезни, бедность и разрушение окружающей среды, и может помочь нам «улучшить» себя. [89]

Совершенно сложная система человеческих ценностей делает очень трудным сделать мотивацию ИИ понятной для человека. [87] [88] Если моральная философия не предоставит нам безупречную этическую теорию, функция полезности ИИ могла бы допускать множество потенциально вредных сценариев, которые соответствуют данной этической структуре, но не «здравому смыслу». Согласно Элиэзеру Юдковски , нет особых оснований предполагать, что искусственно созданный разум будет иметь такую ​​адаптацию. [90] Исследователи AI, такие как Стюарт Дж. Рассел , [91] Билл Хиббард , [17] Роман Ямпольский , [92] Шеннон Валлор , [93] Стивен Амбрелло[94] и Лучано Флориди [95] предложили стратегии проектирования для разработки полезных машин.

Организации по этике ИИ [ править ]

Существует множество организаций, занимающихся этикой и политикой в ​​области ИИ, как государственных и государственных, так и корпоративных и общественных.

Amazon , Google , Facebook , IBM и Microsoft создали некоммерческое партнерство, чтобы формулировать передовой опыт в области технологий искусственного интеллекта, способствовать пониманию общества и служить платформой для искусственного интеллекта. Apple присоединилась к компании в январе 2017 года. Корпоративные члены будут вносить финансовые и исследовательские вклады в группу, а также взаимодействовать с научным сообществом, чтобы привлечь ученых в совет. [96]

IEEE сколотить Глобальную инициативу по этике автономных и интеллектуальных систем , которая занимается созданием и пересматривают принципы с помощью публичного ввода, и принимает в качестве членов многих специалистов извне и изнутри его организации.

Традиционно, правительство используется обществами для обеспечения этика наблюдается в рамках законодательства и правопорядка. В настоящее время национальные правительства, а также транснациональные правительственные и неправительственные организации прилагают много усилий для обеспечения этичного применения ИИ.

  • Европейская комиссия имеет группу экспертов высокого уровня по искусственному интеллекту . 8 апреля 2019 года были опубликованы «Этические принципы надежного искусственного интеллекта». [97] в феврале 2020 года отдел разработки и координации цифровой политики Европейского союза опубликовал официальный документ о совершенстве и доверии к инновациям в области искусственного интеллекта. [98]
  • ОЭСР по искусственному интеллекту
  • В Соединенных Штатах Обама администрация собрать дорожную карту для AI политики (ссылка в Harvard Business Review счета «s его. Администрация Обамы выпустил два видных белых документов на будущее и влияние ИИ. В 2019 году Белый дом через Исполнительная записка, известная как « Американская инициатива в области искусственного интеллекта », поручила NIST (Национальному институту стандартов и технологий) начать работу над федеральным взаимодействием по стандартам ИИ (февраль 2019 г.).
  • В январе 2020 года в Соединенных Штатах администрация Трампа опубликовала проект распоряжения Управления управления и бюджета (OMB) о «Руководстве по регулированию приложений искусственного интеллекта» («Меморандум OMB AI»). необходимо инвестировать в приложения ИИ, повысить общественное доверие к ИИ, снизить барьеры для использования ИИ и сохранить конкурентоспособность американских технологий ИИ на мировом рынке. Есть намек на необходимость заботы о конфиденциальности, но нет дополнительных подробностей о правоприменении. Достижения американской технологии искусственного интеллекта кажутся в центре внимания и приоритетом. Кроме того, федеральные органы даже поощряются использовать приказ, чтобы обходить любые законы и постановления штата, которые рынок может счесть слишком обременительными для выполнения. [99]
  • Computing Community Consortium (CCC) взвешивают с 100-плюс страница проекта доклада [100] - 20-летний Сообщество Дорожная карта для искусственного интеллекта исследований в США [101]
  • Центр по безопасности и Emerging Technology советует политикам о последствиях безопасности новых технологий , таких как AI.
  • В Оксфордском университете есть три исследовательских института, которые занимаются этикой ИИ. Институт будущего человечества, который специализируется как на безопасности ИИ [102], так и на управлении ИИ. [103] Институт этики ИИ, возглавляемый Джоном Тасиулас , чья основная цель, среди прочего, состоит в том, чтобы продвигать этику ИИ как собственно область по сравнению с соответствующими областями прикладной этики. [1] Internet Institute Oxford , режиссер Лучано Флориди , фокусируется на этике ближайших технологий и ИКТ ИИ. [104]
  • Институт этики и новых технологий (IEET) исследования влияния ИИ на безработицу, [105] [106] и политики.
  • Институт глобальных рисков катастроф (GCRI) использует анализ рисков и социальные науки для разработки и управления ИИ. [107]
  • Институт по этике в области искусственного интеллекта (IEAI) в Мюнхенском техническом университете под руководством Кристофа Lütge проводит исследования в различных областях , таких как мобильность, занятость, здравоохранение и устойчивость. [108]
  • Black in AI - организация, изучающая этническое разнообразие в области искусственного интеллекта. [109]
  • Сейчас институт AI в Нью - Йоркском университете является научно - исследовательским институтом изучения социальных последствий искусственного интеллекта. Его междисциплинарные исследования сосредоточены на темах предвзятости и инклюзивности, труда и автоматизации, прав и свобод, а также безопасности и гражданской инфраструктуры. [110]

В художественной литературе [ править ]

Фильм «Тринадцатый этаж» предлагает будущее, в котором симулированные миры с разумными обитателями создаются компьютерными игровыми консолями с целью развлечения. Фильм «Матрица» предлагает будущее, в котором доминирующими видами на планете Земля будут разумные машины, а к человечеству будут относиться с крайним видоизменением . Рассказ « Погружение Планка » предлагает будущее, в котором человечество превратилось в программное обеспечение, которое можно дублировать и оптимизировать, и соответствующее различие между типами программного обеспечения является разумным и неразумным. Та же мысль можно найти в экстренной медицинской Голограмма из Starship Voyager, который, по-видимому, является разумной копией сокращенного подмножества сознания его создателя, доктора Циммермана , который из лучших побуждений создал систему для оказания медицинской помощи в чрезвычайных ситуациях. Фильмы « Человек двухсотлетия» и « ИИ» рассказывают о возможности разумных роботов, которые могут любить. Я, Робот, исследовал некоторые аспекты трех законов Азимова. Все эти сценарии пытаются предвидеть возможные неэтичные последствия создания разумных компьютеров. [111]

Этика искусственного интеллекта - одна из нескольких основных тем в серии игр Mass Effect от BioWare . [112] В нем исследуется сценарий, в котором цивилизация случайно создает ИИ путем быстрого увеличения вычислительной мощности с помощью нейронной сети глобального масштаба . Это событие вызвало этический раскол между теми, кто считал, что наделение органических прав только что разумных гетов было уместным, и теми, кто продолжал рассматривать их как одноразовые механизмы и боролись за их уничтожение. Помимо первоначального конфликта, сложность отношений между машинами и их создателями - еще одна постоянная тема на протяжении всей истории.

Со временем дебаты фокусировались все меньше и меньше на возможности и больше на желательность , [113] , как подчеркивается в «космистов» и «землян» дебаты по инициативе Де Гарис и Кевин Уорвик . Космист, по словам Уго де Гариса, на самом деле стремится создать более разумных преемников человеческого вида.

Эксперты Кембриджского университета утверждают, что ИИ изображается в художественной и научно-популярной литературе преимущественно как расово Белый, что искажает представление о его рисках и преимуществах. [114]

См. Также [ править ]

  • Захват AI
  • Алгоритмический уклон
  • Искусственное сознание
  • Общий искусственный интеллект (AGI)
  • Компьютерная этика
  • Эффективный альтруизм, долгосрочное будущее и глобальные катастрофические риски
  • Экзистенциальный риск от общего искусственного интеллекта
  • Совместимость с человеком
  • Законы робототехники
  • Философия искусственного интеллекта
  • Регулирование искусственного интеллекта
  • Робоэтика
  • Роботизированное управление
  • Сверхразум: пути, опасности, стратегии
Исследователи
  • Тимнит Гебру
  • Джой Буоламвини
  • Элисон Адам
  • Сет Баум
  • Ник Бостром
  • Джоанна Брайсон
  • Кейт Дарлинг
  • Лучано Флориди
  • Аня Касперсен
  • Рэй Курцвейл
  • Екатерина Малабу
  • Аджунг Мун
  • Винсент К. Мюллер
  • Питер Норвиг
  • Стив Омохундро
  • Стюарт Дж. Рассел
  • Андерс Сандберг
  • Мариаросария Таддео
  • Джон Тасиулас
  • Стивен Амбрелло
  • Роман Ямпольский
  • Элиэзер Юдковски
Организации
  • Центр искусственного интеллекта, совместимого с человеком
  • Центр безопасности и новых технологий
  • Центр изучения экзистенциального риска
  • Институт будущего человечества
  • Институт будущего жизни
  • Научно-исследовательский институт машинного интеллекта
  • Партнерство по ИИ
  • Leverhulme Center for the Future of Intelligence
  • Институт этики и новых технологий
  • Оксфордский институт Интернета
  • Институт глобальных катастрофических рисков

Примечания [ править ]

  1. Мюллер, Винсент К. (30 апреля 2020 г.). «Этика искусственного интеллекта и робототехники» . Стэнфордская энциклопедия философии . Проверено 26 сентября 2020 .
  2. ^ Veruggio, Gianmarco (2007). «Дорожная карта Робоэтики». Scuola di Robotica: 2. CiteSeerX 10.1.1.466.2810 .  Цитировать журнал требует |journal=( помощь )
  3. ^ Эванс, Вуди (2015). «Постчеловеческие права: измерения трансчеловеческих миров» . Текнокультура . 12 (2). DOI : 10.5209 / rev_TK.2015.v12.n2.49072 .
  4. ^ Sheliazhenko, Юрий (2017). «Искусственная личная автономия и концепция прав роботов» . Европейский журнал права и политических наук . Дата обращения 10 мая 2017 . Цитировать журнал требует |journal=( помощь )
  5. ^ Словарь американского наследия английского языка, четвертое издание
  6. ^ «Роботы могут требовать законных прав» . BBC News . 21 декабря 2006 . Проверено 3 января 2010 года .
  7. ^ a b Хендерсон, Марк (24 апреля 2007 г.). «Права человека для роботов? Мы увлекаемся» . The Times Online . Лондонская Times . Проверено 2 мая 2010 года .
  8. ^ МакГи, Гленн. «Этический кодекс роботов» . Ученый.
  9. ^ Курцвейл, Рэй (2005). Сингулярность близка . Книги пингвинов. ISBN 978-0-670-03384-3.
  10. ^ Большой вопрос: должно ли человечество беспокоиться о росте роботов? , Независимая газета,
  11. ^ Loebner приз конкурса Официальные правила - Версия 2.0 Конкурс был направлен Дэвид Хэмилл и правила были разработаны членами группы Robitron Yahoo.
  12. ^ Саудовская Аравия даровала гражданство роботу по имени София
  13. Винсент, Джеймс (30 октября 2017 г.). «Притворяться, будто робот дает гражданство, никому не помогает» . Грань .
  14. ^ Тесное общение с искусственными спутниками: ключевые социальные, психологические, этические и дизайнерские проблемы . Уилкс, Йорик, 1939–. Амстердам: паб John Benjamins. Co. 2010. ISBN 978-9027249944. OCLC  642206106 .CS1 maint: другие ( ссылка )
  15. ^ a b Джозеф Вайценбаум , цитируется в McCorduck 2004 , стр. 356, 374–376
  16. ^ Каплан, Андреас; Хенлайн, Майкл (январь 2019). «Siri, Siri, в моей руке: кто самый красивый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты . 62 (1): 15–25. DOI : 10.1016 / j.bushor.2018.08.004 .
  17. ^ a b Хиббард, Билл (17 ноября 2015 г.). «Этический искусственный интеллект». arXiv : 1411.1373 [ cs.AI ].
  18. ^ Открытый исходный код AI. Билл Хиббард. Материалы Первой конференции по общему искусственному интеллекту, 2008 г., ред. Пей Ван, Бен Гертцель и Стэн Франклин.
  19. ^ OpenCog: программная структура для интегративного общего искусственного интеллекта. Дэвид Харт и Бен Гертцель. Материалы Первой конференции по общему искусственному интеллекту, 2008 г., ред. Пей Ван, Бен Гертцель и Стэн Франклин.
  20. ^ Внутри OpenAI, Дикий план Илона Маска по освобождению Кейда Мец от искусственного интеллекта , Wired, 27 апреля 2016 г.
  21. ^ «P7001 - Прозрачность автономных систем» . P7001 - Прозрачность автономных систем . IEEE . Проверено 10 января 2019 ..
  22. ^ Thurm, Скотт (13 июля 2018). «МАЙКРОСОФТ ПРИЗЫВАЕТ ФЕДЕРАЛЬНОЕ РЕГУЛИРОВАНИЕ РАСПОЗНАВАНИЯ ЛИЦ» . Проводной .
  23. ^ Бастин, Роланд; Wantz, Жорж (июнь 2017 г.). «Общие правила защиты данных Межотраслевые инновации» (PDF) . Внутри журнала . Deloitte.
  24. ^ «Саммит ООН по искусственному интеллекту нацелен на борьбу с бедностью,« великими проблемами » человечества » . Новости ООН . 2017-06-07 . Проверено 26 июля 2019 .
  25. ^ «Искусственный интеллект - Организация экономического сотрудничества и развития» . www.oecd.org . Проверено 26 июля 2019 .
  26. ^ Аноним (2018-06-14). «Европейский альянс ИИ» . Единый цифровой рынок - Европейская комиссия . Проверено 26 июля 2019 .
  27. ^ Группа экспертов высокого уровня Европейской комиссии по ИИ (2019-06-26). «Политические и инвестиционные рекомендации для надежного искусственного интеллекта» . Формируя цифровое будущее Европы - Европейская комиссия . Проверено 16 марта 2020 .
  28. ^ «Краткий обзор технической политики ЕС: июль 2019 г.» . Центр демократии и технологий . Проверено 9 августа 2019 .
  29. ^ Общество, DeepMind Ethics & (2018-03-14). «Аргументы в пользу более справедливых алгоритмов - DeepMind Ethics & Society» . Средний . Проверено 22 июля 2019 .
  30. ^ «5 неожиданных источников предвзятости в искусственном интеллекте» . TechCrunch . Проверено 22 июля 2019 .
  31. ^ Рыцарь, Уилл. «Руководитель Google по искусственному интеллекту говорит, что забудьте про роботов-убийц Илона Маска и вместо этого беспокойтесь о предвзятости в системах искусственного интеллекта» . MIT Technology Review . Проверено 22 июля 2019 .
  32. ^ Вилласенор, Джон (2019-01-03). «Искусственный интеллект и предвзятость: четыре ключевые проблемы» . Брукингс . Проверено 22 июля 2019 .
  33. ^ Лор, Стив (9 февраля 2018). «Распознавание лиц точное, если ты белый парень» . Нью-Йорк Таймс .
  34. ^ Koenecke, Эллисон; Нам, Эндрю; Лейк, Эмили; Нуделл, Джо; Куорти, Минни; Менгеша, Сион; Тупс, Коннор; Рикфорд, Джон Р .; Джурафски, Дан; Гоэль, Шарад (7 апреля 2020 г.). «Расовые различия в автоматическом распознавании речи» . Труды Национальной академии наук . 117 (14): 7684–7689. DOI : 10.1073 / pnas.1915768117 . PMC 7149386 . PMID 32205437 .  
  35. ^ "Amazon отказывается от секретного инструмента найма ИИ, который показал предвзятость против женщин" . Рейтер . 2018-10-10 . Проверено 29 мая 2019 .
  36. ^ Фридман, Батья; Ниссенбаум, Хелен (июль 1996 г.). «Предвзятость в компьютерных системах». Транзакции ACM в информационных системах (TOIS) . 14 (3): 330–347. DOI : 10.1145 / 230538.230561 . S2CID 207195759 . 
  37. ^ «Устранение предвзятости в AI» . techxplore.com . Проверено 26 июля 2019 .
  38. ^ Олсон, Парми. «У Google DeepMind есть идея остановить предвзятый ИИ» . Forbes . Проверено 26 июля 2019 .
  39. ^ "Справедливость машинного обучения | Справедливость ML" . Разработчики Google . Проверено 26 июля 2019 .
  40. ^ «AI и предвзятость - IBM Research - США» . www.research.ibm.com . Проверено 26 июля 2019 .
  41. ^ Бендер, Эмили М .; Фридман, Батья (декабрь 2018 г.). «Заявления данных для обработки естественного языка: на пути к снижению систематической ошибки системы и обеспечению лучшей науки» . Труды Ассоциации компьютерной лингвистики . 6 : 587–604. DOI : 10,1162 / tacl_a_00041 .
  42. ^ Гебру, Тимнит; Моргенштерн, Джейми; Веккьоне, Бриана; Воан, Дженнифер Вортман; Валлах, Ханна ; Доме III, Хэл; Кроуфорд, Кейт (2018). «Таблицы данных для наборов данных». arXiv : 1803.09010 [ cs.DB ].
  43. ^ Рыцарь, Уилл. «Руководитель Google по искусственному интеллекту говорит, что забудьте про роботов-убийц Илона Маска и вместо этого беспокойтесь о предвзятости в системах искусственного интеллекта» . MIT Technology Review . Проверено 26 июля 2019 .
  44. ^ https://map.ai-global.org/
  45. Дэвис, Алекс (29 февраля 2016 г.). "Самоходный автомобиль Google стал причиной первой аварии" . Проводной .
  46. ^ Левин, Сэм; Вонг, Джулия Кэрри (19 марта 2018 г.). «Беспилотный Uber убил женщину из Аризоны в первой аварии с участием пешехода» . Хранитель .
  47. ^ "Кто несет ответственность, когда беспилотный автомобиль попадает в аварию?" . Футуризм . Проверено 26 июля 2019 .
  48. ^ Радио, Бизнес; Политика, право и общественность; Подкасты; Америка, Северная. "Автономные автомобильные аварии: кто или что виноват?" . Знание @ Wharton . Проверено 26 июля 2019 .
  49. ^ Дельбридж, Эмили. «Безумные автомобили без водителя» . Баланс . Проверено 29 мая 2019 .
  50. ^ Stilgoe, Джек (2020), "Кто убил Элейн Герцберг?" , Кто движет инновациями? , Cham: Springer International Publishing, стр. 1–6, doi : 10.1007 / 978-3-030-32320-2_1 , ISBN 978-3-030-32319-6, получено 11.11.2020
  51. ^ Максмен, Эми (октябрь 2018). «Дилеммы беспилотных автомобилей показывают, что моральный выбор не универсален» . Природа . 562 (7728): 469–470. Bibcode : 2018Natur.562..469M . DOI : 10.1038 / d41586-018-07135-0 . PMID 30356197 . 
  52. ^ «Правила для беспилотных автомобилей» . GOV.UK . Проверено 26 июля 2019 .
  53. ^ «Автоматизированное вождение: законодательные и нормативные акты - CyberWiki» . cyberlaw.stanford.edu . Проверено 26 июля 2019 .
  54. ^ "Автономные транспортные средства | Законодательство о самоуправляемых транспортных средствах" . www.ncsl.org . Проверено 26 июля 2019 .
  55. ^ a b Призыв к дискуссии о роботах-убийцах , Джейсон Палмер, репортер по науке и технологиям, BBC News, 3 августа 2009 г.
  56. ^ Робот Трехходового Предвестье автономное будущее , Дэвид Ax wired.com, 13 августа 2009 года.
  57. ^ Соединенные Штаты. Совет по оборонным инновациям. Принципы искусственного интеллекта: рекомендации Министерства обороны по этическому использованию искусственного интеллекта . OCLC 1126650738 . 
  58. Новый отчет, финансируемый ВМФ, предупреждает о приближении боевых роботов к «Терминатору». Архивировано 28 июля 2009 г.на Wayback Machine Джейсоном Миком (блог), dailytech.com, 17 февраля 2009 г.
  59. ^ a b Отчет ВМФ предупреждает о восстании роботов и предлагает сильный моральный компас , Джозеф Л. Флэтли engadget.com, 18 февраля 2009 г.
  60. ^ Амбрелло, Стивен; Торрес, Фил; Де Беллис, Анджело Ф. (март 2020 г.). «Будущее войны: может ли летальное автономное оружие сделать конфликт более этичным?» . AI и общество . 35 (1): 273–282. DOI : 10.1007 / s00146-019-00879-х . hdl : 2318/1699364 . ISSN 0951-5666 . S2CID 59606353 .  
  61. ^ Hellström Томас (июнь 2013). «О моральной ответственности военных роботов». Этика и информационные технологии . 15 (2): 99–107. DOI : 10.1007 / s10676-012-9301-2 . S2CID 15205810 . ProQuest 1372020233 .  
  62. ^ Митра, Амбариш. «Мы можем обучить ИИ распознавать добро и зло, а затем использовать его, чтобы научить нас нравственности» . Кварц . Проверено 26 июля 2019 .
  63. ^ «Принципы AI» . Институт будущего жизни . Проверено 26 июля 2019 .
  64. ^ a b Зак Масгрейв и Брайан В. Робертс (2015-08-14). «Почему искусственный интеллект можно слишком легко превратить в оружие - Атлантика» . Атлантика .
  65. ^ Cat Zakrzewski (2015-07-27). «Маск, Хокинг предупреждают об оружии искусственного интеллекта» . WSJ .
  66. ^ GiveWell (2015). Возможные риски от передового искусственного интеллекта (Отчет) . Проверено 11 октября 2015 года .
  67. ^ Андерсон. «Машинная этика» . Проверено 27 июня 2011 года .
  68. ^ Андерсон, Майкл; Андерсон, Сьюзан Ли, ред. (Июль 2011 г.). Машинная этика . Издательство Кембриджского университета . ISBN 978-0-521-11235-2.
  69. ^ Андерсон, М .; Андерсон, С.Л. (июль 2006 г.). «Введение приглашенных редакторов: машинная этика». Интеллектуальные системы IEEE . 21 (4): 10–11. DOI : 10.1109 / mis.2006.70 . S2CID 9570832 . 
  70. ^ Андерсон, Майкл; Андерсон, Сьюзан Ли (15 декабря 2007 г.). «Машинная этика: создание этического интеллектуального агента». Журнал AI . 28 (4): 15. DOI : 10,1609 / aimag.v28i4.2065 .
  71. ^ Бойлз, Роберт Джеймс М. (2017). «Философские указатели для структур искусственного морального агента» . Сури . 6 (2): 92–109.
  72. Азимов, Исаак (2008). Я, робот . Нью-Йорк: Бантам. ISBN 978-0-553-38256-3.
  73. ^ Брайсон, Джоанна; Диамантис, Михайлис; Грант, Томас (сентябрь 2017 г.). «Для людей, для людей: правовой пробел синтетических лиц» . Искусственный интеллект и право . 25 (3): 273–291. DOI : 10.1007 / s10506-017-9214-9 .
  74. ^ «Принципы робототехники» . EPSRC Великобритании. Сентябрь 2010 . Проверено 10 января 2019 .
  75. ^ Эволюция роботов научиться лгать друг другу , Popular Science, 18 августа 2009
  76. ^ Science Новый финансируемый ВМФ отчет предупреждает о приближении боевых роботов к «Терминатору». Архивировано 28 июля 2009 г.в Wayback Machine Джейсоном Миком (блог), dailytech.com, 17 февраля 2009 г.
  77. ^ Исследование президентской группы AAAI по долгосрочным перспективам ИИ на 2008–2009 гг. , Ассоциация по развитию искусственного интеллекта, по состоянию на 26 июля 2009 г.
  78. ^ a b Марков, Джон (25 июля 2009 г.). «Ученые опасаются, что машины могут перехитрить человека» . Нью-Йорк Таймс .
  79. ^ Грядущая технологическая сингулярность: как выжить в постчеловеческую эру , Вернор Виндж, Департамент математических наук, Государственный университет Сан-Диего, (c) 1993 Вернор Виндж.
  80. ^ Статья в Asimovlaws.com архивной 24 мая 2012 года в Wayback Machine , июль 2004 года, доступ7/27/09.
  81. ^ a b Winfield, AF; Майкл, К .; Pitt, J .; Эверс, В. (март 2019 г.). «Машинная этика: разработка и управление этическим искусственным интеллектом и автономными системами [сканирование проблемы]» . Труды IEEE . 107 (3): 509–517. DOI : 10.1109 / JPROC.2019.2900622 . ISSN 1558-2256 . 
  82. ^ Al-Rodhan, Nayef (7 декабря 2015). «Моральный кодекс» .
  83. ^ Валлах, Венделл; Аллен, Колин (ноябрь 2008 г.). Моральные машины: обучение роботов правильно, а не неправильно . США: Издательство Оксфордского университета . ISBN 978-0-19-537404-9.
  84. ^ Бостром, Ник ; Юдковский, Элиэзер (2011). «Этика искусственного интеллекта» (PDF) . Кембриджский справочник по искусственному интеллекту . Cambridge Press .
  85. ^ Сантос-Лэнг, Крис (2002). «Этика искусственного интеллекта» .
  86. ^ Ховард, Аянна. «Регулирование ИИ - стоит ли беспокоиться организациям? | Аянна Ховард» . Обзор управления MIT Sloan . Проверено 14 августа 2019 .
  87. ^ a b Мюльхаузер, Люк и Луи Хельм. 2012. «Интеллектуальный взрыв и машинная этика» . В книге «Гипотезы сингулярности: научная и философская оценка» под редакцией Амнона Идена, Джонни Сёракера, Джеймса Х. Мура и Эрика Стейнхарта. Берлин: Springer.
  88. ^ a b Бостром, Ник. 2003. «Этические вопросы передового искусственного интеллекта» . В «Когнитивных, эмоциональных и этических аспектах принятия решений людьми и в искусственном интеллекте» под редакцией Ивы Смит и Джорджа Э. Ласкера, 12–17. Vol. 2. Виндзор, О. Н.: Международный институт перспективных исследований в области системных исследований / кибернетики.
  89. ^ Амбрелло, Стивен; Баум, Сет Д. (2018-06-01). «Оценка нанотехнологий будущего: чистое социальное воздействие производства атомарной точности» . Фьючерсы . 100 : 63–73. DOI : 10.1016 / j.futures.2018.04.007 . hdl : 2318/1685533 . ISSN 0016-3287 . 
  90. ^ Юдковский, Элиэзер. 2011. «Сложные системы ценностей в дружественном ИИ» . В Schmidhuber, Thórisson, and Looks 2011, 388–393.
  91. Рассел, Стюарт (8 октября 2019 г.). Совместимость с человеком: искусственный интеллект и проблема контроля . США: Викинг. ISBN 978-0-525-55861-3. OCLC  1083694322 .
  92. ^ Ямпольский, Роман В. (2020-03-01). «Непредсказуемость ИИ: О невозможности точно предсказать все действия более умного агента» . Журнал искусственного интеллекта и сознания . 07 (1): 109–118. DOI : 10.1142 / S2705078520500034 . ISSN 2705-0785 . 
  93. ^ Валлах, Венделл; Vallor, Шеннон (2020-09-17), "Моральные машины: От значения выравнивания воплощённых Добродетели" , этики искусственного интеллекта , Oxford University Press, стр 383-412,. DOI : 10,1093 / осо / 9780190905033.003.0014 , ISBN 978-0-19-090503-3, получено 2020-11-29
  94. ^ Амбрелло, Стивен (2019). «Выгодная координация искусственного интеллекта посредством подхода к проектированию с учетом ценности» . Большие данные и когнитивные вычисления . 3 (1): 5. DOI : 10,3390 / bdcc3010005 .
  95. ^ Флориди, Лучано; Cowls, Джош; King, Thomas C .; Таддео, Мариаросария (2020). «Как разработать ИИ для социального блага: семь основных факторов» . Наука и инженерная этика . 26 (3): 1771–1796. DOI : 10.1007 / s11948-020-00213-5 . ISSN 1353-3452 . PMC 7286860 . PMID 32246245 .   
  96. ^ Fiegerman, Сет (28 сентября 2016). «Facebook, Google, Amazon создают группу, чтобы облегчить беспокойство по поводу ИИ» . CNNMoney .
  97. ^ «Руководящие принципы этики для надежного ИИ» . Формируя цифровое будущее Европы - Европейская комиссия . Европейская комиссия. 2019-04-08 . Проверено 20 февраля 2020 .
  98. ^ Белая книга по искусственному интеллекту: европейский подход к совершенству и доверию . Брюссель: Европейская комиссия. 2020.
  99. ^ «Запрос комментариев к проекту меморандума руководителям исполнительных департаментов и агентств,« Руководство по регулированию приложений искусственного интеллекта » » . Федеральный регистр . 2020-01-13 . Проверено 28 ноября 2020 .
  100. ^ «CCC предлагает проект 20-летней дорожной карты AI; ищет комментарии» . HPCwire . 2019-05-14 . Проверено 22 июля 2019 .
  101. ^ «Запросите комментарии к черновику: 20-летняя дорожная карта сообщества для исследований ИИ в США» Блог CCC » . Проверено 22 июля 2019 .
  102. Грейс, Катя; Сальватье, Джон; Дефо, Аллан; Чжан, Баобао; Эванс, Оуэн (2018-05-03). «Когда ИИ превзойдет человеческие возможности? Данные экспертов по ИИ». arXiv : 1705.08807 [ cs.AI ].
  103. ^ «Китай хочет сформировать глобальное будущее искусственного интеллекта» . MIT Technology Review . Проверено 29 ноября 2020 .
  104. ^ Флориди, Лучано; Cowls, Джош; Бельтраметти, Моника; Чатила, Раджа; Хазеранд, Патрис; Дигнум, Вирджиния; Люэдж, Кристоф; Мадлен, Роберт; Пагалло, Уго; Росси, Франческа; Шафер, Буркхард (2018-12-01). «AI4People - этические рамки для хорошего общества искусственного интеллекта: возможности, риски, принципы и рекомендации» . Умы и машины . 28 (4): 689–707. DOI : 10.1007 / s11023-018-9482-5 . ISSN 1572-8641 . PMC 6404626 . PMID 30930541 .   
  105. ^ Выживание в век машин: интеллектуальные технологии и преобразование человеческого труда . Хьюз, Джеймс Дж., ЛаГрандер, Кевин. Чам, Швейцария. 15 марта 2017 г. ISBN 978-3-319-51165-8. OCLC  976407024 .CS1 maint: другие ( ссылка )
  106. ^ Данахер, Джон. Автоматизация и утопия: процветание человека в мире без работы . Кембридж, Массачусетс. ISBN 978-0-674-24220-3. OCLC  1114334813 .
  107. ^ Сет Д. Баум, 2017. Обзор проектов общего искусственного интеллекта для этики, рисков и политики. Рабочий документ Института глобального риска катастроф 17-1.
  108. ^ "Институт этики искусственного интеллекта ТУМ официально открыт" . www.tum.de . Проверено 29 ноября 2020 .
  109. ^ "Black in ai: Black in ai Последние новости, фото и видео" . Hindustan Times Tech . Проверено 18 января 20 .
  110. ^ "Запуск нового научно-исследовательского института искусственного интеллекта" . 2017-11-20 . Проверено 21 февраля 2021 .
  111. ^ Рассказы AI: история образного мышления об интеллектуальных машинах . Кейв, Стивен, Дихал, Канта, Диллон, Сара (Первое изд.). Оксфорд. 14 февраля 2020 г. ISBN 978-0-19-258604-9. OCLC  1143647559 .CS1 maint: другие ( ссылка )
  112. ^ Jerreat-Poole, Адам (1 февраля 2020). «Больной, медленный, киборг: критическое будущее в Mass Effect» . Игровые исследования . 20 . ISSN 1604-7982 . 
  113. ^ Cerqui, Даниэла; Уорик, Кевин (2008), «Перепроектирование человечества: восстание киборгов, желаемая цель?» , Философия и дизайн , Дордрехт: Springer, Нидерланды, стр. 185–195, DOI : 10.1007 / 978-1-4020-6591-0_14 , ISBN 978-1-4020-6590-3, получено 11.11.2020
  114. ^ Пещера, Стивен; Дихал, Канта (6 августа 2020 г.). «Белизна AI». Философия и технологии . 33 (4): 685–703. DOI : 10.1007 / s13347-020-00415-6 .

Внешние ссылки [ править ]

  • Этика искусственного интеллекта и робототехники в Стэнфордской энциклопедии философии
  • Russell, S .; Hauert, S .; Альтман, Р .; Велозу, М. (май 2015 г.). «Робототехника: этика искусственного интеллекта». Природа . 521 (7553): 415–418. Bibcode : 2015Natur.521..415. . DOI : 10.1038 / 521415a . PMID  26017428 . S2CID  4452826 .
  • BBC News: Игры, чтобы жить собственной жизнью
  • Кто боится роботов? , статья о страхе человечества перед искусственным интеллектом.
  • Краткая история компьютерной этики
  • Рекомендации по этике ИИ Global Inventory by Algorithmwatch
  • Хагендорф, Тило (март 2020 г.). «Этика этики искусственного интеллекта: оценка руководящих принципов». Умы и машины . 30 (1): 99–120. DOI : 10.1007 / s11023-020-09517-8 . S2CID  72940833 .