Из Википедии, бесплатной энциклопедии
  (Перенаправлен с прав робота )
Перейти к навигации Перейти к поиску

В этике искусственного интеллекта является ветвью этики технологий , специфичных для искусственно интеллектуальных систем. [1] Иногда его разделяют на озабоченность моральным поведением людей при проектировании, изготовлении, использовании и лечении систем с искусственным интеллектом и озабоченность поведением машин в машинной этике . Это также включает проблему возможной сингулярности из-за сверхразумного ИИ .

Этика роботов [ править ]

Термин «этика роботов» (иногда «робоэтика») относится к морали того, как люди проектируют, конструируют, используют и обращаются с роботами. [2] Этика роботов пересекается с этикой ИИ. Роботы - это физические машины, тогда как ИИ может быть только программным обеспечением. [3] Не все роботы работают через системы ИИ, и не все системы ИИ являются роботами. Этика роботов рассматривает, как машины могут быть использованы для вреда или для пользы людей, их влияние на индивидуальную автономию и их влияние на социальную справедливость.

Угроза человеческому достоинству [ править ]

Джозеф Вайценбаум в 1976 году утверждал, что технологии искусственного интеллекта не должны использоваться для замены людей на должностях, требующих уважения и заботы, таких как:

  • Представитель службы поддержки клиентов (технология искусственного интеллекта уже используется сегодня для телефонных интерактивных систем голосового ответа )
  • Терапевт (как было предложено Кеннетом Колби в 1970-х годах)
  • Няня для престарелых (как сообщила Памела МакКордак в своей книге «Пятое поколение» )
  • Солдат
  • Судья
  • Полицейский

Вайценбаум объясняет, что нам требуется подлинное чувство сочувствия от людей, занимающих эти должности. Если машины заменят их, мы окажемся отчужденными, обесцененными и разочарованными, поскольку система с искусственным интеллектом не сможет имитировать сочувствие. Искусственный интеллект, если его использовать таким образом, представляет угрозу человеческому достоинству. Вайценбаум утверждает, что тот факт, что мы допускаем возможность использования машин в этих положениях, предполагает, что мы испытали «атрофию человеческого духа, которая возникает из-за того, что мы думаем о себе как о компьютерах». [4]

Памела МакКордак возражает, что, выступая от имени женщин и меньшинств, «я предпочитаю рискнуть с помощью беспристрастного компьютера», указывая на то, что есть условия, при которых мы предпочли бы иметь автоматизированных судей и полицию, у которых вообще нет личных интересов. [4] Однако Каплан и Хенлайн подчеркивают, что системы искусственного интеллекта настолько умны, насколько умны данные, используемые для их обучения, поскольку они, по своей сути, являются не чем иным, как причудливыми машинами для подгонки кривых; Использование ИИ для поддержки решения суда может быть очень проблематичным, если прошлые постановления демонстрируют предвзятость по отношению к определенным группам, поскольку эти предубеждения формализуются и укореняются, что делает их еще более трудными для выявления и борьбы с ними. [5] Основатель ИИ Джон Маккартивозражает против морализаторского тона критики Вейценбаума. «Когда морализаторство одновременно неистово и расплывчато, оно вызывает авторитарные злоупотребления», - пишет он.

Билл Хиббард [6] пишет, что «Человеческое достоинство требует, чтобы мы стремились устранить наше незнание природы существования, и ИИ необходим для этого стремления».

Прозрачность, подотчетность и открытый исходный код [ править ]

Билл Хиббард утверждает, что, поскольку ИИ окажет такое глубокое влияние на человечество, разработчики ИИ являются представителями человечества будущего и, таким образом, несут этическое обязательство быть прозрачными в своих усилиях. [7] Бен Герцель и Дэвид Харт создали OpenCog как платформу с открытым исходным кодом для разработки ИИ. [8] OpenAI - это некоммерческая исследовательская компания по ИИ, созданная Илоном Маском , Сэмом Альтманом и другими для разработки ИИ с открытым исходным кодом на благо человечества. [9] Существует множество других разработок ИИ с открытым исходным кодом.

К сожалению, создание кода с открытым исходным кодом не делает его понятным, что по многим определениям означает, что код ИИ непрозрачен. IEEE имеет усилия по стандартизации по обеспечению прозрачности AI. [10] IEEE определяет несколько уровней прозрачности для разных пользователей. Кроме того, есть опасения, что раскрытие всех возможностей современного ИИ некоторым организациям может быть общественным злом, то есть причинить больше вреда, чем пользы. Например, Microsoft выразила озабоченность по поводу предоставления универсального доступа к своему программному обеспечению для распознавания лиц даже для тех, кто может за него заплатить. Microsoft опубликовала необычный блог на эту тему, в котором просила правительственное регулирование помочь определить, что нужно делать. [11]

Не только компании, но и многие другие исследователи и гражданские защитники рекомендуют государственное регулирование как средство обеспечения прозрачности и, следовательно, подотчетности людей. Эта стратегия оказалась противоречивой, поскольку некоторые опасаются, что она замедлит темпы инноваций. Другие утверждают, что регулирование приводит к системной стабильности, более способной поддерживать инновации в долгосрочной перспективе. [12] ОЭСР , ООН , ЕС , и многие страны в настоящее время разрабатывают стратегии для регулирования ИИ, а также найти соответствующие правовые рамки. [13] [14] [15]

26 июня 2019 года Группа экспертов высокого уровня Европейской комиссии по искусственному интеллекту (AI HLEG) опубликовала свои «Политические и инвестиционные рекомендации для надежного искусственного интеллекта». [16] Это второй результат AI HLEG после публикации в апреле 2019 г. «Руководящих принципов по этике надежного ИИ». Июньские рекомендации AI HLEG охватывают четыре основных темы: люди и общество в целом, исследования и академические круги, частный сектор и государственный сектор. Европейская комиссия утверждает, что «рекомендации ГЭВУ отражают оценку как возможностей технологий ИИ для стимулирования экономического роста, процветания и инноваций, так и потенциальных рисков», и заявляет, что ЕС стремится возглавить разработку политики, регулирующей ИИ. на международном уровне.[17]

Предубеждения в системах ИИ [ править ]

Воспроизвести медиа
Вице-президент США Камала Харрис говорит о расовой предвзятости в искусственном интеллекте.

ИИ все чаще используется в системах распознавания лиц и голоса . Некоторые из этих систем имеют реальные бизнес-приложения и напрямую влияют на людей. Эти системы уязвимы для предубеждений и ошибок, вносимых их создателями-людьми. Кроме того, данные, используемые для обучения этих систем ИИ, могут иметь предвзятость. [18] [19] [20] [21] Например, все алгоритмы распознавания лиц , разработанные Microsoft, IBM и Face ++, имели предубеждения, когда дело касалось определения пола людей; [22]Эти системы искусственного интеллекта смогли определить пол белых мужчин более точно, чем пол мужчин с более темной кожей. Кроме того, в исследовании 2020 года, посвященном системам распознавания голоса от Amazon, Apple, Google, IBM и Microsoft, было обнаружено, что они имеют более высокий процент ошибок при расшифровке голосов чернокожих людей, чем белые. [23] Кроме того, Amazon прекратила использование ИИ для найма и найма, потому что алгоритм отдавал предпочтение кандидатам-мужчинам, а не женщинам. Это произошло потому, что система Amazon была обучена с использованием данных, собранных за 10-летний период, которые поступали в основном от кандидатов-мужчин. [24]

Предвзятость может закрасться в алгоритмы разными способами. Например, Фридман и Ниссенбаум выделяют три категории предвзятости в компьютерных системах: существующая предвзятость, техническая предвзятость и возникающая предвзятость. [25] В очень влиятельной ветви ИИ, известной как «обработка естественного языка», проблемы могут возникать из-за «корпуса текста» - исходного материала, который алгоритм использует для изучения взаимосвязей между различными словами. [26]

Крупные компании, такие как IBM, Google и т. Д., Приложили усилия для исследования и устранения этих предубеждений. [27] [28] [29] Одним из решений устранения предвзятости является создание документации для данных, используемых для обучения систем искусственного интеллекта. [30] [31]

Проблема предвзятости в машинном обучении, вероятно, станет более серьезной по мере того, как технология распространяется в критически важные области, такие как медицина и право, и поскольку все больше людей без глубоких технических знаний получают задание развернуть ее. Некоторые эксперты предупреждают, что алгоритмическая предвзятость уже широко распространена во многих отраслях и что почти никто не пытается ее выявить или исправить. [32] Существуют некоторые инструменты с открытым исходным кодом [33] от гражданского общества, которые стремятся повысить осведомленность о предвзятом ИИ.

Ответственность за беспилотные автомобили [ править ]

Поскольку повсеместное использование автономных автомобилей становится все более неизбежным, необходимо решать новые проблемы, возникающие в связи с полностью автономными транспортными средствами. [34] [35] Недавно [ когда? ] ведутся дебаты относительно юридической ответственности ответственной стороны, если эти автомобили попадут в аварию. [36] [37] В одном отчете, где беспилотный автомобиль наехал на пешехода, водитель находился внутри автомобиля, но управление полностью находилось в руках компьютеров. Это привело к дилемме, кто виноват в аварии. [38]

В другом инциденте 19 марта 2018 года Элейн Херцберг была сбита беспилотным Uber в Аризоне. В этом случае автоматизированный автомобиль был способен обнаруживать автомобили и определенные препятствия, чтобы автономно перемещаться по проезжей части, но не мог предвидеть пешехода посреди дороги. Это подняло вопрос о том, кто должен нести ответственность за ее смерть: водителя, пешехода, автомобильную компанию или правительство. [39]

В настоящее время беспилотные автомобили считаются полуавтономными, поэтому от водителя требуется внимание и готовность взять на себя управление в случае необходимости. [40] [ неудавшаяся проверка ] Таким образом, регулирование драйвера, чрезмерно полагающегося на автономные функции, ложится на правительства. а также объясните им, что это всего лишь технологии, которые, хотя и удобны, не могут полностью заменить их. Прежде чем автономные автомобили получат широкое распространение, эти проблемы необходимо решить с помощью новой политики. [41] [42] [43]

Вооружение искусственного интеллекта [ править ]

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда таким роботам предоставляется некоторая степень автономии. [44] [45] 31 октября 2019 года Совет по инновациям в обороне Министерства обороны США опубликовал проект отчета, в котором рекомендованы принципы этичного использования искусственного интеллекта Министерством обороны, которые гарантируют, что человек-оператор всегда будет способен заглянуть в «черный ящик» и понять процесс kill-chain. Однако серьезную озабоченность вызывает то, как отчет будет реализован. [46] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения.[47] [48] Некоторые исследователи утверждают, что автономные роботы могут быть более гуманными, поскольку они могут принимать решения более эффективно. [49]

В течение последнего десятилетия проводились интенсивные исследования автономной власти с возможностью учиться, используя возложенные моральные обязанности. «Результаты могут быть использованы при разработке будущих военных роботов, чтобы контролировать нежелательные тенденции и возложить ответственность на роботов». [50] С консеквенциалистской точки зрения, есть шанс, что у роботов разовьется способность принимать собственные логические решения о том, кого убивать, и поэтому должны быть установлены моральные рамки, которые ИИ не может преодолеть. [51]

В последнее время возникла критика в отношении разработки оружия искусственного интеллекта, которое включает в себя идеи о захвате человечества роботами. Оружие искусственного интеллекта действительно представляет собой тип опасности, отличный от оружия, управляемого человеком. Многие правительства начали финансировать программы по разработке оружия искусственного интеллекта. ВМС США недавно объявили о планах разработки автономных дронов , параллельно с аналогичными заявлениями России и Кореи соответственно. Из-за того, что оружие ИИ может стать более опасным, чем оружие, управляемое людьми, Стивен Хокинг и Макс Тегмарк подписали петицию «Будущее жизни» [52]запретить ИИ-оружие. В сообщении, опубликованном Хокингом и Тегмарком, говорится, что оружие искусственного интеллекта представляет непосредственную опасность и что необходимо принять меры, чтобы избежать катастрофических бедствий в ближайшем будущем. [53]

«Если какая-либо крупная военная держава продвинется вперед с разработкой оружия искусственного интеллекта, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономное оружие станет автоматами Калашникова завтрашнего дня», - говорится в петиции, в которую входит соавтор Skype. - основатель Яан Таллинн и профессор лингвистики Массачусетского технологического института Ноам Хомски в качестве дополнительных сторонников борьбы с оружием искусственного интеллекта. [54]

Королевский физик и астроном сэр Мартин Рис предупреждал о таких катастрофических случаях, как «тупые роботы-мошенники или сеть, развивающая собственный разум». Хью Прайс , коллега Риса из Кембриджа, высказал аналогичное предупреждение о том, что люди могут не выжить, когда интеллект «выйдет из ограничений биологии». Эти два профессора создали Центр изучения рисков для существования в Кембриджском университете в надежде избежать этой угрозы человеческому существованию. [53]

Что касается возможности использования в военных целях более разумных, чем человеческих, систем, Open Philanthropy Project пишет, что эти сценарии «кажутся потенциально такими же важными, как и риски, связанные с потерей контроля», но исследования, изучающие долгосрочное социальное воздействие ИИ, потратили относительно мало времени на эту проблему: «этот класс сценариев не был основным фокусом для организаций, которые были наиболее активны в этой области, таких как Исследовательский институт машинного интеллекта (MIRI) и Институт будущего человечества (FHI), и похоже, что по ним было меньше анализа и споров ". [55]

Машинная этика [ править ]

Машинная этика (или машинная мораль) - это область исследований, связанная с разработкой искусственных моральных агентов (AMA), роботов или компьютеров с искусственным интеллектом, которые ведут себя морально или как если бы морально. [56] [57] [58] [59] Для того, чтобы объяснить природу этих агентов, было предложено рассмотреть некоторые философские идеи, такие как стандартные характеризации агентства , рациональное агентство , моральное агентство и искусственное агентство, которые связанных с концепцией AMA. [60]

Айзек Азимов рассматривал эту проблему в 1950-х годах в своей книге «Я, робот» . По настоянию своего редактора Джона У. Кэмпбелла-младшего он предложил Три закона робототехники для управления системами с искусственным интеллектом. Затем большая часть его работы была потрачена на проверку границ трех его законов, чтобы увидеть, где они нарушатся, а где приведут к парадоксальному или непредвиденному поведению. Его работа предполагает, что никакой набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства. [61] Совсем недавно ученые и многие правительства оспорили идею о том, что ИИ сам может нести ответственность. [62] Группа, созванная Соединенным Королевством.в 2010 году были внесены поправки в законы Азимова, разъясняющие, что ответственность за ИИ несет либо его производитель, либо его владелец / оператор. [63]

В 2009 году во время эксперимента в Лаборатории интеллектуальных систем Федеральной политехнической школы Лозанны в Швейцарии роботы, которые были запрограммированы на сотрудничество друг с другом (в поиске полезного ресурса и избегании ядовитого), в конечном итоге научились лгать каждому. другой в попытке накопить полезный ресурс. [64]

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда таким роботам дается некоторая степень автономности. [44] ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. [65] [48] Президент Ассоциации по развитию искусственного интеллекта заказал исследование, чтобы изучить этот вопрос. [66] Они указывают на такие программы, как Language Acquisition Device, которые могут имитировать человеческое взаимодействие.

Вернор Виндж предположил, что может наступить момент, когда некоторые компьютеры умнее людей. Он называет это « сингулярностью ». [67] Он предполагает, что это может быть несколько или, возможно, очень опасно для человека. [68] Это обсуждается философией под названием сингулярность . Разведки научно - исследовательский институт Machine предложил необходимость создания « Дружественный ИИ », а это означает , что достижения , которые уже происходят с ИИ должны также включать в себя усилие , чтобы сделать AI внутренне дружелюбным и гуманным. [69]

Обсуждается создание тестов, чтобы увидеть, способен ли ИИ принимать этические решения . Алан Уинфилд приходит к выводу, что тест Тьюринга ошибочен, и требования к ИИ для его прохождения слишком низки. [70] Предлагаемый альтернативный тест называется этическим тестом Тьюринга, который улучшит текущий тест, если несколько судей решат, является ли решение ИИ этичным или неэтичным. [70]

В 2009 году ученые и технические эксперты приняли участие в конференции, организованной Ассоциацией по развитию искусственного интеллекта.обсудить потенциальное влияние роботов и компьютеров и влияние гипотетической возможности того, что они могут стать самодостаточными и иметь возможность принимать свои собственные решения. Они обсудили возможность и степень, в которой компьютеры и роботы могут получить любой уровень автономии, и в какой степени они могут использовать такие способности, чтобы, возможно, представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли «тараканьего интеллекта». Они отметили, что самосознание, описанное в научной фантастике, вероятно, маловероятно, но есть и другие потенциальные опасности и подводные камни.[67]

Однако есть одна конкретная технология, которая действительно может воплотить в реальность возможность роботов, обладающих моральными качествами. В статье о приобретении роботами моральных ценностей Найеф Аль-Родхан упоминает случай нейроморфных чипов, которые стремятся обрабатывать информацию аналогично людям, нелинейно и с помощью миллионов взаимосвязанных искусственных нейронов. [71] Роботы со встроенными нейроморфными технологиями могут учиться и развивать знания уникальным человеческим способом. Неизбежно возникает вопрос об окружающей среде, в которой такие роботы будут узнавать об окружающем мире и чью мораль они унаследуют - или если они в конечном итоге разовьют человеческие `` слабости '': эгоизм, стремление к выживанию, колебания и т. Д.

В нравственном машин: Обучение роботов правильное от неправильного , [72] Уэнделл Уоллах и Колин Аллен вывод о том , что попытки научить роботов правильное от неправильного, скорее всего , заранее понимание человеческой этики, мотивируя людей к зазорами адресными в современной нормативной теории и предоставляя платформу для экспериментальное исследование. В качестве одного из примеров он познакомил специалистов по нормативной этике с противоречивым вопросом о том, какие конкретные алгоритмы обучения использовать в машинах. Ник Бостром и Элиэзер Юдковски выступали за деревья решений (например, ID3 ) над нейронными сетями и генетическими алгоритмами.на том основании, что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости (например, stare decisis ) [73], в то время как Крис Сантос-Ланг утверждал в противоположном направлении на том основании, что нормы любого возраста должны изменяться и что естественные несоблюдение этих конкретных норм было существенным для того, чтобы сделать людей менее уязвимыми для преступных « хакеров ». [74]

Согласно отчету Центра управления ИИ при Оксфордском университете за 2019 год, 82% американцев считают, что с роботами и ИИ нужно тщательно обращаться. Вызываемые опасения варьировались от того, как ИИ используется в наблюдении и распространении поддельного контента в Интернете (известные как глубокие подделки, когда они включают в себя подделанные видеоизображения и звук, созданные с помощью ИИ), до кибератак, нарушений конфиденциальности данных, предвзятого отношения к найму, автономных транспортных средств и дроны, которым не нужен человеческий контроллер. [75]

Сингулярность [ править ]

Многие исследователи утверждали, что благодаря «взрыву интеллекта» самосовершенствующийся ИИ может стать настолько мощным, что люди не смогут помешать ему достичь своих целей. [76] В своей статье «Этические проблемы передового искусственного интеллекта» и последующей книге « Суперинтеллект: пути, опасности, стратегии» философ Ник Бостром утверждает, что искусственный интеллект способен привести к вымиранию человечества. Он утверждает, что общий суперинтеллектбыл бы способен к независимой инициативе и строить свои собственные планы, и поэтому его уместнее было бы рассматривать как автономного агента. Поскольку искусственный интеллект не обязательно разделяет наши человеческие мотивационные тенденции, разработчики суперинтеллекта должны определить его исходные мотивы. Поскольку суперинтеллектуальный ИИ способен вызвать практически любой возможный результат и помешать любой попытке помешать реализации его целей, может возникнуть множество неконтролируемых непредвиденных последствий . Он может убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства. [77]

Однако вместо того, чтобы подавить человечество и привести к нашему уничтожению, Бостром также утверждал, что суперинтеллект может помочь нам решить многие сложные проблемы, такие как болезни, бедность и разрушение окружающей среды, и может помочь нам «улучшить» себя. [78]

Совершенная сложность систем человеческих ценностей делает очень трудным сделать мотивацию ИИ понятной для человека. [76] [77] Если моральная философия не предоставит нам безупречную этическую теорию, функция полезности ИИ может допускать множество потенциально вредных сценариев, которые соответствуют данной этической структуре, но не «здравому смыслу». Согласно Элиэзеру Юдковски , нет особых оснований предполагать, что искусственно созданный разум будет иметь такую ​​адаптацию. [79] Исследователи искусственного интеллекта, такие как Стюарт Дж. Рассел , [80] Билл Хиббард , [6] Роман Ямпольский , [81] Шеннон Валлор , [82] Стивен Амбрелло[83] и Лучано Флориди [84] предложили стратегии проектирования для разработки полезных машин.

Организации по этике ИИ [ править ]

Существует множество организаций, занимающихся этикой и политикой в ​​области ИИ, как государственных и государственных, так и корпоративных и общественных.

Amazon , Google , Facebook , IBM и Microsoft создали некоммерческое партнерство, чтобы сформулировать передовой опыт в области технологий искусственного интеллекта, повысить осведомленность общественности и служить платформой для искусственного интеллекта. Apple присоединилась к компании в январе 2017 года. Корпоративные члены будут вносить финансовые и исследовательские вклады в группу, одновременно взаимодействуя с научным сообществом, чтобы привлечь ученых в совет. [85]

IEEE сколотить Глобальную инициативу по этике автономных и интеллектуальных систем , которая занимается созданием и пересматривают принципы с помощью публичного ввода, и принимает в качестве членов многих специалистов извне и изнутри его организации.

Традиционно, правительство используется обществами для обеспечения этика наблюдается в рамках законодательства и правопорядка. В настоящее время национальные правительства, а также транснациональные правительственные и неправительственные организации прилагают много усилий для обеспечения этичного применения ИИ.

  • Европейская комиссия имеет группу экспертов высокого уровня по искусственному интеллекту. 8 апреля 2019 года были опубликованы «Принципы этики надежного искусственного интеллекта». [86] Европейская комиссия также имеет отдел инноваций и совершенства в области робототехники и искусственного интеллекта, который 19 февраля 2020 года опубликовал официальный документ о совершенстве и доверии к инновациям в области искусственного интеллекта. [87]
  • ОЭСР создана обсерватория ОЭСР политики AI. [88]
  • В Соединенных Штатах Обама администрация собрать дорожную карту для AI политики. [89] Администрация Обамы опубликовала два важных официальных документа о будущем и влиянии ИИ. В 2019 году Белый дом в служебной записке, известной как «Американская инициатива в области ИИ», поручил NIST (Национальному институту стандартов и технологий) начать работу над федеральным взаимодействием по стандартам ИИ (февраль 2019 года). [90]
  • В январе 2020 года в Соединенных Штатах администрация Трампа опубликовала проект распоряжения Управления управления и бюджета (OMB) о «Руководстве по регулированию приложений искусственного интеллекта» («Меморандум OMB AI»). необходимо инвестировать в приложения ИИ, повысить общественное доверие к ИИ, снизить барьеры для использования ИИ и сохранить конкурентоспособность американских технологий ИИ на мировом рынке. Есть намек на необходимость заботы о конфиденциальности, но никаких дополнительных подробностей о правоприменении. Достижения американской технологии искусственного интеллекта, кажется, находятся в центре внимания и приоритете. Кроме того, федеральные органы даже поощряются использовать приказ, чтобы обходить любые законы и постановления штата, которые рынок может счесть слишком обременительными для выполнения. [91]
  • Computing Community Consortium (CCC) взвешивают с 100-плюс страница проекта доклада [92] - 20-летний Сообщество Дорожная карта для искусственного интеллекта исследований в США [93]
  • Центр по безопасности и Emerging Technology советует политикам о последствиях безопасности новых технологий , таких как AI.
  • В Оксфордском университете есть три исследовательских института, которые занимаются этикой ИИ. Институт будущего человечества , специализирующийся как на безопасности искусственного интеллекта [94], так и на управлении искусственным интеллектом. [95] Институт этики ИИ, возглавляемый Джоном Тасиулас , чья основная цель, среди прочего, состоит в том, чтобы продвигать этику ИИ как собственно область по сравнению с соответствующими областями прикладной этики. Internet Institute Oxford , режиссер Лучано Флориди , фокусируется на этике ближайших технологий и ИКТ ИИ. [96]
  • Институт этики и новых технологий (IEET) исследует влияние ИИ на безработицу, [97] [98] и политики.
  • Институт по этике в области искусственного интеллекта (IEAI) в Мюнхенском техническом университете под руководством Кристофа Lütge проводит исследования в различных областях , таких как мобильность, занятость, здравоохранение и устойчивость. [99]
  • Сейчас институт AI в Нью - Йоркском университете является научно - исследовательским институтом изучения социальных последствий искусственного интеллекта. Его междисциплинарные исследования сосредоточены на темах предвзятости и инклюзивности, труда и автоматизации, прав и свобод, а также безопасности и гражданской инфраструктуры. [100]

В художественной литературе [ править ]

Фильм «Тринадцатый этаж» предлагает будущее, в котором симулированные миры с разумными обитателями создаются компьютерными игровыми консолями для развлечения. Фильм «Матрица» предлагает будущее, в котором доминирующими видами на планете Земля будут разумные машины, а к человечеству будут относиться с предельным видением . Рассказ « Планковское погружение » предлагает будущее, в котором человечество превратилось в программное обеспечение, которое можно дублировать и оптимизировать, и уместное различие между типами программного обеспечения является разумным и неразумным. Та же мысль можно найти в экстренной медицинской Голограмма из Starship Voyager, который, по-видимому, является разумной копией сокращенного подмножества сознания его создателя, доктора Циммермана , который из лучших побуждений создал систему для оказания медицинской помощи в экстренных случаях. Фильмы « Двухсотлетний человек» и « ИИ» рассказывают о возможности разумных роботов, которые могут любить. Я, Робот, исследовал некоторые аспекты трех законов Азимова. Все эти сценарии пытаются предвидеть возможные неэтичные последствия создания разумных компьютеров. [101]

Этика искусственного интеллекта - одна из нескольких ключевых тем в серии игр Mass Effect от BioWare . [102] Он исследует сценарий цивилизации, случайно создающей ИИ посредством быстрого увеличения вычислительной мощности с помощью нейронной сети глобального масштаба . Это событие вызвало этический раскол между теми, кто считал, что наделение органических прав только что разумных гетов целесообразно, и теми, кто продолжал рассматривать их как одноразовые механизмы и боролись за их уничтожение. Помимо первоначального конфликта, сложность отношений между машинами и их создателями - еще одна постоянная тема на протяжении всей истории.

Со временем дебаты фокусировались все меньше и меньше на возможности и больше на желательность , [103] , как подчеркивается в «космистов» и «землян» дебаты по инициативе Де Гарис и Кевин Уорвик . Космист, согласно Уго де Гарису, на самом деле стремится создать более разумных преемников человеческого вида.

Эксперты Кембриджского университета утверждают, что ИИ изображается в художественной и документальной литературе исключительно как расовый Белый, что искажает представление о его рисках и преимуществах. [104]

См. Также [ править ]

  • Захват искусственного интеллекта
  • Алгоритмическая предвзятость
  • Искусственное сознание
  • Общий искусственный интеллект (AGI)
  • Компьютерная этика
  • Эффективный альтруизм, долгосрочное будущее и глобальные катастрофические риски
  • Экзистенциальный риск от общего искусственного интеллекта
  • Совместимость с человеком
  • Законы робототехники
  • Философия искусственного интеллекта
  • Регулирование искусственного интеллекта
  • Робоэтика
  • Роботизированное управление
  • Сверхразум: пути, опасности, стратегии
Исследователи
  • Тимнит Гебру
  • Джой Буоламвини
  • Элисон Адам
  • Сет Баум
  • Ник Бостром
  • Джоанна Брайсон
  • Кейт Кроуфорд
  • Кейт Дарлинг
  • Лучано Флориди
  • Аня Касперсен
  • Рэй Курцвейл
  • Екатерина Малабу
  • Аджунг Мун
  • Винсент К. Мюллер
  • Питер Норвиг
  • Стив Омохундро
  • Стюарт Дж. Рассел
  • Андерс Сандберг
  • Мариаросария Таддео
  • Джон Тасиулас
  • Стивен Амбрелло
  • Роман Ямпольский
  • Элиэзер Юдковски
Организации
  • Центр искусственного интеллекта, совместимого с человеком
  • Центр безопасности и новых технологий
  • Центр изучения экзистенциального риска
  • Институт будущего человечества
  • Институт будущего жизни
  • Научно-исследовательский институт машинного интеллекта
  • Партнерство по ИИ
  • Leverhulme Center for the Future of Intelligence
  • Институт этики и новых технологий
  • Оксфордский институт Интернета

Заметки [ править ]

  1. Мюллер, Винсент К. (30 апреля 2020 г.). «Этика искусственного интеллекта и робототехники» . Стэнфордская энциклопедия философии . Архивировано 10 октября 2020 года . Проверено 26 сентября 2020 .
  2. ^ Veruggio, Gianmarco (2011). «Дорожная карта Робоэтики». ЕВРОН Робоэтика Ателье . Робототехническая школа: 2. CiteSeerX 10.1.1.466.2810 . 
  3. ^ Мюллер, Винсент С. (2020), Залта, Эдвард Н. (редактор), «Этика искусственного интеллекта и робототехники» , Стэнфордская энциклопедия философии (изд. Зима 2020 г.), Исследовательская лаборатория метафизики, Стэнфордский университет , извлечено в 2021 г. -03-18
  4. ^ a b Джозеф Вейценбаум , цитируется в McCorduck 2004 , стр. 356, 374–376 [ требуется полная ссылка ]
  5. ^ Каплан, Андреас; Хенлайн, Майкл (январь 2019). «Siri, Siri, в моей руке: кто самый справедливый в стране? Об интерпретации, иллюстрациях и значениях искусственного интеллекта». Бизнес-горизонты . 62 (1): 15–25. DOI : 10.1016 / j.bushor.2018.08.004 .
  6. ^ a b Хиббард, Билл (17 ноября 2015 г.). «Этический искусственный интеллект». arXiv : 1411.1373 [ cs.AI ].
  7. ^ Открытый исходный код AI. Архивировано 4 марта 2016 года на Wayback Machine Билла Хиббарда. Материалы Первой конференции по общему искусственному интеллекту, 2008 г., ред. Пей Ван, Бен Гертцель и Стэн Франклин.
  8. ^ OpenCog: программная структура для интегративного общего искусственного интеллекта. Архивировано 4 марта 2016 года в Wayback Machine Дэвидом Харт и Беном Гертцеля. Материалы Первой конференции по общему искусственному интеллекту, 2008 г., ред. Пей Ван, Бен Гертцель и Стэн Франклин.
  9. ^ Внутри OpenAI, Дикий план Илона Маска по освобождению искусственного интеллекта, Архивировано 27 апреля 2016 г.на Wayback Machine Cade Metz, Wired 27 апреля 2016 г.
  10. ^ «P7001 - Прозрачность автономных систем» . P7001 - Прозрачность автономных систем . IEEE. Архивировано 10 января 2019 года . Проверено 10 января 2019 ..
  11. ^ Thurm, Скотт (13 июля 2018). «МАЙКРОСОФТ ОБРАЩАЕТСЯ В ФЕДЕРАЛЬНОЕ РЕГУЛИРОВАНИЕ РАСПОЗНАВАНИЯ ЛИЦА» . Проводной . Архивировано 9 мая 2019 года . Проверено 10 января 2019 года .
  12. ^ Бастин, Роланд; Wantz, Жорж (июнь 2017 г.). «Общие правила защиты данных Межотраслевые инновации» (PDF) . Внутри журнала . Делойт. Архивировано (PDF) из оригинала 10.01.2019 . Проверено 10 января 2019 .
  13. ^ «Саммит ООН по искусственному интеллекту нацелен на борьбу с бедностью,« грандиозными проблемами » человечества » . Новости ООН . 2017-06-07. Архивировано 26 июля 2019 года . Проверено 26 июля 2019 .
  14. ^ «Искусственный интеллект - Организация экономического сотрудничества и развития» . www.oecd.org . Архивировано 22 июля 2019 года . Проверено 26 июля 2019 .
  15. ^ Аноним (2018-06-14). «Европейский альянс искусственного интеллекта» . Единый цифровой рынок - Европейская комиссия . Архивировано 1 августа 2019 года . Проверено 26 июля 2019 .
  16. ^ Группа экспертов высокого уровня Европейской комиссии по ИИ (2019-06-26). «Политические и инвестиционные рекомендации для надежного искусственного интеллекта» . Формируя цифровое будущее Европы - Европейская комиссия . Архивировано 26 февраля 2020 года . Проверено 16 марта 2020 .
  17. ^ «Краткий обзор технической политики ЕС: июль 2019 г.» . Центр демократии и технологий . Архивировано 9 августа 2019 года . Проверено 9 августа 2019 .
  18. ^ Общество, Этика DeepMind & (2018-03-14). «Аргументы в пользу более справедливых алгоритмов - DeepMind Ethics & Society» . Средний . Архивировано 22 июля 2019 года . Проверено 22 июля 2019 .
  19. ^ «5 неожиданных источников предвзятости в искусственном интеллекте» . TechCrunch . Архивировано 18 марта 2021 года . Проверено 22 июля 2019 .
  20. ^ Рыцарь, Уилл. «Руководитель Google по искусственному интеллекту говорит, что забудьте про роботов-убийц Илона Маска и вместо этого позаботьтесь о предвзятости в системах ИИ» . Обзор технологий Массачусетского технологического института . Архивировано 4 июля 2019 года . Проверено 22 июля 2019 .
  21. ^ Вилласенор, Джон (2019-01-03). «Искусственный интеллект и предвзятость: четыре ключевые проблемы» . Брукингс . Архивировано 22 июля 2019 года . Проверено 22 июля 2019 .
  22. ^ Лор, Стив (9 февраля 2018). «Распознавание лиц точное, если ты белый парень» . Нью-Йорк Таймс . Архивировано 9 января 2019 года . Проверено 29 мая 2019 .
  23. ^ Коенеке, Эллисон; Нам, Эндрю; Лейк, Эмили; Нуделл, Джо; Куорти, Минни; Менгеша, Сион; Тупс, Коннор; Рикфорд, Джон Р .; Джурафски, Дан; Гоэль, Шарад (7 апреля 2020 г.). «Расовые различия в автоматическом распознавании речи» . Труды Национальной академии наук . 117 (14): 7684–7689. DOI : 10.1073 / pnas.1915768117 . PMC 7149386 . PMID 32205437 .  
  24. ^ «Amazon отказывается от секретного инструмента найма ИИ, который показал предвзятое отношение к женщинам» . Рейтер . 2018-10-10. Архивировано 27 мая 2019 года . Проверено 29 мая 2019 .
  25. ^ Фридман, Батья; Ниссенбаум, Хелен (июль 1996 г.). «Предвзятость в компьютерных системах». ACM-транзакции в информационных системах (TOIS) . 14 (3): 330–347. DOI : 10.1145 / 230538.230561 . S2CID 207195759 . 
  26. ^ «Устранение предвзятости в AI» . techxplore.com . Архивировано 25 июля 2019 года . Проверено 26 июля 2019 .
  27. ^ Олсон, Парми. «У Google DeepMind есть идея остановить предвзятый ИИ» . Forbes . Проверено 26 июля 2019 .
  28. ^ «Справедливость машинного обучения | Справедливость машинного обучения» . Разработчики Google . Архивировано 10 августа 2019 года . Проверено 26 июля 2019 .
  29. ^ «AI и предвзятость - IBM Research - США» . www.research.ibm.com . Архивировано 17 июля 2019 года . Проверено 26 июля 2019 .
  30. ^ Бендер, Эмили М .; Фридман, Батья (декабрь 2018 г.). «Заявления данных для обработки естественного языка: на пути к снижению систематической предвзятости и обеспечению лучшей науки» . Труды Ассоциации компьютерной лингвистики . 6 : 587–604. DOI : 10,1162 / tacl_a_00041 .
  31. ^ Гебру, Тимнит; Моргенштерн, Джейми; Веккьоне, Бриана; Воан, Дженнифер Вортман; Валлах, Ханна ; Доме III, Хэл; Кроуфорд, Кейт (2018). «Таблицы данных для наборов данных». arXiv : 1803.09010 [ cs.DB ].
  32. ^ Рыцарь, Уилл. «Руководитель Google по искусственному интеллекту говорит, что забудьте про роботов-убийц Илона Маска и вместо этого позаботьтесь о предвзятости в системах ИИ» . Обзор технологий Массачусетского технологического института . Архивировано 4 июля 2019 года . Проверено 26 июля 2019 .
  33. ^ "Архивная копия" . Архивировано 31 октября 2020 года . Проверено 28 октября 2020 .CS1 maint: заархивированная копия как заголовок ( ссылка )
  34. Дэвис, Алекс (29 февраля 2016 г.). "Самоходный автомобиль Google стал причиной первой аварии" . Проводной . Архивировано 7 июля 2019 года . Проверено 26 июля 2019 года .
  35. ^ Левин, Сэм; Вонг, Джулия Кэрри (19 марта 2018 г.). «Беспилотный Uber убил женщину из Аризоны в первой аварии со смертельным исходом с участием пешехода» . Хранитель . Архивировано 26 июля 2019 года . Проверено 26 июля 2019 года .
  36. ^ "Кто несет ответственность, когда беспилотный автомобиль попадает в аварию?" . Футуризм . Архивировано 26 июля 2019 года . Проверено 26 июля 2019 .
  37. ^ Радио, Бизнес; Политика, право и общественность; Подкасты; Америка, Северная. «Автономные автомобильные аварии: кто или что виноват?» . Знание @ Wharton . Архивировано 26 июля 2019 года . Проверено 26 июля 2019 .
  38. ^ Дельбридж, Эмили. "Безумные автомобили без водителя" . Баланс . Архивировано 29 мая 2019 года . Проверено 29 мая 2019 .
  39. ^ Stilgoe, Джек (2020), "Кто убил Элейн Герцберг?" , Кто движет инновациями? , Cham: Springer International Publishing, стр. 1–6, DOI : 10.1007 / 978-3-030-32320-2_1 , ISBN 978-3-030-32319-6, заархивировано из оригинала 18 марта 2021 г. , получено 11 ноября 2020 г.
  40. ^ Максмен, Эми (октябрь 2018). «Дилеммы беспилотных автомобилей показывают, что моральный выбор не универсален» . Природа . 562 (7728): 469–470. Bibcode : 2018Natur.562..469M . DOI : 10.1038 / d41586-018-07135-0 . PMID 30356197 . 
  41. ^ "Правила для беспилотных автомобилей" . GOV.UK . Архивировано 26 июля 2019 года . Проверено 26 июля 2019 .
  42. ^ «Автоматизированное вождение: законодательные и нормативные акты - CyberWiki» . cyberlaw.stanford.edu . Архивировано из оригинала на 2019-07-26 . Проверено 26 июля 2019 .
  43. ^ «Автономные транспортные средства | Законодательство о самоуправляемых транспортных средствах» . www.ncsl.org . Архивировано 26 июля 2019 года . Проверено 26 июля 2019 .
  44. ^ a b Призыв к дискуссии о роботах-убийцах. Архивировано 7 августа 2009 г. в Wayback Machine , Джейсон Палмер, репортер по науке и технологиям, BBC News, 3 августа 2009 г.
  45. ^ Робот Трехходового Предвестье автономного будущее архивация 2012-11-07 в Wayback Machine , Дэвид Ax wired.com, 13 августа 2009 года.
  46. ^ Соединенные Штаты. Совет по оборонным инновациям. Принципы искусственного интеллекта: рекомендации Министерства обороны по этическому использованию искусственного интеллекта . OCLC 1126650738 . 
  47. Новый отчет, финансируемый ВМФ, предупреждает о приближении боевых роботов к «Терминатору». Архивировано 28 июля 2009 г.на Wayback Machine Джейсоном Миком (блог), dailytech.com, 17 февраля 2009 г.
  48. ^ a b Отчет ВМФ предупреждает о восстании роботов, предлагает сильный моральный компас. Архивировано 4 июня 2011 г. в Wayback Machine Джозефом Л. Флэтли engadget.com, 18 февраля 2009 г.
  49. ^ Амбрелло, Стивен; Торрес, Фил; Де Беллис, Анджело Ф. (март 2020 г.). «Будущее войны: может ли летальное автономное оружие сделать конфликт более этичным?» . AI и общество . 35 (1): 273–282. DOI : 10.1007 / s00146-019-00879-х . hdl : 2318/1699364 . ISSN 0951-5666 . S2CID 59606353 . Архивировано 18 марта 2021 года . Проверено 11 ноября 2020 .  
  50. ^ Hellström Томас (июнь 2013). «О моральной ответственности военных роботов». Этика и информационные технологии . 15 (2): 99–107. DOI : 10.1007 / s10676-012-9301-2 . S2CID 15205810 . ProQuest 1372020233 .  
  51. ^ Митра, Амбариш. «Мы можем обучить ИИ распознавать добро и зло, а затем использовать его, чтобы научить нас нравственности» . Кварц . Архивировано 26 июля 2019 года . Проверено 26 июля 2019 .
  52. ^ «Принципы ИИ» . Институт будущего жизни . Архивировано 11 декабря 2017 года . Проверено 26 июля 2019 .
  53. ^ a b Зак Масгрейв и Брайан В. Робертс (2015-08-14). «Почему искусственный интеллект слишком легко превратить в оружие - Атлантика» . Атлантика . Архивировано 11 апреля 2017 года . Проверено 6 марта 2017 .
  54. ^ Cat Zakrzewski (2015-07-27). «Маск, Хокинг предупреждают об оружии искусственного интеллекта» . WSJ . Архивировано 28 июля 2015 года . Проверено 4 августа 2017 .
  55. ^ GiveWell (2015). Возможные риски от передового искусственного интеллекта (Отчет). Архивировано 12 октября 2015 года . Проверено 11 октября 2015 года .
  56. ^ Андерсон. «Машинная этика» . Архивировано 28 сентября 2011 года . Проверено 27 июня 2011 года .
  57. ^ Андерсон, Майкл; Андерсон, Сьюзан Ли, ред. (Июль 2011 г.). Машинная этика . Издательство Кембриджского университета . ISBN 978-0-521-11235-2.
  58. ^ Андерсон, М .; Андерсон, SL (июль 2006 г.). «Введение приглашенных редакторов: машинная этика». Интеллектуальные системы IEEE . 21 (4): 10–11. DOI : 10.1109 / mis.2006.70 . S2CID 9570832 . 
  59. ^ Андерсон, Майкл; Андерсон, Сьюзан Ли (15 декабря 2007 г.). «Машинная этика: создание этического интеллектуального агента». Журнал AI . 28 (4): 15. DOI : 10,1609 / aimag.v28i4.2065 .
  60. ^ Бойлз, Роберт Джеймс М. (2017). «Философские указатели для структур искусственного морального агента» . Сури . 6 (2): 92–109.
  61. Азимов, Исаак (2008). Я, робот . Нью-Йорк: Бантам. ISBN 978-0-553-38256-3.
  62. ^ Брайсон, Джоанна; Диамантис, Михайлис; Грант, Томас (сентябрь 2017 г.). «Для людей, для людей: правовой пробел синтетических лиц» . Искусственный интеллект и право . 25 (3): 273–291. DOI : 10.1007 / s10506-017-9214-9 .
  63. ^ «Принципы робототехники» . EPSRC Великобритании. Сентябрь 2010. Архивировано 1 апреля 2018 года . Проверено 10 января 2019 .
  64. ^ Эволюция роботов научиться лгать друг другу архивации 2009-08-28 в Wayback Machine , Popular Science, 18 августа 2009
  65. ^ Science Новый финансируемый ВМФ отчет предупреждает о приближении боевых роботов к «Терминатору». Архивировано 28 июля 2009 г.на Wayback Machine Джейсоном Миком (блог), dailytech.com, 17 февраля 2009 г.
  66. ^ Исследование президентской группы AAAI по долгосрочным перспективам искусственного интеллекта на 2008–2009 гг. Архивировано 28 августа 2009 г.в Wayback Machine , Ассоциация по развитию искусственного интеллекта, дата обращения 26.07.09.
  67. ^ a b Марков, Джон (25 июля 2009 г.). «Ученые опасаются, что машины могут перехитрить человека» . Нью-Йорк Таймс . Архивировано 25 февраля 2017 года . Проверено 24 февраля 2017 года .
  68. ^ Грядущая технологическая сингулярность: как выжить в постчеловеческую эру. Архивировано 01.01.2007 в Wayback Machine , Вернор Виндж, Департамент математических наук, Государственный университет Сан-Диего, (c) 1993 Вернор Виндж.
  69. ^ Статья в Asimovlaws.com архивной 24 мая 2012 года в Wayback Machine , июль 2004 года, доступ7/27/09.
  70. ^ a b Winfield, AF; Майкл, К .; Pitt, J .; Эверс, В. (март 2019). «Машинная этика: разработка и управление этичным искусственным интеллектом и автономными системами [сканирование проблемы]» . Труды IEEE . 107 (3): 509–517. DOI : 10.1109 / JPROC.2019.2900622 . ISSN 1558-2256 . Архивировано 02 ноября 2020 года . Проверено 21 ноября 2020 . 
  71. ^ Al-Rodhan, Nayef (7 декабря 2015). «Моральный кодекс» . Архивировано 05 марта 2017 года . Проверено 4 марта 2017 .
  72. ^ Уоллах, Венделл; Аллен, Колин (ноябрь 2008 г.). Моральные машины: обучение роботов правильно, а не неправильно . США: Издательство Оксфордского университета . ISBN 978-0-19-537404-9.
  73. ^ Бостром, Ник ; Юдковский, Элиэзер (2011). «Этика искусственного интеллекта» (PDF) . Кембриджский справочник по искусственному интеллекту . Cambridge Press . Архивировано (PDF) из оригинала 04.03.2016 . Проверено 22 июня 2011 .
  74. ^ Сантос-Ланг, Крис (2002). «Этика искусственного интеллекта» . Архивировано 25 декабря 2014 года . Проверено 4 января 2015 .
  75. ^ Ховард, Аянна. «Регулирование ИИ - стоит ли беспокоиться организациям? | Аянна Ховард» . Обзор управления MIT Sloan . Архивировано 14 августа 2019 года . Проверено 14 августа 2019 .
  76. ^ a b Мюльхаузер, Люк и Луи Хельм. 2012. «Intelligence Explosion and Machine Ethics». Архивировано 7 мая 2015 г., Wayback Machine . В книге «Гипотезы сингулярности: научная и философская оценка» под редакцией Амнона Идена, Джонни Сёракера, Джеймса Х. Мура и Эрика Стейнхарта. Берлин: Springer.
  77. ^ a b Бостром, Ник. 2003. «Этические проблемы передового искусственного интеллекта». Архивировано 8 октября 2018 г. в Wayback Machine . В «Когнитивных, эмоциональных и этических аспектах принятия решений людьми и в искусственном интеллекте», под редакцией Ивы Смит и Джорджа Э. Ласкера, 12–17. Vol. 2. Виндзор, О.Н.: Международный институт перспективных исследований в области системных исследований / кибернетики.
  78. ^ Амбрелло, Стивен; Баум, Сет Д. (2018-06-01). «Оценка нанотехнологий будущего: чистое социальное воздействие производства атомарной точности» . Фьючерсы . 100 : 63–73. DOI : 10.1016 / j.futures.2018.04.007 . hdl : 2318/1685533 . ISSN 0016-3287 . Архивировано 9 мая 2019 года . Проверено 29 ноября 2020 . 
  79. ^ Юдковский, Элиэзер. 2011. «Сложные системы ценностей в дружественном ИИ». Архивировано 29 сентября 2015 г. на Wayback Machine . В Schmidhuber, Thórisson, and Looks 2011, 388–393.
  80. Рассел, Стюарт (8 октября 2019 г.). Совместимость с человеком: искусственный интеллект и проблема контроля . США: Викинг. ISBN 978-0-525-55861-3. OCLC  1083694322 .
  81. ^ Ямпольский, Роман В. (2020-03-01). «Непредсказуемость ИИ: О невозможности точно предсказать все действия более умного агента» . Журнал искусственного интеллекта и сознания . 07 (1): 109–118. DOI : 10.1142 / S2705078520500034 . ISSN 2705-0785 . Архивировано 18 марта 2021 года . Проверено 29 ноября 2020 . 
  82. ^ Уоллах, Венделл; Vallor, Шеннон (2020-09-17), "Моральные машины: От значения выравнивания воплощённых Добродетели" , этики искусственного интеллекта , Oxford University Press, стр 383-412,. DOI : 10,1093 / осо / 9780190905033.003.0014 , ISBN 978-0-19-090503-3, заархивировано из оригинала 08.12.2020 , получено 29.11.2020
  83. ^ Umbrello, Стивен (2019). «Выгодная координация искусственного интеллекта с помощью подхода к проектированию, учитывающему ценность» . Большие данные и когнитивные вычисления . 3 (1): 5. DOI : 10,3390 / bdcc3010005 . Архивировано 23 октября 2020 года . Проверено 29 ноября 2020 .
  84. ^ Флориди, Лучано; Cowls, Джош; King, Thomas C .; Таддео, Мариаросария (2020). «Как разработать ИИ для социального блага: семь основных факторов» . Наука и инженерная этика . 26 (3): 1771–1796. DOI : 10.1007 / s11948-020-00213-5 . ISSN 1353-3452 . PMC 7286860 . PMID 32246245 . Архивировано 18 марта 2021 года.    |access-date=требуется |url=( помощь )
  85. ^ Fiegerman, Сет (28 сентября 2016). «Facebook, Google, Amazon создают группу, чтобы облегчить беспокойство по поводу ИИ» . CNNMoney .
  86. ^ «Руководящие принципы этики для надежного ИИ» . Формируя цифровое будущее Европы - Европейская комиссия . Европейская комиссия. 2019-04-08. Архивировано 20 февраля 2020 года . Проверено 20 февраля 2020 .
  87. ^ https://ec.europa.eu/digital-single-market/en/news/white-paper-artificial-intelligence-european-approach-excellence-and-trust
  88. ^ https://www.oecd.ai/
  89. ^ «Дорожная карта администрации Обамы для политики ИИ» . Harvard Business Review . 2016-12-21. ISSN 0017-8012 . Архивировано 22 января 2021 года . Проверено 16 марта 2021 . 
  90. ^ «Ускорение лидерства Америки в области искусственного интеллекта - Белый дом» . trumpwhitehouse.archives.gov . Архивировано 25 февраля 2021 года . Проверено 16 марта 2021 .
  91. ^ «Запрос комментариев к проекту меморандума главам исполнительных департаментов и агентств,« Руководство по регулированию приложений искусственного интеллекта » » . Федеральный регистр . 2020-01-13. Архивировано 25 ноября 2020 года . Проверено 28 ноября 2020 .
  92. ^ «CCC предлагает проект 20-летней дорожной карты AI; ищет комментарии» . HPCwire . 2019-05-14. Архивировано 18 марта 2021 года . Проверено 22 июля 2019 .
  93. ^ «Запросите комментарии к черновику: 20-летняя дорожная карта сообщества для исследований ИИ в США» Блог CCC » . Архивировано 14 мая 2019 года . Проверено 22 июля 2019 .
  94. Грейс, Катя; Сальватье, Джон; Дефо, Аллан; Чжан, Баобао; Эванс, Оуэйн (2018-05-03). «Когда ИИ превзойдет человеческие возможности? Данные экспертов по ИИ». arXiv : 1705.08807 [ cs.AI ].
  95. ^ «Китай хочет сформировать глобальное будущее искусственного интеллекта» . Обзор технологий Массачусетского технологического института . Архивировано 20 ноября 2020 года . Проверено 29 ноября 2020 .
  96. ^ Флориди, Лучано; Cowls, Джош; Бельтраметти, Моника; Чатила, Раджа; Хазеранд, Патрис; Дигнум, Вирджиния; Люэдж, Кристоф; Мадлен, Роберт; Пагалло, Уго; Росси, Франческа; Шафер, Буркхард (2018-12-01). «AI4People - этические рамки для хорошего общества искусственного интеллекта: возможности, риски, принципы и рекомендации» . Умы и машины . 28 (4): 689–707. DOI : 10.1007 / s11023-018-9482-5 . ISSN 1572-8641 . PMC 6404626 . PMID 30930541 . Архивировано 18 марта 2021 года.    |access-date=требуется |url=( помощь )
  97. ^ Хьюз, Джеймс Дж .; LaGrandeur, Кевин, ред. (15 марта 2017 г.). Выживание в эпоху машин: интеллектуальные технологии и трансформация человеческого труда . Чам, Швейцария. ISBN 978-3-319-51165-8. OCLC  976407024 . Архивировано 18 марта 2021 года . Проверено 29 ноября 2020 года .
  98. ^ Данахер, Джон. Автоматизация и утопия: процветание человека в мире без работы . Кембридж, Массачусетс. ISBN 978-0-674-24220-3. OCLC  1114334813 .
  99. ^ "Официально открыт Институт этики искусственного интеллекта ТУМ" . www.tum.de . Архивировано 10 декабря 2020 года . Проверено 29 ноября 2020 .
  100. ^ "Запуск нового научно-исследовательского института искусственного интеллекта" . 2017-11-20. Архивировано 18 сентября 2020 года . Проверено 21 февраля 21 .
  101. ^ Пещера, Стивен; Дихал, Канта; Диллон, Сара, ред. (14 февраля 2020 г.). Рассказы ИИ: история образного мышления об интеллектуальных машинах (Первое изд.). Оксфорд. ISBN 978-0-19-258604-9. OCLC  1143647559 . Архивировано 18 марта 2021 года . Дата обращения 11 ноября 2020 .
  102. ^ Jerreat-Poole, Адам (1 февраля 2020). «Больной, медленный, киборг: критическое будущее в Mass Effect» . Игровые исследования . 20 . ISSN 1604-7982 . Архивировано 9 декабря 2020 года . Дата обращения 11 ноября 2020 . 
  103. ^ Cerqui, Даниэла; Уорвик, Кевин (2008), «Перепроектирование человечества: восстание киборгов, желаемая цель?» , Философия и дизайн , Дордрехт: Springer, Нидерланды, стр. 185–195, DOI : 10.1007 / 978-1-4020-6591-0_14 , ISBN 978-1-4020-6590-3, заархивировано из оригинала 18 марта 2021 г. , получено 11 ноября 2020 г.
  104. ^ Пещера, Стивен; Дихал, Канта (6 августа 2020 г.). «Белизна AI». Философия и технологии . 33 (4): 685–703. DOI : 10.1007 / s13347-020-00415-6 .

Внешние ссылки [ править ]

  • Этика искусственного интеллекта и робототехники в Стэнфордской энциклопедии философии
  • Russell, S .; Hauert, S .; Альтман, Р .; Велозу, М. (май 2015 г.). «Робототехника: этика искусственного интеллекта». Природа . 521 (7553): 415–418. Bibcode : 2015Natur.521..415. . DOI : 10.1038 / 521415a . PMID  26017428 . S2CID  4452826 .
  • BBC News: Игры, чтобы жить собственной жизнью
  • Кто боится роботов? , статья о страхе человечества перед искусственным интеллектом.
  • Краткая история компьютерной этики
  • Рекомендации по этике ИИ Global Inventory by Algorithmwatch
  • Хагендорф, Тило (март 2020 г.). «Этика этики искусственного интеллекта: оценка руководящих принципов». Умы и машины . 30 (1): 99–120. DOI : 10.1007 / s11023-020-09517-8 . S2CID  72940833 .