Объясняемый AI ( XAI ) - это искусственный интеллект (AI), в котором результаты решения могут быть поняты людям. Это контрастирует с концепцией « черного ящика » в машинном обучении, где даже его разработчики не могут объяснить, почему ИИ принял конкретное решение. [1] XAI может быть реализацией социального права на объяснение . [2] XAI актуален, даже если нет никаких юридических прав или нормативных требований - например, XAI может улучшить взаимодействие с пользователем.продукта или услуги, помогая конечным пользователям поверить в то, что ИИ принимает правильные решения. Таким образом, цель XAI - объяснить, что было сделано, что делается прямо сейчас, что будет сделано дальше, и раскрыть информацию, на которой основаны действия. [3] Эти характеристики позволяют (i) подтвердить существующие знания, (ii) оспорить существующие знания и (iii) создать новые предположения. [4]
Алгоритмы, используемые в AI, можно разделить на алгоритмы машинного обучения (ML) белого и черного ящиков. Модели белого ящика - это модели машинного обучения, которые обеспечивают результаты, понятные специалистам в данной области. С другой стороны, модели черного ящика чрезвычайно трудно объяснить, и их трудно понять даже специалистам в данной области. [5] Считается, что алгоритмы XAI следуют трем принципам прозрачности, интерпретируемости и объяснимости. Прозрачность обеспечивается, «если процессы, которые извлекают параметры модели из обучающих данных и генерируют метки из данных тестирования, могут быть описаны и мотивированы разработчиком подхода». [6] Интерпретируемость [7] описывает возможность понять модель машинного обучения и представить основу для принятия решений в понятной для людей форме. [8] Объяснимость - это концепция, которая признана важной, но общего определения пока нет. [6] Предполагается, что объяснимость в ML можно рассматривать как «совокупность характеристик интерпретируемой области, которые способствовали определенному примеру для принятия решения (например, классификации или регрессии)». [9] Если алгоритмы соответствуют этим требованиям, они обеспечивают основу для обоснования решений, отслеживания и, таким образом, проверки их, улучшения алгоритмов и изучения новых фактов. [10]
Иногда также возможно достичь результата с высокой точностью с помощью алгоритма машинного обучения белого ящика, который интерпретируется сам по себе. [11] Это особенно важно в таких областях, как медицина, оборона, финансы и право, где очень важно понимать решения и укреплять доверие к алгоритмам. [3]
Системы искусственного интеллекта оптимизируют поведение, чтобы удовлетворить математически заданную целевую систему, выбранную разработчиками системы, например команду «максимизировать точность оценки положительных отзывов о фильмах в тестовом наборе данных». ИИ может узнать полезные общие правила из набора тестов, такие как «отзывы, содержащие слово« ужасно », скорее всего, будут отрицательными». Однако он также может узнать о неприемлемых правилах, таких как «отзывы, содержащие« Дэниела Дэй-Льюиса », обычно положительны»; такие правила могут быть нежелательными, если считается, что они не могут быть обобщены за пределами набора тестов, или если люди считают правило «обманом» или «несправедливым». Человек может проверять правила в XAI, чтобы понять, насколько вероятно, что система будет обобщать будущие реальные данные за пределами набора тестов. [12]
Цели
Сотрудничество между агентами , в данном случае алгоритмами и людьми, зависит от доверия. Если люди должны принимать алгоритмические предписания, они должны им доверять. Неполнота формализации критериев доверия является препятствием для простых подходов к оптимизации. По этой причине интерпретируемость и объяснимость позиционируются как промежуточные цели для проверки других критериев. [13]
Системы искусственного интеллекта иногда изучают нежелательные уловки, которые выполняют оптимальную работу по удовлетворению явных заранее запрограммированных целей на данных обучения, но которые не отражают сложные неявные желания разработчиков человеческих систем. Например, система 2017 года, которой было поручено распознавание изображений, научилась «жульничать», ища метку авторского права, которая была связана с изображениями лошади, вместо того, чтобы научиться определять, была ли лошадь на самом деле изображена. [1] В другой системе 2017 года управляемый обучающийся ИИ, которому было поручено захватывать предметы в виртуальном мире, научился жульничать, помещая свой манипулятор между объектом и наблюдателем таким образом, чтобы он ложно казался захватывающим объект. [14] [15]
Один из проектов прозрачности, программа DARPA XAI, направлен на создание моделей «стеклянных ящиков», которые можно объяснить «человеку в цикле», без значительного ущерба для производительности ИИ. Пользователи-люди должны быть в состоянии понять познание ИИ (как в режиме реального времени, так и постфактум) и уметь определять, когда доверять ИИ, а когда - не доверять. [16] [17] Другие применения XAI - это извлечение знаний из моделей черного ящика и сравнение моделей. [18] Термин «стеклянный ящик» также использовался для систем, которые отслеживают входы и выходы системы с целью проверки приверженности системы этическим и социально-правовым ценностям и, следовательно, предоставления объяснений, основанных на ценностях. [19] Кроме того, этот же термин был использован для названия голосового помощника, который производит контрфактические утверждения в качестве объяснений. [20]
История и методы
В течение 1970–1990-х годов были исследованы системы символических рассуждений, такие как MYCIN , [21] GUIDON, [22] SOPHIE, [23] и PROTOS [24] [25], которые могли представлять, рассуждать и объяснять свои аргументы для диагностических целей. , в учебных целях или в целях машинного обучения (обучения на основе объяснений). MYCIN, разработанный в начале 1970 - х годов в качестве исследовательского прототипа для диагностики бактериемии инфекций кровотока, может объяснить [26] , который его вручную закодированы правила способствовали диагноз в каждом конкретном случае. Исследования интеллектуальных систем обучения позволили разработать такие системы, как SOPHIE, которые могли бы действовать как «эксперт по формулировке», объясняя стратегию решения проблем на уровне, понятном учащемуся, чтобы они знали, какие действия предпринять дальше. Например, SOPHIE смогла объяснить качественные причины устранения неисправностей электроники, даже если в конечном итоге полагалась на симулятор схем SPICE . Точно так же GUIDON добавил учебные правила, чтобы дополнить правила уровня домена MYCIN, чтобы он мог объяснить стратегию медицинской диагностики. Символические подходы к машинному обучению, особенно те, которые основаны на обучении на основе объяснений, такие как PROTOS, явно полагались на представления объяснений, как для объяснения своих действий, так и для получения новых знаний.
В 1980-х - начале 1990-х годов были разработаны системы поддержания истины (TMS), чтобы расширить возможности причинно-следственных, основанных на правилах и логических систем вывода. [27] : 360–362 TMS действует для явного отслеживания альтернативных линий рассуждений, обоснований выводов и линий рассуждений, ведущих к противоречиям, позволяя будущим рассуждениям избегать этих тупиков. Чтобы предоставить объяснение, они прослеживают рассуждения от выводов до предположений с помощью операций правил или логических выводов, позволяя генерировать объяснения на основе следов рассуждений. В качестве примера рассмотрим основанного на правилах решателя проблем с несколькими правилами о Сократе, который делает вывод, что он умер от яда:
Просто проследив структуру зависимости, решатель проблемы может построить следующее объяснение: «Сократ умер, потому что он был смертным и пил яд, и все смертные умирают, когда пьют яд. Сократ был смертным, потому что он был человеком, а все люди смертны. Сократ пил яд, потому что он придерживался диссидентских убеждений, правительство было консервативным, а те, кто придерживался консервативных диссидентских убеждений при консервативных правительствах, должны пить яд ». [28] : 164–165
К 1990-м годам исследователи также начали изучать возможность значимого извлечения правил, не кодируемых вручную, генерируемых непрозрачными обученными нейронными сетями. [29] Исследователи клинических экспертных систем, создающих поддержку принятия решений на основе нейронных сетей для врачей, стремились разработать динамические объяснения, которые позволят этим технологиям стать более надежными и надежными на практике. [2] В 2010-х годах обеспокоенность общественности по поводу расовой и иной предвзятости при использовании ИИ для вынесения решений по уголовным наказаниям и выяснения кредитоспособности, возможно, привело к увеличению спроса на прозрачный искусственный интеллект. [1] В результате многие ученые и организации разрабатывают инструменты, помогающие обнаруживать предвзятость в своих системах. [30]
Марвин Мински и др. поднял вопрос о том, что ИИ может функционировать как форма наблюдения, с предвзятостью, присущей слежке, предлагая HI (гуманистический интеллект) как способ создания более справедливого и сбалансированного ИИ, работающего по принципу «человек в контуре». [31]
Современные сложные методы искусственного интеллекта, такие как глубокое обучение и генетические алгоритмы, по своей природе непрозрачны. [32] Чтобы решить эту проблему, было разработано много новых методов, чтобы сделать новые модели более объяснимыми и интерпретируемыми. [33] [34] [35] [36] [37] Это включает в себя множество методов, таких как послойное распространение релевантности (LRP), метод определения того, какие функции в конкретном входном векторе вносят наибольший вклад в выходные данные нейронной сети. [38] [39] [40] Для объяснения одного конкретного прогноза, сделанного с помощью (нелинейной) модели черного ящика, были разработаны другие методы, цель которых называется «локальной интерпретируемостью». [41] [42] [43] [44] [45] [46] Стоит отметить, что простое перенос концепций локальной интерпретируемости в удаленный контекст (где модель черного ящика выполняется третьей стороной) в настоящее время изучается. [47] [48]
Кроме того, была проведена работа над деревьями решений, ансамблями деревьев и байесовскими сетями, которые более прозрачны для проверки. [49] [50] В 2018 году была организована междисциплинарная конференция под названием FAT * (Справедливость, подотчетность и прозрачность) для изучения прозрачности и объяснимости в контексте социотехнических систем, многие из которых включают искусственный интеллект. [51] [52] [53]
Некоторые методы позволяют визуализировать входные данные, на которые отдельные нейроны реагируют наиболее сильно. Несколько групп обнаружили, что нейроны могут быть объединены в цепи, которые выполняют понятные человеку функции, некоторые из которых надежно возникают в разных сетях, обучаемых независимо. [54] [55]
На более высоком уровне существуют различные методы извлечения сжатых представлений характеристик заданных входных данных, которые затем могут быть проанализированы стандартными методами кластеризации. В качестве альтернативы сети можно обучить выводить лингвистические объяснения их поведения, которые затем могут быть интерпретированы человеком. [56] Поведение модели также можно объяснить со ссылкой на обучающие данные - например, путем оценки того, какие обучающие входные данные больше всего повлияли на данное поведение. [57]
Регулирование
Поскольку регулирующие органы, официальные органы и обычные пользователи становятся зависимыми от динамических систем на основе ИИ, для процессов принятия решений потребуется более четкая подотчетность, чтобы обеспечить доверие и прозрачность. Свидетельство того, что это требование набирает обороты, можно увидеть с запуском первой глобальной конференции, посвященной исключительно этой развивающейся дисциплине, Международной совместной конференции по искусственному интеллекту: семинар по объяснимому искусственному интеллекту (XAI). [58]
Европейский Союз ввел право на объяснение в Общем праве на защиту данных (GDPR) как попытку справиться с потенциальными проблемами, вытекающими из растущей важности алгоритмов. Внедрение этого постановления началось в 2018 году. Однако право на объяснение в GDPR распространяется только на локальный аспект интерпретируемости. В Соединенных Штатах страховые компании должны быть в состоянии объяснить свои решения о ставках и покрытии. [59]
Секторов
XAI был исследован во многих секторах, в том числе:
- Конструкция антенны ( усовершенствованная антенна ) [60]
- Алгоритмическая торговля ( высокочастотная торговля ) [61]
- Медицинские диагнозы [62] [63] [64]
- Автономные транспортные средства [65] [66]
- Текстовая аналитика [67]
- Уголовное правосудие [64]
Рекомендации
- ^ a b c Образец, Ян (5 ноября 2017 г.). «Компьютер говорит нет: почему так важно сделать ИИ справедливым, подотчетным и прозрачным» . Хранитель . Проверено 30 января 2018 .
- ^ а б Эдвардс, Лилиан; Вил, Майкл (2017). «Раб алгоритма? Почему« право на объяснение », вероятно, не то средство, которое вы ищете». Duke Law and Technology Review . 16 : 18. SSRN 2972855 .
- ^ а б Gunning, D .; Стефик, М .; Choi, J .; Miller, T .; Штумпф, С .; Ян, Г.-З. (2019-12-18). «XAI-Объясняемый искусственный интеллект» . Наука Робототехника . 4 (37): eaay7120. DOI : 10.1126 / scirobotics.aay7120 . ISSN 2470-9476 .
- ^ Риг, Тило; Фрик, Янек; Баумгартль, Германн; Бюттнер, Рикардо (17 декабря 2020 г.). «Демонстрация потенциала подходов машинного обучения белого ящика к анализу электрокардиограмм сердечно-сосудистых заболеваний» . PLOS ONE . 15 (12): e0243615. DOI : 10.1371 / journal.pone.0243615 . ISSN 1932-6203 . PMC 7746264 . PMID 33332440 .
- ^ Лойола-Гонсалес, О. (2019). «Черный ящик против белого ящика: понимание их преимуществ и недостатков с практической точки зрения» . Доступ IEEE . 7 : 154096–154113. DOI : 10,1109 / ACCESS.2019.2949286 . ISSN 2169-3536 .
- ^ а б Roscher, R .; Bohn, B .; Дуарте, MF; Гарке, Дж. (2020). «Объяснимое машинное обучение для научных открытий и открытий» . Доступ IEEE . 8 : 42200–42216. DOI : 10,1109 / ACCESS.2020.2976199 . ISSN 2169-3536 .
- ^ Липтон, Захари К. (июнь 2018 г.). «Мифы интерпретируемости моделей: в машинном обучении концепция интерпретируемости важна и сомнительна» . Очередь . 16 (3): 31–57. DOI : 10.1145 / 3236386.3241340 . ISSN 1542-7730 .
- ^ «Объяснимый искусственный интеллект (XAI): концепции, таксономии, возможности и проблемы ответственного ИИ» . DeepAI . 2019-10-22 . Проверено 13 января 2021 .
- ^ Монтавон, Грегуар; Самек, Войцех; Мюллер, Клаус-Роберт (01.02.2018). «Методы интерпретации и понимания глубоких нейронных сетей» . Цифровая обработка сигналов . 73 : 1–15. DOI : 10.1016 / j.dsp.2017.10.011 . ISSN 1051-2004 .
- ^ Адади, А .; Беррада, М. (2018). «Заглядывать в черный ящик: исследование объяснимого искусственного интеллекта (XAI)» . Доступ IEEE . 6 : 52138–52160. DOI : 10,1109 / ACCESS.2018.2870052 . ISSN 2169-3536 .
- ^ Рудин, Синтия (2019). «Прекратите объяснять модели машинного обучения черного ящика для принятия сложных решений и вместо этого используйте интерпретируемые модели» . Природа Машинный интеллект . 1 (5): 206–215. arXiv : 1811.10154 . DOI : 10.1038 / s42256-019-0048-х . ISSN 2522-5839 .
- ^ «Как детективы с искусственным интеллектом открывают черный ящик глубокого обучения» . Наука . 5 июля 2017 . Проверено 30 января 2018 ..
- ^ Досилович, Филип; Брчич, Марио; Хлупич, Никица (25.05.2018). «Объяснимый искусственный интеллект: обзор» (PDF) . MIPRO 2018 - Материалы 41-й Международной конвенции . MIPRO 2018. Опатия, Хорватия. С. 210–215. DOI : 10.23919 / MIPRO.2018.8400040 .
- ^ «DeepMind предлагает простые тесты, которые могут предотвратить апокалипсис Илона Маска» . Bloomberg.com . 11 декабря 2017 . Проверено 30 января 2018 .
- ^ «Учиться на предпочтениях человека» . Блог OpenAI . 13 июня 2017 . Проверено 30 января 2018 .
- ^ «Объясняемый искусственный интеллект (XAI)» . DARPA . DARPA . Проверено 17 июля 2017 года .
- ^ Хольцингер, Андреас; Пласс, Маркус; Хольцингер, Катарина; Крисан, Глория Серасела; Pintea, Camelia-M .; Паладе, Василий (2017-08-03). «Интерактивный подход к машинному обучению в стеклянной коробке для решения NP-сложных задач с участием человека в цикле». arXiv : 1708.01104 [ cs.AI ].
- ^ Биецек, Пшемыслав (23 июня 2018 г.). «DALEX: объяснители сложных прогнозных моделей». Журнал исследований в области машинного обучения . 19 : 1–5. arXiv : 1806.08915 . Bibcode : 2018arXiv180608915B .
- ^ Алер Тубелла, Андреа; Теодору, Андреас; Дигнум, Франк; Дигнум, Вирджиния (2019). Управление с помощью Glass-Box: внедрение прозрачных моральных границ для поведения ИИ . Калифорния: Международные совместные конференции по организации искусственного интеллекта. DOI : 10.24963 / ijcai.2019 / 802 . ISBN 978-0-9992411-4-1.
- ^ Сокол, Кацпер; Флак, Питер (2018). «Стеклянный ящик: объяснение решений ИИ с помощью контрфактических утверждений посредством разговора с виртуальным помощником с голосовой поддержкой». Материалы двадцать седьмой международной совместной конференции по искусственному интеллекту . С. 5868–5870. DOI : 10.24963 / ijcai.2018 / 865 . ISBN 9780999241127.
- ^ Фэган, Л. М.; Shortliffe, EH; Бьюкенен, Б.Г. (1980). «Компьютерное принятие медицинских решений: от MYCIN к VM». Автомедика . 3 (2): 97–108.
- ^ Кланси, Уильям (1987). Репетиторство, основанное на знаниях: программа GUIDON . Кембридж, Массачусетс: MIT Press.
- ^ Браун, Джон С .; Бертон, Р.Р .; Де Клир, Йохан (1982). «Педагогический, естественный язык и методы инженерии знаний в SOPHIE I, II и III». Интеллектуальные системы обучения . Академическая пресса. ISBN 0-12-648680-8.
- ^ Барейсс, Рэй; Портер, Брюс; Вейр, Крейг; Холте, Роберт (1990). "Protos: Ученик, основанный на образцах". Машинное обучение . 3 . Морган Кауфманн Паблишерс Инк., Стр. 112–139. ISBN 1-55860-119-8.
- ^ Барейсс, Рэй. Приобретение знаний на основе образцов: единый подход к представлению концепций, классификации и обучению . Перспективы искусственного интеллекта.
- ^ Ван Лент, М .; Фишер, В .; Манкузо, М. (июль 2004 г.). «Объяснимая система искусственного интеллекта для тактического поведения небольших подразделений». Труды Национальной конференции по искусственному интеллекту . Сан-Хосе, Калифорния: AAAI Press. С. 900–907. ISBN 0262511835.
- ^ Рассел, Стюарт; Норвиг, Питер (2003). Искусственный интеллект: современный подход . Серия Prentice Hall по искусственному интеллекту (второе изд.). Река Аппер Сэдл, Нью-Джерси: Prentice Hall, Pearson Education. ISBN 0-13-790395-2.
- ^ Форбус, Кеннет; Де Клир, Йохан (1993). Создание решателей проблем . Кембридж, Массачусетс: MIT Press. ISBN 0-262-06157-0.
- ^ Щекотать, AB; Andrews, R .; Golea, M .; Дидерих, Дж. (Ноябрь 1998 г.). «Правда станет известна: направления и проблемы в извлечении знаний, встроенных в обученные искусственные нейронные сети». IEEE-транзакции в нейронных сетях . 9 (6): 1057–1068. DOI : 10.1109 / 72.728352 . ISSN 1045-9227 . PMID 18255792 .
- ^ «Accenture представляет инструмент, который поможет компаниям обеспечить справедливый ИИ» . Bloomberg.com . Июнь 2018 . Проверено 5 августа 2018 .
- ↑ Мински и др., «Общество интеллектуального наблюдения» IEEE ISTAS2013, страницы 13-17.
- ^ Мукерджи, Сиддхартха (27 марта 2017 г.). "AI Versus MD" Житель Нью-Йорка . Проверено 30 января 2018 .
- ^ Цисар, Орсоля; Чисар, Габор; Домби, Йожеф (08.07.2020). «Интерпретируемые нейронные сети на основе непрерывнозначной логики и многокритериальных операторов принятия решений» . Системы, основанные на знаниях . 199 : 105972. дои : 10.1016 / j.knosys.2020.105972 . ISSN 0950-7051 .
- ^ Липтон, Захари К. (2016-06-10). «Мифы интерпретируемости моделей». arXiv : 1606.03490 [ cs.LG ].
- ^ Мердок, У. Джеймс; Сингх, Чандан; Кумбиер, Карл; Аббаси-Асл, Реза; Ю, Бин (14.01.2019). «Интерпретируемое машинное обучение: определения, методы и приложения» . Труды Национальной академии наук Соединенных Штатов Америки . 116 (44): 22071–22080. arXiv : 1901.04592 . Bibcode : 2019arXiv190104592M . DOI : 10.1073 / pnas.1900654116 . PMC 6825274 . PMID 31619572 .
- ^ Доши-Велес, Финал; Ким, Бин (27.02.2017). «К строгой науке интерпретируемого машинного обучения». arXiv : 1702.08608 [ stat.ML ].
- ^ Абдоллахи, Бенуш и Ольфа Насрауи. (2016). «Объяснимые машины Больцмана с ограничениями для совместной фильтрации». arXiv : 1606.07129 [ stat.ML ].CS1 maint: несколько имен: список авторов ( ссылка )
- ^ Шиблер, Дэн (2017-04-16). «Понимание нейронных сетей с послойным распространением релевантности и глубоких рядов Тейлора» . Дэн Шиблер . Проверено 3 ноября 2017 .
- ^ Бах, Себастьян; Биндер, Александр; Монтавон, Грегуар; Клаушен, Фредерик; Мюллер, Клаус-Роберт; Самек, Войцех (10.07.2015). Суарес, Оскар Дениз (ред.). «О пиксельных объяснениях решений нелинейного классификатора путем послойного распространения релевантности» . PLOS ONE . 10 (7): e0130140. Bibcode : 2015PLoSO..1030140B . DOI : 10.1371 / journal.pone.0130140 . ISSN 1932-6203 . PMC 4498753 . PMID 26161953 .
- ^ Образец, Ян (5 ноября 2017 г.). «Компьютер говорит нет: почему так важно сделать ИИ справедливым, подотчетным и прозрачным» . Хранитель . Проверено 5 августа 2018 .
- ^ Мартенс, Дэвид; Провост, Фостер (2014). «Объяснение классификации документов на основе данных» (PDF) . MIS Quarterly . 38 : 73–99. DOI : 10.25300 / MISQ / 2014 / 38.1.04 .
- ^ « » Почему я должен вам доверять? «| Труды 22 - го ACM SIGKDD Международная конференция по обнаружение знаний и интеллектуального анализа данных». DOI : 10.1145 / 2939672.2939778 . S2CID 13029170 . Цитировать журнал требует
|journal=
( помощь ) - ^ Лундберг, Скотт М; Ли, Су-Ин (2017), Гайон, И .; Люксбург, УФ; Bengio, S .; Уоллах, Х. (ред.), «Единый подход к интерпретации предсказаний модели» (PDF) , Достижения в системах обработки нейронной информации 30 , Curran Associates, Inc., стр. 4765–4774, arXiv : 1705.07874 , Bibcode : 2017arXiv170507874L , получено 13.03.2020
- ^ Картер, Брэндон; Мюллер, Йонас; Джайн, Сиддхартха; Гиффорд, Дэвид (2019-04-11). «Что заставило вас сделать это? Понимание решений черного ящика с достаточным количеством входных подмножеств» . 22-я Международная конференция по искусственному интеллекту и статистике : 567–576.
- ^ Шрикумар, Аванти; Гринсайд, Пейтон; Кундаже, Аншул (17.07.2017). «Изучение важных функций путем распространения различий в активации» . Международная конференция по машинному обучению : 3145–3153.
- ^ «Аксиоматическая атрибуция для глубоких сетей | Труды 34-й Международной конференции по машинному обучению - Том 70» . dl.acm.org . Проверено 13 марта 2020 .
- ^ Айводжи, Ульрих; Араи, Хироми; Фортино, Оливье; Гамбс, Себастьен; Хара, Сатоши; Тэпп, Ален (2019-05-24). «Справедливое промывание: риск рационализации» . Международная конференция по машинному обучению . PMLR: 161–170.
- ^ Ле Меррер, Эрван; Тредан, Жиль (сентябрь 2020 г.). «Удаленная объяснимость сталкивается с проблемой вышибалы» . Природа Машинный интеллект . 2 (9): 529–539. arXiv : 1910.01432 . DOI : 10.1038 / s42256-020-0216-Z . ISSN 2522-5839 .
- Перейти ↑ Bostrom, N., & Yudkowsky, E. (2014). Этика искусственного интеллекта . Кембриджский справочник по искусственному интеллекту, 316-334.
- ^ Видаль, Тибо; Шиффер, Максимилиан (2020). "Ансамбли возрожденных деревьев" . Международная конференция по машинному обучению . PMLR. 119 : 9743–9753.
- ^ говорит Шарлотта Ланкастер (2018-10-04). «Что такое искусственный интеллект | Объяснение искусственного интеллекта» . Эдурека . Проверено 14 сентября 2020 .
- ^ «Конференция FAT *» .
- ^ «Компьютерные программы распознают белых мужчин лучше, чем черных женщин» . Экономист . 2018 . Проверено 5 августа 2018 .
- ^ Олах, Крис; Каммарата, Ник; Шуберт, Людвиг; Го, Габриэль; Петров Михаил; Картер, Шан (10 марта 2020 г.). «Увеличить масштаб: введение в схемы» . Дистиллировать . 5 (3): e00024.001. DOI : 10,23915 / distill.00024.001 . ISSN 2476-0757 .
- ^ Ли, Исюань; Йосинский, Джейсон; Клун, Джефф; Липсон, Ход; Хопкрофт, Джон (8 декабря 2015 г.). «Конвергентное обучение: изучают ли разные нейронные сети одни и те же представления?» . Извлечение функций: современные вопросы и проблемы . PMLR: 196–212.
- ^ Хендрикс, Лиза Энн; Аката, Зейнеп; Рорбах, Маркус; Донахью, Джефф; Шиле, Бернт; Даррелл, Тревор (2016). «Создание визуальных объяснений» . Компьютерное зрение - ECCV 2016 . Конспект лекций по информатике. Издательство Springer International. 9908 : 3–19. arXiv : 1603.08507 . DOI : 10.1007 / 978-3-319-46493-0_1 . ISBN 978-3-319-46492-3.
- ^ Ко, Пан Вэй; Лян, Перси (17 июля 2017 г.). «Понимание прогнозов черного ящика с помощью функций влияния» . Международная конференция по машинному обучению . PMLR: 1885–1894.
- ^ «Семинар IJCAI 2017 по объяснимому искусственному интеллекту (XAI)» (PDF) . Earthlink . IJCAI . Проверено 17 июля 2017 года .
- ^ Кан, Джереми (12 декабря 2018 г.). «Искусственный интеллект должен кое-что объяснить» . Bloomberg Businessweek . Проверено 17 декабря 2018 года .
- ^ «Эволюционное программное обеспечение НАСА автоматически проектирует антенну» . НАСА . НАСА . Проверено 17 июля 2017 года .
- ^ «Быстрый сбой: влияние высокочастотной торговли на электронный рынок» (PDF) . CFTC . CFTC . Проверено 17 июля 2017 года .
- ^ Вен, Стивен Ф; Представители, Дженна; Кай, Джо; Гарибальди, Джонатан М; Куреши, Надим (2017). «Может ли машинное обучение улучшить прогнозирование риска сердечно-сосудистых заболеваний с использованием стандартных клинических данных?» . PLOS ONE . 12 (4): e0174944. Bibcode : 2017PLoSO..1274944W . DOI : 10.1371 / journal.pone.0174944 . PMC 5380334 . PMID 28376093 .
- ^ Хольцингер, Андреас; Биманн, Крис; Pattichis, Constantinos S .; Келл, Дуглас Б. (28 декабря 2017 г.). «Что нам нужно для создания объяснимых систем искусственного интеллекта для медицины?». arXiv : 1712.09923 [ cs.AI ].
- ^ а б Лаккараджу, Химабинду; Рудин, Синтия. «Изучение рентабельных и интерпретируемых режимов лечения» (PDF) . Международная конференция по искусственному интеллекту и статистике (AISTATS) . 2017 .
- ^ «Tesla заявляет, что« не имеет возможности узнать », использовался ли автопилот во время катастрофы в Китае» . Хранитель . 2016-09-14 . Проверено 17 июля 2017 года .
- ^ Абрамс, Рэйчел; Курц, Анналин (июль 2016 г.). «Джошуа Браун, погибший в автокатастрофе, испытал пределы своей Tesla» . Нью-Йорк Таймс . Проверено 17 июля 2017 года .
- ^ Куреши, М. Атиф; Грин, Дерек (2018-06-04). «EVE: объяснимая техника встраивания на основе векторов с использованием Википедии». Журнал интеллектуальных информационных систем . 53 : 137–165. arXiv : 1702.06891 . DOI : 10.1007 / s10844-018-0511-х . ISSN 0925-9902 . S2CID 10656055 .
Внешние ссылки
- «AI Объяснимость 360» .
- «Что такое Объяснимый-Ай и почему это важно» .
- «Объясняемый ИИ - следующая большая вещь в бухгалтерском учете и финансах» .
- «Конференция FAT * по справедливости, подотчетности и прозрачности» .
- «Семинар FATML по справедливости, подотчетности и прозрачности в машинном обучении» .
- « „ Объяснимой Искусственный интеллект“: Крекинг открыть черный ящик AI» . Компьютерный мир . 2017-11-02 . Проверено 2 ноября 2017 .
- Парк, Донг Хук; Хендрикс, Лиза Энн; Аката, Зейнеп; Шиле, Бернт; Даррелл, Тревор; Рорбах, Маркус (2016-12-14). «Внимательные объяснения: обоснование решений и указание на доказательства». arXiv : 1612.04757 [ cs.CV ].
- «Объяснимый ИИ: Делаем машины понятными для людей» . Объяснимый ИИ: Делаем машины понятными для людей . Проверено 2 ноября 2017 .
- «Сквозное глубокое обучение для самоуправляемых автомобилей» . Параллельный Форалл . 2016-08-17 . Проверено 2 ноября 2017 .
- «Объясняя, как сквозное глубокое обучение управляет самоуправляемым автомобилем» . Параллельный Форалл . 2017-05-23 . Проверено 2 ноября 2017 .
- Рыцарь, Уилл (2017-03-14). «DARPA финансирует проекты, которые попытаются открыть черные ящики ИИ» . MIT Technology Review . Проверено 2 ноября 2017 .
- Альварес-Мелис, Дэвид; Яаккола, Томми С. (06.07.2017). «Причинно-следственная структура для объяснения предсказаний моделей« последовательность к последовательности черного ящика »». arXiv : 1707.01943 [ cs.LG ].
- «Сходство разрушает код объяснимого ИИ» . simMachines . 2017-10-12 . Проверено 2 февраля 2018 .
- Боярский, Мариуш; Йерес, Филипп; Чороманская, Анна; Чороманский, Кшиштоф; Фирнер, Бернхард; Жакель, Лоуренс; Мюллер, Урс (2017-04-25). «Объяснение того, как глубокая нейронная сеть, обученная с помощью сквозного обучения, управляет автомобилем». arXiv : 1704.07911 [ cs.CV ].
- «Каковы методы интерпретации результатов методов машинного обучения?» . IntelligenceReborn . 2020-12-30 . Проверено 30 декабря 2020 .