В области искусственного интеллекта , интеллектуальный агент ( IA ) относится к автономному лицу , которое действует, направляя свою деятельность на пути к достижению целей (т.е. он является агентом ), по представлению окружающей среды с помощью наблюдения через датчики и последующие исполнительные механизмы (т.е. интеллектуальные). [1] Интеллектуальные агенты также могут изучать или использовать знания для достижения своих целей. Они могут быть очень простыми или очень сложными . Рефлекторная машина, такая как термостат , считается примером интеллектуального агента. [2]
Интеллектуальные агенты часто схематически описываются как абстрактная функциональная система, подобная компьютерной программе. Такие исследователи, как Russell & Norvig (2003), считают целенаправленное поведение сущностью интеллекта; нормативный агент может быть обозначен термином, заимствованным из экономической теории , « рациональный агент ». В этой парадигме рационального действия ИА обладает внутренней «моделью» своего окружения. Эта модель инкапсулирует все представления агента о мире. У агента также есть «целевая функция», которая включает в себя все цели IA. Такой агент предназначен для создания и выполнения любого плана, который по завершении максимизирует ожидаемое значение целевой функции. [3] обучение с подкреплением агент может иметь «награду функцию» , которая позволяет программистам формировать желаемое поведение НМА в, [4] и эволюционный алгоритм поведения «s имеет форму с помощью„функции приспособленности“. [5] Абстрактные описания интеллектуальных агентов иногда называют абстрактными интеллектуальными агентами ( AIA ), чтобы отличить их от их реализаций в реальном мире, таких как компьютерные системы, биологические системы или организации. Некоторые автономные интеллектуальные агенты предназначены для работы без вмешательства человека. По мере того как интеллектуальные агенты становятся все более популярными, возрастают правовые риски. [6] : 815
Интеллектуальные агенты в искусственном интеллекте тесно связаны с агентами в экономике , и версии парадигмы интеллектуальных агентов изучаются в когнитивной науке , этике , философии практического разума , а также во многих междисциплинарных социально-когнитивных моделях и компьютерных социальных симуляциях .
Интеллектуальные агенты также тесно связаны с программными агентами (автономная компьютерная программа, выполняющая задачи от имени пользователей). В информатике , интеллектуальный агент представляет собой программное средство , которое имеет некоторый интеллект, например, автономные программы , которые используются для помощи оператора или интеллектуального анализа данных (иногда называют ботами ), также называемым «интеллектуальными агентами». [ необходима цитата ]
Определения и характеристики
По словам Николы Касабова (1998), [7] системы ИА должны обладать следующими характеристиками:
- Постепенно приспосабливайте новые правила решения проблем
- Адаптируйтесь онлайн и в реальном времени
- Умеют анализировать себя с точки зрения поведения, ошибок и успеха.
- Учиться и совершенствоваться через взаимодействие с окружающей средой ( воплощение )
- Быстро учиться на больших объемах данных
- Иметь возможности для хранения и извлечения образцов на основе памяти
- Имеют параметры для представления кратковременной и долговременной памяти, возраста, забывания и т. Д.
Пэдхэм и Виникофф (2005) соглашаются с тем, что интеллектуальный агент находится в среде и реагирует (своевременно, хотя и не обязательно в реальном времени) на изменения среды. Однако интеллектуальные агенты также должны активно и гибко преследовать цели. [a] Необязательные пожелания включают, чтобы агент был рациональным и чтобы агент был способен анализировать убеждение-желание-намерение . [8] Некоторые определения 20-го века характеризуют агента как программу, которая помогает пользователю или действует от имени пользователя. [9] Влиятельный AIMA (2009) определяет агента как «все, что можно рассматривать как воспринимающее окружающую среду с помощью датчиков и воздействующее на эту среду с помощью исполнительных механизмов», и характеризует интеллект как способность успешно действовать в соответствии с определенными идеальными стандартами. для рациональности. [10] [11]
«Интеллектуальный агент» также часто используется как неопределенный маркетинговый термин, иногда синоним « виртуального личного помощника ». [12]
Целевая функция
Некоторым агентам можно присвоить явную «целевую функцию»; агент считается более умным, если он последовательно выполняет действия, которые успешно максимизируют его запрограммированную целевую функцию. «Целевая функция» включает в себя все цели, ради достижения которых агент стремится действовать; в случае рациональных агентов функция также инкапсулирует приемлемые компромиссы между достижением конфликтующих целей. (Терминология изменяется, например, некоторые агенты стремятся максимизировать или минимизировать « функцию полезности », «целевую функцию», или « функции потерь ».) [10] [11] Теоретический и невычислимое Aixi конструкция представляет собой максимально интеллектуальный агент в эта парадигма; [13] однако в реальном мире IA ограничен конечным временем и аппаратными ресурсами, и ученые соревнуются в создании алгоритмов, которые могут достигать все более высоких результатов в тестовых тестах с реальным оборудованием. [14]
Системы, которые традиционно не считаются агентами, такие как системы представления знаний, иногда включаются в парадигму, представляя их как агентов, цель которых (например) состоит в том, чтобы отвечать на вопросы как можно точнее; понятие «действие» здесь расширено и включает в себя «действие» ответа на вопрос. В качестве дополнительного расширения системы, управляемые мимикрией, могут быть представлены как агенты, оптимизирующие «целевую функцию» в зависимости от того, насколько точно IA преуспевает в имитации желаемого поведения. [10] [11] В генерирующих состязательных сетях 2010-х компонент «кодировщик» / «генератор» пытается имитировать и импровизировать композицию человеческого текста. Генератор пытается максимизировать функцию, инкапсулирующую, насколько хорошо он может обмануть антагонистический компонент «предсказатель» / «дискриминатор». [15]
Хотя системы GOFAI часто принимают явную целевую функцию, парадигма также может применяться к нейронным сетям и к эволюционным вычислениям . Обучение с подкреплением может генерировать интеллектуальных агентов, которые действуют таким образом, чтобы максимизировать «функцию вознаграждения». [16] Иногда вместо того, чтобы устанавливать для функции вознаграждения прямое равенство желаемой функции оценки эталонного теста, программисты машинного обучения используют формирование вознаграждения, чтобы изначально вознаграждать машину за постепенный прогресс в обучении. [17] Ян Лекун заявил в 2018 году, что «большинство алгоритмов обучения, которые придумали люди, по сути, состоят в минимизации некоторой целевой функции». [18] У шахмат AlphaZero была простая целевая функция; каждая победа засчитывается как +1 очко, а каждое поражение засчитывается как -1 очко. Целевая функция для беспилотного автомобиля должна быть более сложной. [19] Эволюционные вычисления могут развить интеллектуальных агентов, которые, по-видимому, действуют таким образом, чтобы максимизировать «функцию приспособленности», которая влияет на то, сколько потомков каждому агенту разрешено покинуть. [5]
Состав агентов
Простая программа агента может быть определена математически как функция f (называемая «функцией агента») [20], которая отображает каждую возможную последовательность восприятий на возможное действие, которое может выполнить агент, или на коэффициент, элемент обратной связи, функцию или константу, которая влияет на возможные действия:
Функция агента - это абстрактное понятие, так как оно может включать в себя различные принципы принятия решений, такие как расчет полезности отдельных вариантов, дедукция по логическим правилам, нечеткая логика и т. Д. [21]
Агент программы , вместо этого, отображает все возможные перцепции к действию. [22]
Мы используем термин «восприятие» для обозначения восприятий, поступающих от агента в любой данный момент. На следующих рисунках агент - это все, что можно рассматривать как воспринимающее среду с помощью датчиков и воздействующее на нее с помощью исполнительных механизмов.
Архитектура
Вайс (2013) определяет четыре класса агентов:
- Агенты на основе логики - в которых решение о том, какое действие выполнить, принимается посредством логической дедукции;
- Реактивные агенты - в которых принятие решений осуществляется в той или иной форме прямого отображения ситуации в действие;
- Агенты убеждения-желания-намерения - в которых принятие решений зависит от манипулирования структурами данных, представляющими убеждения, желания и намерения агента; и наконец,
- Многоуровневые архитектуры - в которых принятие решений реализуется через различные программные уровни, каждый из которых более или менее явно рассуждает о среде на разных уровнях абстракции.
Как правило, агент может быть сконструирован путем разделения тела на датчики и исполнительные механизмы, чтобы он работал со сложной системой восприятия, которая принимает описание мира в качестве входных данных для контроллера и выдает команды исполнительному механизму. Однако иерархия уровней контроллеров часто необходима для уравновешивания немедленной реакции, необходимой для задач низкого уровня, и медленных рассуждений о сложных целях высокого уровня. [23]
Классы
Рассел и Норвиг (2003)
группируют агентов в пять классов в зависимости от степени их предполагаемого интеллекта и способностей: [24]- простые рефлекторные агенты
- модельные рефлекторные агенты
- целевые агенты
- служебные агенты
- обучающие агенты
Простые рефлекторные агенты
Простые рефлекторные агенты действуют только на основе текущего восприятия, игнорируя остальную часть истории восприятия. Функция агента основана на правиле « условие-действие» : «если условие, то действие».
Эта функция агента выполняется успешно только тогда, когда среда полностью наблюдаема. Некоторые рефлекторные агенты также могут содержать информацию об их текущем состоянии, что позволяет им игнорировать состояния, исполнительные механизмы которых уже сработали.
Бесконечные петли часто неизбежны для простых рефлекторных агентов, действующих в частично наблюдаемой среде. Примечание: если агент может рандомизировать свои действия, возможно, удастся выйти из бесконечных циклов.
Рефлекторные агенты на основе моделей
Агент на основе модели может работать с частично наблюдаемыми средами. Его текущее состояние хранится внутри агента, поддерживающего некую структуру, описывающую ту часть мира, которую нельзя увидеть. Это знание о том, «как устроен мир», называется моделью мира, отсюда и название «агент на основе модели».
Рефлекторный агент, основанный на модели, должен поддерживать своего рода внутреннюю модель, которая зависит от истории восприятия и, таким образом, отражает по крайней мере некоторые из ненаблюдаемых аспектов текущего состояния. Историю восприятия и влияние действий на окружающую среду можно определить с помощью внутренней модели. Затем он выбирает действие так же, как рефлекторный агент.
Агент также может использовать модели для описания и прогнозирования поведения других агентов в окружающей среде. [25]
Целевые агенты
Агенты на основе целей дополнительно расширяют возможности агентов на основе моделей за счет использования «целевой» информации. Информация о цели описывает ситуации, которые желательны. Это дает агенту возможность выбирать среди множества возможностей, выбирая ту, которая достигает целевого состояния. Поиск и планирование - это подполя искусственного интеллекта, предназначенные для поиска последовательностей действий, которые достигают целей агента.
Коммунальные агенты
Агенты, основанные на целях, различают только целевые состояния и нецелевые состояния. Также возможно определить меру того, насколько желательно то или иное состояние. Эта мера может быть получена с помощью функции полезности, которая отображает состояние в меру полезности состояния. Более общий показатель эффективности должен позволять сравнивать различные состояния мира в зависимости от того, насколько хорошо они удовлетворяют целям агента. Термин «полезность» можно использовать для описания того, насколько «счастлив» агент.
Агент, основанный на рациональной полезности, выбирает действие, которое максимизирует ожидаемую полезность результатов действия, то есть то, что агент ожидает получить в среднем с учетом вероятностей и полезности каждого результата. Агент на основе утилит должен моделировать и отслеживать свое окружение, задачи, которые потребовали большого количества исследований по восприятию, представлению, рассуждению и обучению.
Обучающие агенты
Преимущество обучения состоит в том, что оно позволяет агентам изначально работать в неизвестной среде и становиться более компетентными, чем могут позволить только их первоначальные знания. Наиболее важное различие заключается между «элементом обучения», который отвечает за внесение улучшений, и «элементом производительности», который отвечает за выбор внешних действий.
Элемент обучения использует обратную связь от «критика» о том, как работает агент, и определяет, как следует изменить элемент производительности или «актера», чтобы добиться лучших результатов в будущем. Элемент производительности - это то, что мы ранее считали агентом в целом: он принимает решения и принимает решения о действиях.
Последний компонент обучающего агента - «генератор проблем». Он отвечает за предложение действий, которые приведут к новому и информативному опыту.
Иерархии агентов
Для активного выполнения своих функций интеллектуальные агенты сегодня обычно собираются в иерархическую структуру, содержащую множество «субагентов». Интеллектуальные субагенты обрабатывают и выполняют функции более низкого уровня. Взятые вместе, интеллектуальный агент и субагенты создают законченную систему, которая может выполнять сложные задачи или цели с поведением и реакциями, которые демонстрируют форму интеллекта.
Приложения
Интеллектуальные агенты применяются в качестве автоматизированных онлайн-помощников , где они функционируют, чтобы воспринимать потребности клиентов с целью индивидуального обслуживания клиентов . Такой агент может в основном состоять из диалоговой системы , аватара , а также экспертной системы для предоставления пользователю определенных знаний. [26] Их также можно использовать для оптимизации координации групп людей в сети. [27]
Смотрите также
- Программный агент
- Когнитивные архитектуры
- Когнитивное радио - практическое поле для реализации
- Кибернетика , Информатика
- Агент интеллектуального анализа данных
- Воплощенный агент
- Федеративный поиск - способность агентов искать разнородные источники данных с использованием единого словаря.
- Нечеткие агенты - IA с адаптивной нечеткой логикой
- Язык программирования агента GOAL
- Интеллект
- Интеллектуальная система
- ДЖЕК Интеллектуальные агенты
- Многоагентная система и многоагентная система - несколько интерактивных агентов
- Горох классификация - среды агента
- Обучение с подкреплением
- Семантическая сеть - предоставление данных в Интернете для автоматической обработки агентами.
- Смоделированная реальность
- Социальная симуляция
- Эра интеллектуальных агентов
Заметки
- ^ Определение Пэгхэма и Виникофф явно охватывает только социальных агентов, которые взаимодействуют с другими агентами.
Встроенные ссылки
- ^ Андерсон, Майкл; Андерсон, Сьюзан Ли (2007-12-15). «Машинная этика: создание этического интеллектуального агента» . Журнал AI . 28 (4): 15–15. DOI : 10,1609 / aimag.v28i4.2065 . ISSN 2371-9621 .
- ↑ Согласно определению, данному Russell & Norvig (2003 , глава 2)
- ^ Брингсджорда, Selmer и Govindarajulu, Нэвин Сундара, "Искусственный интеллект", Стэнфорд энциклопедия философии (лето 2020издание), Эдвард Н. Залта (ред.), URL = https://plato.stanford.edu/archives/sum2020 / записи / искусственный интеллект / .
- ^ Вулховер, Натали (30 января 2020 г.). «Искусственный интеллект сделает то, что мы просим. Это проблема» . Журнал Quanta . Проверено 21 июня 2020 .
- ^ Б Bull, Ларри. «Об эволюционных расчетах на основе моделей». Мягкие вычисления 3, вып. 2 (1999): 76-82.
- ^ Ван Лоо, Рори (2019-03-01). «Совершенство цифрового рынка» . Обзор закона штата Мичиган . 117 (5): 815.
- ^ Касабов 1998
- ^ Лин Пэгэм и Майкл Виникофф. Разработка систем интеллектуальных агентов: Практическое руководство. Vol. 13. Джон Вили и сыновья, 2005.
- ↑ Бургин, Марк и Гордана Додиг-Црнкович. «Системный подход к искусственным агентам». Препринт arXiv arXiv: 0902.3513 (2009).
- ^ a b c Рассел и Норвиг (2003)
- ^ a b c Брингсйорд, Сельмер и Говиндараджулу, Навин Сундар, «Искусственный интеллект», Стэнфордская энциклопедия философии (издание летом 2020 г.), Эдвард Н. Залта (ред.), готовится к публикации URL = < https: //plato.stanford. edu / archives / sum2020 / записи / искусственный интеллект / >.
- ^ Фингар, Питер (2018). «Конкуренция за будущее с умными агентами ... и признание» . Сайты Forbes . Проверено 18 июня 2020 .
- ^ Адамс, Сэм; Арел, Итмар; Бах, Иоша; Куп, Роберт; Фурлан, Род; Герцель, Бен; Холл, Дж. Сторрс; Самсонович Алексей; Шойц, Матиас; Шлезингер, Мэтью; Шапиро, Стюарт К.; Сова, Джон (15 марта 2012 г.). «Составление карты общего искусственного интеллекта на уровне человека» . Журнал AI . 33 (1): 25. DOI : 10,1609 / aimag.v33i1.2322 .
- ^ Хатсон, Мэтью (27 мая 2020 г.). «Яркие достижения в некоторых областях искусственного интеллекта нереальны» . Наука | AAAS . Проверено 18 июня 2020 .
- ^ «Генеративные состязательные сети: что такое GAN и как они развивались» . VentureBeat . 26 декабря 2019 . Проверено 18 июня 2020 .
- ^ Вулховер, Натали (январь 2020 г.). «Искусственный интеллект сделает то, что мы просим. Это проблема» . Журнал Quanta . Проверено 18 июня 2020 .
- ↑ Эндрю Ю. Нг, Дайши Харада и Стюарт Рассел. «Политическая инвариантность при трансформации вознаграждения: теория и применение к формированию вознаграждения». В ICML, т. 99, стр. 278-287. 1999 г.
- ^ Мартин Форд . Архитекторы интеллекта: правда об ИИ от создателей его. Packt Publishing Ltd, 2018.
- ^ «Почему у искусственного интеллекта AlphaZero проблемы с реальным миром» . Журнал Quanta . 2018 . Проверено 18 июня 2020 .
- ^ Russell & Норвиг 2003 , стр. 33
- ^ Саламон, Томас (2011). Дизайн агент-ориентированных моделей . Репин: Издательство Брукнера. С. 42–59. ISBN 978-80-904661-1-1.
- ^ Нильссон, Нильс Дж. (Апрель 1996 г.). «Искусственный интеллект: современный подход» . Искусственный интеллект . 82 (1–2): 369–380. DOI : 10.1016 / 0004-3702 (96) 00007-0 . ISSN 0004-3702 .
- ^ Пул, Дэвид; Макворт, Алан. «1.3 Агенты, расположенные в средах‣ Глава 2 Архитектура агентов и иерархическое управление‣ Искусственный интеллект: основы вычислительных агентов, 2-е издание» . artint.info . Проверено 28 ноября 2018 .
- ^ Russell & Норвиг 2003 , стр. 46-54
- ^ Стефано Альбрехт и Питер Стоун (2018). Автономные агенты, моделирующие других агентов: всесторонний обзор и открытые проблемы. Искусственный интеллект, Vol. 258. С. 66-95. https://doi.org/10.1016/j.artint.2018.01.002
- ^ Предоставление преподавателю языка с помощником по искусственному интеллекту . Кшиштоф Пьетрошек. Международный журнал новых технологий в обучении (iJET), Том 2, № 4 (2007) [1]«Архивная копия» . Архивировано из оригинала на 2012-03-07 . Проверено 29 января 2012 .CS1 maint: заархивированная копия как заголовок ( ссылка )
- ^ Ширадо, Хирокадзу; Кристакис, Николас А (2017). «Локально зашумленные автономные агенты улучшают глобальную координацию человека в сетевых экспериментах» . Природа . 545 (7654): 370–374. Bibcode : 2017Natur.545..370S . DOI : 10.1038 / nature22332 . PMC 5912653 . PMID 28516927 .
Прочие ссылки
- Рассел, Стюарт Дж .; Норвиг, Питер (2003). Искусственный интеллект: современный подход (2-е изд.). Река Аппер Сэдл, Нью-Джерси: Prentice Hall. Глава 2. ISBN 0-13-790395-2.
- Франклин, Стэн; Graesser, Искусство (1996). «Это агент или просто программа? Таксономия для автономных агентов» (PDF) . Труды Третьего международного семинара по теории агентов, архитектуре и языкам . Springer-Verlag. Архивировано из оригинального (PDF) 29 мая 2015 года.
- Касабов, Н. (1998). «Введение: гибридные интеллектуальные адаптивные системы». Международный журнал интеллектуальных систем . 13 (6): 453–454. DOI : 10.1002 / (SICI) 1098-111X (199806) 13: 6 <453 :: AID-INT1> 3.0.CO; 2-K .
- Вайс, Г. (2013). Мультиагентные системы (2-е изд.). Кембридж, Массачусетс: MIT Press. ISBN 978-0-262-01889-0.
Внешние ссылки
- Коневральный