Из Википедии, бесплатной энциклопедии
  (Перенаправлено от интеллектуальных агентов )
Перейти к навигации Перейти к поиску

В области искусственного интеллекта , интеллектуальный агент ( IA ) относится к автономному лицу , которое действует, направляя свою деятельность на пути к достижению целей (т.е. он является агентом ), по представлению окружающей среды с помощью наблюдения через датчики и последующие исполнительные механизмы (т.е. интеллектуальные). [1] Интеллектуальные агенты также могут изучать или использовать знания для достижения своих целей. Они могут быть очень простыми или очень сложными . Рефлекторная машина, такая как термостат , считается примером интеллектуального агента. [2]

Простой рефлекторный агент

Интеллектуальные агенты часто схематически описываются как абстрактная функциональная система, подобная компьютерной программе. Такие исследователи, как Russell & Norvig (2003), считают, что целенаправленное поведение является сущностью интеллекта; нормативный агент может быть обозначен термином, заимствованным из экономической теории , « рациональный агент ». В этой парадигме рационального действия ИА обладает внутренней «моделью» своего окружения. Эта модель инкапсулирует все представления агента о мире. У агента также есть «целевая функция», которая включает в себя все цели IA. Такой агент предназначен для создания и выполнения любого плана, который по завершении максимизирует ожидаемое значение целевой функции.[3] ААгент обучения с подкреплением может иметь «функцию вознаграждения», которая позволяет программистам формировать желаемое поведение IA [4], а поведение эволюционного алгоритма формируется «функцией приспособленности». [5] Абстрактные описания интеллектуальных агентов иногда называют абстрактными интеллектуальными агентами ( AIA ), чтобы отличить их от их реализаций в реальном мире, таких как компьютерные системы, биологические системы или организации. Некоторые автономные интеллектуальные агенты предназначены для работы без вмешательства человека. По мере того как интеллектуальные агенты становятся все более популярными, возрастают правовые риски. [6] : 815

Интеллектуальные агенты в искусственном интеллекте тесно связаны с агентами в экономике , и версии парадигмы интеллектуальных агентов изучаются в когнитивной науке , этике , философии практического разума , а также во многих междисциплинарных социально-когнитивных моделях и компьютерных социальных симуляциях .

Интеллектуальные агенты также тесно связаны с программными агентами (автономная компьютерная программа, которая выполняет задачи от имени пользователей). В информатике , интеллектуальный агент представляет собой программное средство , которое имеет некоторый интеллект, например, автономные программы , которые используются для помощи оператора или интеллектуального анализа данных (иногда называют ботами ), также называемым «интеллектуальными агентами». [ необходима цитата ]

Определения и характеристики [ править ]

По словам Николы Касабова (1998), [7] системы ИА должны обладать следующими характеристиками:

  • Постепенно адаптируйте новые правила решения проблем
  • Адаптация онлайн и в реальном времени
  • Умеют анализировать себя с точки зрения поведения, ошибок и успеха.
  • Учиться и совершенствоваться через взаимодействие с окружающей средой ( воплощение )
  • Быстро учиться на больших объемах данных
  • Иметь возможности для хранения и извлечения образцов на основе памяти
  • Имеют параметры для представления краткосрочной и долгосрочной памяти, возраста, забывания и т.

Пэдхэм и Виникофф (2005) соглашаются, что интеллектуальный агент находится в среде и реагирует (своевременно, хотя и не обязательно в реальном времени) на изменения среды. Однако интеллектуальные агенты также должны активно и гибко преследовать цели. [a] Необязательные пожелания включают, чтобы агент был рациональным и чтобы агент был способен анализировать убеждение-желание-намерение . [8] Некоторые определения 20-го века характеризуют агента как программу, которая помогает пользователю или действует от имени пользователя. [9] Влиятельная AIMA(2009) определяет агента как «все, что можно рассматривать как воспринимающее окружающую среду с помощью датчиков и воздействующее на эту среду с помощью исполнительных механизмов», и характеризует интеллект как способность успешно действовать в соответствии с определенными идеальными стандартами рациональности. [10] [11]

«Интеллектуальный агент» также часто используется как неопределенный маркетинговый термин, иногда синоним « виртуального личного помощника ». [12]

Целевая функция [ править ]

Некоторым агентам можно назначить явную «целевую функцию»; агент считается более умным, если он последовательно предпринимает действия, которые успешно максимизируют его запрограммированную целевую функцию. «Целевая функция» включает в себя все цели, ради достижения которых агент стремится действовать; в случае рациональных агентов функция также включает приемлемые компромиссы между достижением конфликтующих целей. (Терминология изменяется, например, некоторые агенты стремятся максимизировать или минимизировать « функцию полезности », «целевую функцию», или « функции потерь ».) [10] [11] Теоретический и невычислимое Aixi конструкция представляет собой максимально интеллектуальный агент в эта парадигма; [13]однако в реальном мире IA ограничен конечным временем и аппаратными ресурсами, и ученые соревнуются в создании алгоритмов, которые могут достигать все более высоких результатов в тестовых тестах с реальным оборудованием. [14]

Системы, которые традиционно не считаются агентами, такие как системы представления знаний, иногда включаются в парадигму, представляя их как агентов, цель которых (например) состоит в том, чтобы отвечать на вопросы как можно точнее; понятие «действие» здесь расширено и включает в себя «действие» ответа на вопрос. В качестве дополнительного расширения системы, управляемые мимикрией, могут быть представлены как агенты, оптимизирующие «целевую функцию» на основе того, насколько точно IA преуспевает в имитации желаемого поведения. [10] [11] В генеративных состязательных сетях2010-х годов компонент «кодировщик» / «генератор» пытается имитировать и импровизировать композицию человеческого текста. Генератор пытается максимизировать функцию, инкапсулирующую, насколько хорошо он может обмануть антагонистический компонент «предсказатель» / «дискриминатор». [15]

В то время как системы GOFAI часто принимают явную целевую функцию, парадигма также может применяться к нейронным сетям и эволюционным вычислениям . Обучение с подкреплением может генерировать интеллектуальных агентов, которые действуют таким образом, чтобы максимизировать «функцию вознаграждения». [16] Иногда, вместо того, чтобы устанавливать для функции вознаграждения прямое равенство желаемой функции оценки эталонного теста, программисты машинного обучения используют формирование вознаграждения, чтобы изначально вознаграждать машину за постепенный прогресс в обучении. [17] Янн ЛеКунзаявил в 2018 году, что «большинство алгоритмов обучения, которые придумали люди, по сути состоят в минимизации некоторой целевой функции». [18] У шахмат AlphaZero была простая целевая функция; каждая победа засчитывается как +1 очко, а каждое поражение засчитывается как -1 очко. Целевая функция для беспилотного автомобиля должна быть более сложной. [19] Эволюционные вычисления могут развить интеллектуальных агентов, которые, по-видимому, действуют таким образом, чтобы максимизировать «функцию приспособленности», которая влияет на то, сколько потомков каждому агенту разрешено покинуть. [20]

Состав агентов [ править ]

Простая программа агента может быть определена математически как функция f (называемая «функцией агента») [21], которая отображает каждую возможную последовательность восприятий на возможное действие, которое может выполнить агент, или на коэффициент, элемент обратной связи, функцию или константу, которая влияет на возможные действия:

Функция агента - это абстрактное понятие, так как оно может включать в себя различные принципы принятия решений, такие как расчет полезности отдельных вариантов, дедукция по логическим правилам, нечеткая логика и т. Д. [22]

Агент программы , вместо этого, отображает все возможные перцепции к действию. [23]

Мы используем термин «восприятие» для обозначения восприятия, поступающего от агента в любой данный момент. На следующих рисунках агент - это все, что можно рассматривать как воспринимающее среду с помощью датчиков и воздействующее на нее с помощью исполнительных механизмов.

Архитектура [ править ]

Вайс (2013) определяет четыре класса агентов:

  • Агенты на основе логики - в которых решение о том, какое действие выполнить, принимается посредством логической дедукции;
  • Реактивные агенты - в которых принятие решений осуществляется в той или иной форме прямого отображения ситуации в действие;
  • Агенты убеждения-желания-намерения - в которых принятие решений зависит от манипулирования структурами данных, представляющими убеждения, желания и намерения агента; и наконец,
  • Многоуровневые архитектуры - в которых принятие решений реализуется через различные программные уровни, каждый из которых более или менее явно рассуждает о среде на разных уровнях абстракции.

Как правило, агент может быть сконструирован путем разделения тела на датчики и исполнительные механизмы, чтобы он работал со сложной системой восприятия, которая принимает описание мира в качестве входных данных для контроллера и выдает команды исполнительному механизму. Однако иерархия уровней контроллеров часто необходима, чтобы сбалансировать немедленную реакцию, желаемую для задач низкого уровня, и медленное рассуждение о сложных целях высокого уровня. [24]

Классы [ править ]

Простой рефлекторный агент
Рефлекторный агент на основе модели
Агент на основе модели и цели
Агент на основе модели, на основе полезности
Агент общего обучения

Рассел и Норвиг (Russell & Norvig, 2003) группируют агентов в пять классов в зависимости от степени их предполагаемого интеллекта и способностей: [25]

  1. простые рефлекторные агенты
  2. модельные рефлекторные агенты
  3. целевые агенты
  4. служебные агенты
  5. агенты обучения

Простые рефлекторные агенты [ править ]

Простые рефлекторные агенты действуют только на основе текущего восприятия, игнорируя остальную часть истории восприятия. Функция агента основана на правиле « условие-действие» : «если условие, то действие».

Эта функция агента выполняется успешно только тогда, когда среда полностью наблюдаема. Некоторые рефлекторные агенты также могут содержать информацию об их текущем состоянии, что позволяет им игнорировать состояния, исполнительные механизмы которых уже сработали.

Бесконечные петли часто неизбежны для простых рефлекторных агентов, работающих в частично наблюдаемой среде. Примечание: если агент может рандомизировать свои действия, возможно, удастся выйти из бесконечных циклов.

Рефлекторные агенты на основе моделей [ править ]

Агент на основе модели может обрабатывать частично наблюдаемые среды. Его текущее состояние хранится внутри агента, поддерживающего некую структуру, описывающую ту часть мира, которую нельзя увидеть. Это знание о том, «как устроен мир», называется моделью мира, отсюда и название «агент на основе модели».

Рефлекторный агент, основанный на модели, должен поддерживать какую-то внутреннюю модель, которая зависит от истории восприятия и тем самым отражает по крайней мере некоторые из ненаблюдаемых аспектов текущего состояния. Историю восприятия и влияние действий на окружающую среду можно определить с помощью внутренней модели. Затем он выбирает действие так же, как рефлекторный агент.

Агент также может использовать модели для описания и прогнозирования поведения других агентов в окружающей среде. [26]

Целевые агенты [ править ]

Агенты на основе целей дополнительно расширяют возможности агентов на основе моделей за счет использования «целевой» информации. Информация о цели описывает ситуации, которые желательны. Это дает агенту возможность выбирать среди множества возможностей, выбирая ту, которая достигает целевого состояния. Поиск и планирование - это подполя искусственного интеллекта, предназначенные для поиска последовательностей действий, которые достигают целей агента.

Служебные агенты [ править ]

Агенты, основанные на целях, различают только целевые состояния и нецелевые состояния. Также возможно определить меру того, насколько желательно то или иное состояние. Эта мера может быть получена с помощью функции полезности, которая отображает состояние в меру полезности состояния. Более общий показатель эффективности должен позволять сравнивать различные состояния мира в зависимости от того, насколько хорошо они соответствуют целям агента. Термин «полезность» можно использовать для описания того, насколько «счастлив» агент.

Агент, основанный на рациональной полезности, выбирает действие, которое максимизирует ожидаемую полезность результатов действия, то есть то, что агент ожидает получить в среднем с учетом вероятностей и полезности каждого результата. Агент на основе утилит должен моделировать и отслеживать свою среду, задачи, которые потребовали большого количества исследований в области восприятия, представления, рассуждений и обучения.

Обучающие агенты [ править ]

Преимущество обучения состоит в том, что оно позволяет агентам изначально работать в неизвестной среде и становиться более компетентными, чем могут позволить только их первоначальные знания. Наиболее важным различием является «элемент обучения», который отвечает за внесение улучшений, и «элемент производительности», который отвечает за выбор внешних действий.

Элемент обучения использует обратную связь от «критика» о том, как работает агент, и определяет, как следует изменить элемент производительности или «актера», чтобы добиться лучших результатов в будущем. Элемент производительности - это то, что мы раньше считали агентом в целом: он принимает решения и принимает решения о действиях.

Последний компонент обучающего агента - «генератор проблем». Он отвечает за предложения действий, которые приведут к новому и информативному опыту.

Иерархии агентов [ править ]

Для активного выполнения своих функций интеллектуальные агенты сегодня обычно собираются в иерархическую структуру, содержащую множество «субагентов». Интеллектуальные субагенты обрабатывают и выполняют функции более низкого уровня. Взятые вместе, интеллектуальный агент и субагенты создают законченную систему, которая может выполнять сложные задачи или цели с помощью поведения и реакций, отображающих форму интеллекта.

Приложения [ править ]

Пример автоматического онлайн-помощника, обеспечивающего автоматическое обслуживание клиентов на веб-странице.

Интеллектуальные агенты применяются в качестве автоматизированных онлайн-помощников , где они действуют, чтобы воспринимать потребности клиентов, чтобы выполнять индивидуальное обслуживание клиентов . Такой агент может в основном состоять из диалоговой системы , аватара , а также экспертной системы для предоставления пользователю определенных знаний. [27] Их также можно использовать для оптимизации координации групп людей в сети. [28]

См. Также [ править ]

  • Программный агент
  • Когнитивные архитектуры
  • Когнитивное радио - практическое поле для реализации
  • Кибернетика , Информатика
  • Агент интеллектуального анализа данных
  • Воплощенный агент
  • Федеративный поиск - способность агентов искать разнородные источники данных с использованием единого словаря.
  • Нечеткие агенты - IA с адаптивной нечеткой логикой
  • Язык программирования агента GOAL
  • Интеллект
  • Интеллектуальная система
  • ДЖЕК Интеллектуальные агенты
  • Многоагентная система и многоагентная система - несколько интерактивных агентов
  • Классификация PEAS среды агента
  • Обучение с подкреплением
  • Семантическая сеть - предоставление данных в Интернете для автоматической обработки агентами
  • Смоделированная реальность
  • Социальная симуляция
  • Эра интеллектуальных агентов

Примечания [ править ]

  1. ^ Определение Пэгхема и Виникоффа явно охватывает только социальных агентов, которые взаимодействуют с другими агентами.

Встроенные ссылки [ править ]

  1. ^ Андерсон, Майкл; Андерсон, Сьюзан Ли (2007-12-15). «Машинная этика: создание этического интеллектуального агента» . Журнал AI . 28 (4): 15–15. DOI : 10,1609 / aimag.v28i4.2065 . ISSN  2371-9621 .
  2. Согласно определению, данному Russell & Norvig (2003 , глава 2)
  3. ^ Брингсджорда, Selmer и Govindarajulu, Нэвин Сундара, "Искусственный интеллект", Стэнфорд энциклопедия философии (лето 2020издание), Эдвард Н. Залта (ред.), URL = https://plato.stanford.edu/archives/sum2020 / записи / искусственный интеллект / .
  4. ^ Wolchover, Натали (30 января 2020). «Искусственный интеллект сделает то, что мы просим. Это проблема» . Журнал Quanta . Проверено 21 июня 2020 .
  5. ^ Бык, Ларри. «Об эволюционных расчетах на основе моделей». Soft Computing 3, вып. 2 (1999): 76-82.
  6. ^ Ван Лу, Рори (2019-03-01). «Совершенство цифрового рынка» . Обзор закона штата Мичиган . 117 (5): 815.
  7. ^ Касабов 1998
  8. ^ Лин Пэгэм и Майкл Виникофф. Разработка систем интеллектуальных агентов: Практическое руководство. Vol. 13. Джон Вили и сыновья, 2005.
  9. ^ Бургин, Марк и Гордана Додиг-Црнкович. «Системный подход к искусственным агентам». Препринт arXiv arXiv: 0902.3513 (2009).
  10. ^ a b c Рассел и Норвиг (2003)
  11. ^ a b c Брингсйорд, Селмер и Говиндараджулу, Навин Сундар, «Искусственный интеллект», Стэнфордская энциклопедия философии (издание летом 2020 г.), Эдвард Н. Залта (ред.), готовится к публикации URL = < https: //plato.stanford. edu / archives / sum2020 / записи / искусственный интеллект / >.
  12. ^ Фингара, Питер (2018). «Конкуренция за будущее с умными агентами ... и признание» . Сайты Forbes . Проверено 18 июня 2020 .
  13. ^ Адамс, Сэм; Арел, Итмар; Бах, Йоша; Куп, Роберт; Фурлан, Род; Герцель, Бен; Холл, Дж. Сторрс; Самсонович Алексей; Шойц, Матиас; Шлезингер, Мэтью; Шапиро, Стюарт К.; Сова, Джон (15 марта 2012 г.). «Составление карты общего искусственного интеллекта на уровне человека» . Журнал AI . 33 (1): 25. DOI : 10,1609 / aimag.v33i1.2322 .
  14. ^ Хутсон, Мэтью (27 мая 2020). «Яркие достижения в некоторых областях искусственного интеллекта нереальны» . Наука | AAAS . Проверено 18 июня 2020 .
  15. ^ «Генеративные состязательные сети: что такое GAN и как они развивались» . VentureBeat . 26 декабря 2019 . Проверено 18 июня 2020 .
  16. ^ Wolchover Натали (январь 2020). «Искусственный интеллект сделает то, что мы просим. Это проблема» . Журнал Quanta . Проверено 18 июня 2020 .
  17. Эндрю Я. Нг, Дайши Харада и Стюарт Рассел. «Политическая инвариантность при преобразованиях вознаграждения: теория и применение к формированию вознаграждения». В ICML, т. 99, стр. 278-287. 1999 г.
  18. ^ Мартин Форд . Архитекторы интеллекта: правда об искусственном интеллекте от создателей его. Packt Publishing Ltd, 2018.
  19. ^ «Почему у искусственного интеллекта AlphaZero проблемы с реальным миром» . Журнал Quanta . 2018 . Проверено 18 июня 2020 .
  20. ^ Бык, Ларри. «Об эволюционных расчетах на основе моделей». Soft Computing 3, вып. 2 (1999): 76-82.
  21. ^ Russell & Норвиг 2003 , стр. 33
  22. ^ Саламон, Томас (2011). Дизайн агент-ориентированных моделей . Репин: Издательство Брукнера. С. 42–59. ISBN 978-80-904661-1-1.
  23. Перейти ↑ Nilsson, Nils J. (апрель 1996 г.). «Искусственный интеллект: современный подход» . Искусственный интеллект . 82 (1–2): 369–380. DOI : 10.1016 / 0004-3702 (96) 00007-0 . ISSN 0004-3702 . 
  24. ^ Пул, Дэвид; Макворт, Алан. «1.3 Агенты, расположенные в средах‣ Глава 2 Архитектура агентов и иерархическое управление‣ Искусственный интеллект: основы вычислительных агентов, 2-е издание» . artint.info . Проверено 28 ноября 2018 .
  25. ^ Russell & Норвиг 2003 , стр. 46-54
  26. ^ Стефано Альбрехт и Питер Стоун (2018). Автономные агенты, моделирующие других агентов: всесторонний обзор и открытые проблемы. Искусственный интеллект, Vol. 258. С. 66-95. https://doi.org/10.1016/j.artint.2018.01.002
  27. ^ Предоставление преподавателю языка с помощником по искусственному интеллекту . Кшиштоф Пьетрошек. Международный журнал новейших технологий в обучении (iJET), Том 2, № 4 (2007) [1] «Архивная копия» . Архивировано из оригинала на 2012-03-07 . Проверено 29 января 2012 .CS1 maint: заархивированная копия как заголовок ( ссылка )
  28. ^ Shirado, Hirokazu; Кристакис, Николас А (2017). «Локально зашумленные автономные агенты улучшают глобальную координацию человека в сетевых экспериментах» . Природа . 545 (7654): 370–374. Bibcode : 2017Natur.545..370S . DOI : 10.1038 / nature22332 . PMC 5912653 . PMID 28516927 .  

Другие ссылки [ править ]

  • Рассел, Стюарт Дж .; Норвиг, Питер (2003). Искусственный интеллект: современный подход (2-е изд.). Река Аппер Сэдл, Нью-Джерси: Prentice Hall. Глава 2. ISBN 0-13-790395-2.
  • Франклин, Стэн; Graesser, Искусство (1996). «Это агент или просто программа? Таксономия для автономных агентов» (PDF) . Труды Третьего международного семинара по теории агентов, архитектуре и языкам . Springer-Verlag. Архивировано из оригинального (PDF) 29 мая 2015 года.
  • Касабов, Н. (1998). «Введение: гибридные интеллектуальные адаптивные системы». Международный журнал интеллектуальных систем . 13 (6): 453–454. DOI : 10.1002 / (SICI) 1098-111X (199806) 13: 6 <453 :: AID-INT1> 3.0.CO; 2-K .
  • Вайс, Г. (2013). Мультиагентные системы (2-е изд.). Кембридж, Массачусетс: MIT Press. ISBN 978-0-262-01889-0.

Внешние ссылки [ править ]

  • Коневральный