Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Распознавание эмоций - это процесс выявления человеческих эмоций . Люди сильно различаются по своей точности распознавания эмоций других. Использование технологий для помощи людям в распознавании эмоций - относительно новая область исследований. Как правило, технология работает лучше всего, если в ней используются несколько модальностей в контексте. На сегодняшний день большая часть работы была проделана по автоматизации распознавания выражений лица из видео, устных выражений из аудио, письменных выражений из текста и физиологии, измеряемой носимыми устройствами.

Человек [ править ]

Люди очень разнообразны в своих способностях распознавать эмоции. Ключевой момент, о котором следует помнить при изучении автоматизированного распознавания эмоций, заключается в том, что существует несколько источников «основной истины» или истины о том, что такое настоящая эмоция. Предположим, мы пытаемся распознать эмоции Алекса. Один из источников: «Что бы большинство людей сказали, что чувствует Алекс?» В этом случае «правда» может не соответствовать тому, что чувствует Алекс, но может соответствовать тому, что большинство людей назвали бы тем, что думает Алекс. Например, Алексу может быть грустно, но он широко улыбается, и тогда большинство людей говорят, что он выглядит счастливым. Если автоматизированный метод дает те же результаты, что и группа наблюдателей, его можно считать точным, даже если он на самом деле не измеряет то, что на самом деле чувствует Алекс. Еще один источник истины- спросить Алекса, что он на самом деле чувствует. Это работает, если Алекс хорошо понимает свое внутреннее состояние и хочет сказать вам, что это такое, и способен точно выразить это словами или числами. Однако некоторые люди алекситимичны и не имеют четкого представления о своих внутренних чувствах или не могут точно передать их словами и числами. В целом, чтобы понять, какая эмоция действительно присутствует, может потребоваться некоторая работа, она может варьироваться в зависимости от выбранных критериев и обычно требует сохранения некоторого уровня неопределенности.или они не могут точно передать их словами и числами. В целом, чтобы понять, какая эмоция действительно присутствует, может потребоваться некоторая работа, она может варьироваться в зависимости от выбранных критериев и обычно требует сохранения некоторого уровня неопределенности.или они не могут точно передать их словами и числами. В целом, чтобы понять, какая эмоция действительно присутствует, может потребоваться некоторая работа, она может варьироваться в зависимости от выбранных критериев и обычно требует сохранения некоторого уровня неопределенности.

Автоматически [ править ]

Были проведены десятилетия научных исследований, направленных на разработку и оценку методов автоматического распознавания эмоций. В настоящее время существует обширная литература, в которой предлагаются и оцениваются сотни различных методов, использующих методы из различных областей, таких как обработка сигналов , машинное обучение , компьютерное зрение и обработка речи . Для интерпретации эмоций могут использоваться различные методологии и техники, такие как байесовские сети . [1] , модели гауссовской смеси [2] и скрытые марковские модели [3] и глубокие нейронные сети . [4]

Подходы [ править ]

Точность распознавания эмоций обычно повышается, если оно объединяет анализ человеческих выражений из мультимодальных форм, таких как тексты, физиология, аудио или видео. [5] Различные типы эмоций выявляются путем интеграции информации из выражений лица , движений и жестов тела , а также речи. [6] Считается, что технология внесла свой вклад в появление так называемого эмоционального или эмоционального Интернета . [7]

Существующие подходы к распознаванию эмоций для классификации определенных типов эмоций в целом можно разделить на три основные категории: методы, основанные на знаниях, статистические методы и гибридные подходы. [8]

Техники, основанные на знаниях [ править ]

Методы, основанные на знаниях (иногда называемые методами, основанными на лексике ), используют знания предметной области, а также семантические и синтаксические характеристики языка для обнаружения определенных типов эмоций . [ необходима цитата ] В этом подходе в процессе классификации эмоций обычно используются ресурсы, основанные на знаниях, такие как WordNet , SenticNet, [9] ConceptNet и EmotiNet, [10] и многие другие. [11]Одним из преимуществ этого подхода является доступность и экономия, обусловленные большой доступностью таких ресурсов, основанных на знаниях. [8] Ограничением этого метода, с другой стороны, является его неспособность справляться с нюансами понятий и сложными лингвистическими правилами. [8]

Методы, основанные на знаниях, в основном можно разделить на две категории: подходы на основе словаря и корпуса. [ необходима цитата ] Подходы на основе словаря находят в словаре слова-семена мнений или эмоций и ищут их синонимы и антонимы, чтобы расширить первоначальный список мнений или эмоций . [12] Подходы, основанные на корпусе, с другой стороны, начинают с исходного списка слов мнения или эмоций и расширяют базу данных, находя другие слова с контекстно-зависимыми характеристиками в большом корпусе . [12]Хотя корпусные подходы учитывают контекст, их эффективность по-прежнему различается в разных доменах, поскольку слово в одном домене может иметь разную ориентацию в другом домене. [13]

Статистические методы [ править ]

Статистические методы обычно включают использование различных алгоритмов контролируемого машинного обучения , в которых большой набор аннотированных данных вводится в алгоритмы, позволяющие системе изучать и прогнозировать соответствующие типы эмоций . [8] Алгоритмы машинного обучения обычно обеспечивают более разумную точность классификации по сравнению с другими подходами, но одной из проблем в достижении хороших результатов в процессе классификации является необходимость иметь достаточно большой обучающий набор. [8]

Некоторые из наиболее часто используемых алгоритмов машинного обучения включают машины опорных векторов (SVM) , наивный байесовский алгоритм и максимальную энтропию . [14] Глубокое обучение , относящееся к семейству машинного обучения без учителя , также широко используется для распознавания эмоций. [15] [16] [17] Известные алгоритмы глубокого обучения включают в себя различные архитектуры искусственной нейронной сети (ИНС), такие как сверточная нейронная сеть (CNN) , долговременная краткосрочная память (LSTM) и экстремальная обучающая машина (ELM). .[14] Популярностьподходов к глубокому обучению в области распознавания эмоций может быть в основном связана с их успехом в связанных приложениях, таких как компьютерное зрение , распознавание речи и обработка естественного языка (NLP) . [14]

Гибридные подходы [ править ]

Гибридные подходы к распознаванию эмоций, по сути, представляют собой комбинацию методов, основанных на знаниях, и статистических методов, в которых используются дополнительные характеристики обоих методов. [8] Некоторые из работ, в которых применялся ансамбль лингвистических элементов и статистических методов, основанных на знаниях, включают в себя дозорные вычисления и iFeel, оба из которых используют ресурс SenticNet, основанный на знаниях. [18] [19] Роль таких ресурсов, основанных на знаниях, в реализации гибридных подходов очень важна в процессе классификации эмоций . [11]Поскольку гибридные методы извлекают выгоду из преимуществ, предлагаемых как основанными на знаниях, так и статистическими подходами, они, как правило, имеют лучшую производительность классификации, чем независимое использование основанных на знаниях или статистических методов. [ необходима цитата ] Обратной стороной использования гибридных методов, однако, является вычислительная сложность во время процесса классификации. [11]

Наборы данных [ править ]

Данные являются неотъемлемой частью существующих подходов к распознаванию эмоций, и в большинстве случаев получить аннотированные данные, необходимые для обучения алгоритмов машинного обучения, сложно . [12] Для задачи классификации различных типов эмоций из мультимодальных источников в форме текстов, аудио, видео или физиологических сигналов доступны следующие наборы данных:

  1. HUMAINE: предоставляет естественные клипы со словами эмоций и контекстными ярлыками в нескольких модальностях [20]
  2. База данных Белфаста: содержит клипы с широким спектром эмоций из телепрограмм и записей интервью [21]
  3. SEMAINE: обеспечивает аудиовизуальные записи между человеком и виртуальным агентом и содержит аннотации эмоций, такие как гнев, счастье, страх, отвращение, печаль, презрение и веселье [22]
  4. IEMOCAP: предоставляет записи диадических сеансов между актерами и содержит аннотации эмоций, такие как счастье, гнев, печаль, разочарование и нейтральное состояние [23]
  5. eNTERFACE: предоставляет аудиовизуальные записи субъектов семи национальностей и содержит аннотации эмоций, такие как счастье, гнев, печаль, удивление, отвращение и страх [24]
  6. DEAP: обеспечивает электроэнцефалографию ( ЭЭГ ), электрокардиографию ( ЭКГ ) и видеозаписи лиц, а также аннотации эмоций с точки зрения валентности , возбуждения и доминирования людей, просматривающих видеоклипы [25]
  7. DREAMER: обеспечивает записи электроэнцефалографии ( ЭЭГ ) и электрокардиографии ( ЭКГ ), а также аннотации эмоций с точки зрения валентности , возбуждения и доминирования людей, просматривающих видеоклипы [26]
  8. MELD: это набор данных для многостороннего разговора, в котором каждое высказывание помечено эмоциями и настроениями. MELD [27] обеспечивает диалоги в видеоформате и, следовательно, подходит для мультимодального распознавания эмоций и анализа настроений . MELD полезен для мультимодального анализа настроений и распознавания эмоций, систем диалога и распознавания эмоций в разговорах . [28]
  9. MuSe: предоставляет аудиовизуальные записи естественных взаимодействий между человеком и объектом. [29] В нем есть отдельные и непрерывные аннотации эмоций с точки зрения валентности, возбуждения и надежности, а также речевые темы, полезные для мультимодального анализа настроений и распознавания эмоций.
  10. UIT-VSMEC: это стандартный вьетнамский корпус эмоций в социальных сетях (UIT-VSMEC), содержащий около 6927 предложений с аннотациями и шестью ярлыками эмоций, способствующий исследованию распознавания эмоций на вьетнамском языке, который является языком с низким уровнем ресурсов в обработке естественного языка (NLP). . [30]
  11. КРОВАТЬ: обеспечивает записи электроэнцефалографии ( ЭЭГ ), а также аннотации эмоций с точки зрения валентности и возбуждения людей, просматривающих изображения. Он также включает записи электроэнцефалографии ( ЭЭГ ) людей, подвергшихся воздействию различных стимулов ( SSVEP , отдых с закрытыми глазами, отдых с открытыми глазами, когнитивные задачи) для задачи биометрии на основе ЭЭГ . [31]

Приложения [ править ]

Распознавание эмоций используется в обществе по разным причинам. Affectiva , вышедшая из Массачусетского технологического института , предоставляет искусственный интеллект.программное обеспечение, которое позволяет более эффективно выполнять задачи, которые раньше выполнялись людьми вручную, в основном для сбора информации о выражениях лица и голоса, относящейся к конкретным контекстам, в которых зрители согласились делиться этой информацией. Например, вместо того, чтобы заполнять длинный опрос о том, как вы себя чувствуете в каждый момент просмотра образовательного видео или рекламы, вы можете разрешить камеру смотреть вам в лицо и слушать, что вы говорите, и отмечать, во время каких этапов опыта вы показывать такие выражения, как скука, интерес, замешательство или улыбка. (Обратите внимание, что это не означает, что он читает ваши самые сокровенные чувства - он читает только то, что вы выражаете внешне.) Другое использование Affectivaвключают помощь детям с аутизмом, помощь слепым людям в чтении выражений лиц, помощь роботам более разумно взаимодействовать с людьми и отслеживание признаков внимания во время вождения, чтобы повысить безопасность водителя. [32]

В патенте, поданном Snapchat в 2015 году, описан метод извлечения данных о толпах на публичных мероприятиях путем алгоритмического распознавания эмоций на селфи пользователей с геотегами . [33]

Emotient была начинающей компанией, которая применяла распознавание эмоций для чтения хмурых взглядов , улыбок и других выражений лиц, а именно искусственный интеллект для прогнозирования «отношения и действий на основе выражений лица». [34] Apple купила Emotient в 2016 году и использует технологию распознавания эмоций для повышения эмоционального интеллекта своих продуктов. [34]

nViso обеспечивает распознавание эмоций в реальном времени для веб-приложений и мобильных приложений через API реального времени . [35] Visage Technologies AB предлагает оценку эмоций как часть своего Visage SDK для маркетинговых, научных исследований и аналогичных целей. [36]

Eyeris - компания по распознаванию эмоций, которая работает с производителями встроенных систем, включая автопроизводителей и компании, занимающиеся социальными роботами, над интеграцией своего программного обеспечения для анализа лиц и распознавания эмоций; а также с создателями видеоконтента, чтобы помочь им измерить воспринимаемую эффективность их коротких и длинных видеокреативов. [37] [38]

Также существует множество продуктов для сбора информации об эмоциях, передаваемых в Интернете, в том числе с помощью нажатия кнопки «Нравится» и подсчета положительных и отрицательных фраз в тексте. Распознавание аффектов все чаще используется в некоторых играх и виртуальной реальности, как для образовательных целей, так и для дать игрокам более естественный контроль над своими социальными аватарами. [ необходима цитата ]

Подполя распознавания эмоций [ править ]

Распознавание эмоций, вероятно, даст лучший результат, если применить несколько модальностей , комбинируя разные объекты, включая текст (разговор), аудио, видео и физиологию для обнаружения эмоций.

Распознавание эмоций в тексте [ править ]

Текстовые данные - благоприятный объект исследования для распознавания эмоций, когда они бесплатны и доступны повсюду в жизни человека. По сравнению с другими типами данных, хранилище текстовых данных легче и легко сжимается до максимальной производительности из-за частого повторения слов и символов на языках. Эмоции можно извлечь из двух основных текстовых форм: письменных текстов и разговоров (диалогов). [39] Что касается письменных текстов, многие ученые сосредотачиваются на работе с уровнем предложения, чтобы извлечь «слова / фразы», ​​представляющие эмоции. [40] [41]

Распознавание эмоций в аудио [ править ]

В отличие от распознавания эмоций в тексте, голосовые сигналы используются для распознавания для извлечения эмоций из звука . [42]

Распознавание эмоций в видео [ править ]

Видеоданные - это комбинация аудиоданных, данных изображения и иногда текстов (в случае субтитров [43] ).

Распознавание эмоций в разговоре [ править ]

Распознавание эмоций в разговоре (ERC) извлекает мнения между участниками из массивных разговорных данных на социальных платформах , таких как Facebook , Twitter , YouTube и других. [28] ERC может принимать входные данные, такие как текст, аудио, видео или комбинированную форму, для обнаружения нескольких эмоций, таких как страх, похоть, боль и удовольствие.

См. Также [ править ]

  • Аффективные вычисления
  • Восприятие лица
  • Система распознавания лиц
  • Анализ настроений
  • Межличностная точность

Ссылки [ править ]

  1. ^ Miyakoshi, Yoshihiro и Shohei Като. «Обнаружение эмоций на лице с учетом частичной окклюзии лица с использованием сети Baysian» . Компьютеры и информатика (2011): 96–101.
  2. ^ Хари Кришна Видана, П. Фани Кумар, К. Шри Рама Кришна и Анил Кумар Вуппала. «Улучшенное распознавание эмоций с помощью GMM-UBM» . 2015 Международная конференция по системам обработки сигналов и связи
  3. ^ Б. Шуллер, Г. Риголл М. Ланг. «Распознавание речевых эмоций на основе скрытой марковской модели» . ICME '03. Ход работы. 2003 Международная конференция по мультимедиа и выставкам, 2003 год.
  4. ^ Сингх, Премджит; Саха, Гаутам; Сахидулла, штат Мэриленд (2021 г.). «Нелинейное искажение частоты с использованием преобразования постоянной добротности для распознавания речевых эмоций». 2021 Международная конференция по компьютерной коммуникации и информатике (ICCCI) . С. 1–4. DOI : 10.1109 / ICCCI50826.2021.9402569 . ISBN 978-1-7281-5875-4.
  5. ^ Пория, Суджанья; Камбрия, Эрик; Баджпай, Раджив; Хуссейн, Амир (сентябрь 2017 г.). «Обзор аффективных вычислений: от одномодального анализа к мультимодальному слиянию». Информационный фьюжн . 37 : 98–125. DOI : 10.1016 / j.inffus.2017.02.003 . ЛВП : 1893/25490 .
  6. ^ Каридакис, Джордж; Кастеллано, Джиневра; Кессоус, Лоик; Раузайу, Амариллис; Малатеста, Лори; Астериадис, Стелиос; Карпузис, Костас (19 сентября 2007 г.). Мультимодальное распознавание эмоций по выразительным лицам, телодвижениям и речи . IFIP Международная федерация обработки информации . 247 . С. 375–388. DOI : 10.1007 / 978-0-387-74161-1_41 . ISBN 978-0-387-74160-4.
  7. ^ Цена. «Подключение к эмоциональному Интернету» . TechCrunch . Проверено 12 декабря 2018 .
  8. ^ Б с д е е Камбрия, Erik (март 2016). «Аффективные вычисления и анализ настроений». Интеллектуальные системы IEEE . 31 (2): 102–107. DOI : 10.1109 / MIS.2016.31 . S2CID 18580557 . 
  9. ^ Камбрия, Эрик; Пория, Суджанья; Баджпай, Раджив; Шуллер, Бьорн (2016). «SenticNet 4: семантический ресурс для анализа настроений на основе концептуальных примитивов» . Материалы 26-й Международной конференции по компьютерной лингвистике COLING 2016: Технические документы : 2666–2677.
  10. ^ Балахур, Александра; Hermida, JesúS M; Монтойо, Андрес (1 ноября 2012 г.). «Обнаружение неявных выражений эмоций в тексте: сравнительный анализ» . Системы поддержки принятия решений . 53 (4): 742–753. DOI : 10.1016 / j.dss.2012.05.024 . ISSN 0167-9236 . 
  11. ^ a b c Медхат, Валаа; Хасан, Ахмед; Кораши, Хода (декабрь 2014 г.). «Алгоритмы и приложения анализа настроений: обзор» . Инженерный журнал Айн-Шамс . 5 (4): 1093–1113. DOI : 10.1016 / j.asej.2014.04.011 .
  12. ^ a b c Мадхуши, Зохре; Хамдан, Абдул Разак; Зайнудин, Сухайла (2015). «Техники анализа настроений в последних работах». Научно-информационная конференция 2015 г. (SAI) . С. 288–291. DOI : 10,1109 / SAI.2015.7237157 . ISBN 978-1-4799-8547-0. S2CID  14821209 .
  13. ^ Hemmatian, Fatemeh; Сохраби, Мохаммад Карим (18 декабря 2017 г.). «Обзор методов классификации для извлечения мнений и анализа настроений». Обзор искусственного интеллекта . 52 (3): 1495–1545. DOI : 10.1007 / s10462-017-9599-6 . S2CID 11741285 . 
  14. ^ a b c Сунь, Шилян; Ло, Чен; Чен, Дзюнъюй (июль 2017 г.). «Обзор методов обработки естественного языка для систем интеллектуального анализа». Информационный фьюжн . 36 : 10–25. DOI : 10.1016 / j.inffus.2016.10.004 .
  15. ^ Маджумдер, Навонил; Пория, Суджанья; Гельбух Александр; Камбрия, Эрик (март 2017). «Моделирование документов на основе глубокого обучения для определения личности по тексту». Интеллектуальные системы IEEE . 32 (2): 74–79. DOI : 10.1109 / MIS.2017.23 . S2CID 206468984 . 
  16. ^ Махендхиран, PD; Каннимуту, С. (май 2018 г.). «Методы глубокого обучения для классификации полярности в мультимодальном анализе настроений». Международный журнал информационных технологий и принятия решений . 17 (3): 883–910. DOI : 10.1142 / S0219622018500128 .
  17. ^ Ю, Хунлян; Гуй, Лянкэ; Мадайо, Майкл; Оган, Эми; Касселл, Жюстин; Моренси, Луи-Филипп (23 октября 2017 г.). Модель временного избирательного внимания для распознавания социального и аффективного состояния в мультимедийном контенте . ММ '17. ACM. С. 1743–1751. DOI : 10.1145 / 3123266.3123413 . ISBN 9781450349062. S2CID  3148578 .
  18. ^ Камбрия, Эрик; Хуссейн, Амир (2015). Sentic Computing: основанная на здравом смысле структура для анализа настроений на концептуальном уровне . Springer Publishing Company, Incorporated. ISBN 978-3319236537.
  19. ^ Араужо, Матеус; Гонсалвеш, Поллианна; Ча, Миён ; Беневенуто, Фабрисио (7 апреля 2014 г.). iFeel: система, которая сравнивает и объединяет методы анализа настроений . WWW '14 Товарищ. ACM. С. 75–78. DOI : 10.1145 / 2567948.2577013 . ISBN 9781450327459. S2CID  11018367 .
  20. ^ Paolo Petta; Катрин Пелаше ; Родди Коуи, ред. (2011). Системы, ориентированные на эмоции. Справочник человека . Берлин: Springer. ISBN 978-3-642-15184-2.
  21. ^ Дуглас-Коуи, Эллен; Кэмпбелл, Ник; Коуи, Родди; Плотва, Питер (1 апреля 2003 г.). «Эмоциональная речь: навстречу новому поколению баз данных» . Речевое общение . 40 (1–2): 33–60. CiteSeerX 10.1.1.128.3991 . DOI : 10.1016 / S0167-6393 (02) 00070-5 . ISSN 0167-6393 .  
  22. ^ McKeown, G .; Valstar, M .; Cowie, R .; Пантик, М .; Шредер, М. (январь 2012 г.). «База данных SEMAINE: аннотированные мультимодальные записи эмоционально окрашенных разговоров между человеком и агентом с ограниченной ответственностью» . IEEE Transactions on Affective Computing . 3 (1): 5–17. DOI : 10.1109 / T-AFFC.2011.20 . S2CID 2995377 . 
  23. ^ Буссо, Карлос; Булут, Муртаза; Ли, Чи-Чун; Каземзаде, Абэ; Косилка, Эмили; Ким, Самуэль; Чанг, Жаннетт Н .; Ли, Сунгбок; Нараянан, Шрикантх С. (5 ноября 2008 г.). «IEMOCAP: интерактивная база данных эмоционального диадического захвата движения». Языковые ресурсы и оценка . 42 (4): 335–359. DOI : 10.1007 / s10579-008-9076-6 . ISSN 1574-020X . S2CID 11820063 .  
  24. ^ Мартин, O .; Kotsia, I .; Macq, B .; Питас, И. (3 апреля 2006 г.). База данных аудиовизуальных эмоций eNTERFACE'05 . Icdew '06. Компьютерное общество IEEE. С. 8–. DOI : 10.1109 / ICDEW.2006.145 . ISBN 9780769525716. S2CID  16185196 .
  25. ^ Koelstra, Сандер; Муль, Кристиан; Солеймани, Мохаммад; Ли, Чон-Сок; Яздани, Ашкан; Эбрахими, Турадж; Пун, Тьерри; Нейхольт, Антон; Патры, Иоаннис (январь 2012 г.). «DEAP: база данных для анализа эмоций с использованием физиологических сигналов». IEEE Transactions on Affective Computing . 3 (1): 18–31. CiteSeerX 10.1.1.593.8470 . DOI : 10.1109 / T-AFFC.2011.15 . ISSN 1949-3045 . S2CID 206597685 .   
  26. ^ Кацигианнис, Стамос; Рамзан, Наим (январь 2018 г.). "DREAMER: База данных для распознавания эмоций с помощью сигналов ЭЭГ и ЭКГ от беспроводных недорогих готовых к продаже устройств" (PDF) . Журнал IEEE по биомедицинской и медицинской информатике . 22 (1): 98–107. DOI : 10,1109 / JBHI.2017.2688239 . ISSN 2168-2194 . PMID 28368836 . S2CID 23477696 .    
  27. ^ Пория, Суджанья; Хазарика, Деваманью; Маджумдер, Навонил; Наик, Гаутам; Камбрия, Эрик; Михалча, Рада (2019). «MELD: мультимодальный многосторонний набор данных для распознавания эмоций в разговорах». Труды 57-го ежегодного собрания Ассоциации компьютерной лингвистики . Страудсбург, Пенсильвания, США: Ассоциация компьютерной лингвистики: 527–536. arXiv : 1810.02508 . DOI : 10.18653 / v1 / p19-1050 . S2CID 52932143 . 
  28. ^ а б Пория, С., Маджумдер, Н., Михалча, Р., и Хови, Э. (2019). Распознавание эмоций в разговоре: исследовательские задачи, наборы данных и последние достижения . IEEE Access, 7, 100943-100953.
  29. ^ Стаппен, Лукас; Шуллер, Бьёрн; Лефтер, Юлия; Камбрия, Эрик; Компациарис, Иоаннис (2020). «Резюме MuSe 2020: мультимодальный анализ настроений, эмоциональное целевое взаимодействие и выявление достоверности в реальных СМИ». Материалы 28-й Международной конференции ACM по мультимедиа . Сиэтл, Пенсильвания, США: Ассоциация вычислительной техники: 4769–4770. arXiv : 2004.14858 . DOI : 10.1145 / 3394171.3421901 . S2CID 222278714 . 
  30. Хо, Вонг (2019). «Распознавание эмоций для текста вьетнамских социальных сетей» . 16-я Международная конференция Тихоокеанской ассоциации компьютерной лингвистики (PACLING 2019) .
  31. ^ Арнау-Гонсалес, Пабло; Кацигианнис, Стамос; Аревалилло-Эрраэс, Мигель; Рамзан, Наим (февраль 2021 г.). «BED: новый набор данных для биометрии на основе ЭЭГ» . Журнал IEEE «Интернет вещей» . (Ранний доступ). DOI : 10,1109 / JIOT.2021.3061727 . ISSN 2327-4662 . 
  32. ^ "Аффективная" .
  33. ^ Бушвик, Софи. «Это видео наблюдает за вами в ответ» . Scientific American . Проверено 27 января 2020 года .
  34. ^ a b ДеМут младший, Крис (8 января 2016 г.). «Apple читает ваши мысли» . M&A Daily . В поисках альфы . Проверено 9 января +2016 .
  35. ^ "nViso" . nViso.ch .
  36. ^ "Visage Technologies" .
  37. ^ «Вам грустно, сердито? Ваша будущая машина будет знать» .
  38. ^ Varagur, Критика (22 марта 2016). «Автомобили могут скоро предупредить водителей, прежде чем они уснут» . Huffington Post .
  39. ^ Shivhare, SN, и Khethawat, S. (2012). Обнаружение эмоций по тексту. Препринт arXiv arXiv : 1205.4944
  40. ^ Ezhilarasi, R., & Мина, RI (2012). Автоматическое распознавание и классификация эмоций . Разработка процедур, 38, 21-26.
  41. ^ Krcadinac, У., Pasquier П., Йованович, J., & Devedzic, В. (2013). Synesketch: библиотека с открытым исходным кодом для распознавания эмоций на основе предложений. IEEE Transactions on Affective Computing, 4 (3), 312-325.
  42. ^ Schmitt, М., Ringeval Ф., и Шуллер, BW (2016, сентябрь). На стыке акустики и лингвистики: набор аудио-слов для распознавания эмоций в речи . В Interspeech (стр. 495-499).
  43. ^ Dhall, А., Гек, Р., Lucey, С., и Гедеон, Т. (2012). Сбор больших, богато аннотированных баз данных выражений лиц из фильмов . Мультимедиа IEEE, (3), 34-41.