Jump to content

Распознавание эмоций

Распознавание эмоций – это процесс идентификации человеческих эмоций . Люди сильно различаются по точности распознавания эмоций других. Использование технологий, помогающих людям распознавать эмоции, является относительно молодой областью исследований. Как правило, технология работает лучше всего, если она использует несколько модальностей в контексте. На сегодняшний день большая часть работы была проведена по автоматизации распознавания выражений лица из видео, устных выражений из аудио, письменных выражений из текста и физиологии , измеренной с помощью носимых устройств.

Человек [ править ]

Люди демонстрируют большую вариативность в своих способностях распознавать эмоции. Ключевой момент, который следует учитывать при изучении автоматического распознавания эмоций, заключается в том, что существует несколько источников «основной истины» или правды о том, что такое настоящая эмоция. Предположим, мы пытаемся распознать эмоции Алекса. Один из источников: «Что, по мнению большинства людей, чувствует Алекс?» В этом случае «истина» может не соответствовать тому, что чувствует Алекс, но может соответствовать тому, что, по мнению большинства людей, похоже на чувства Алекса. Например, Алексу может быть грустно, но он широко улыбается, и тогда большинство людей говорят, что он выглядит счастливым. Если автоматизированный метод дает те же результаты, что и группа наблюдателей, его можно считать точным, даже если он на самом деле не измеряет то, что на самом деле чувствует Алекс. Еще один источник «правды» — спросить Алекса, что он на самом деле чувствует. Это сработает, если Алекс хорошо понимает свое внутреннее состояние, хочет рассказать вам, что оно собой представляет, и способен точно выразить это словами или числами. Однако некоторые люди алекситимичны и плохо понимают свои внутренние чувства или не способны точно передать их словами и числами. В общем, чтобы выяснить, какие эмоции на самом деле присутствуют, может потребоваться определенная работа, которая может варьироваться в зависимости от выбранных критериев и обычно предполагает поддержание определенного уровня неопределенности.

Автоматический [ править ]

Были проведены десятилетия научных исследований по разработке и оценке методов автоматического распознавания эмоций. В настоящее время существует обширная литература, предлагающая и оценивающая сотни различных методов, использующих методы из разных областей, таких как обработка сигналов , машинное обучение , компьютерное зрение и обработка речи . Для интерпретации эмоций могут использоваться различные методологии и методы, такие как байесовские сети . [1] , Модели гауссовой смеси [2] и скрытые марковские модели [3] и глубокие нейронные сети . [4]

Подходы [ править ]

Точность распознавания эмоций обычно повышается, когда анализ человеческих выражений сочетается с мультимодальными формами, такими как тексты, физиологические данные, аудио или видео. [5] Различные типы эмоций обнаруживаются посредством интеграции информации, полученной от выражений лица , движений тела, жестов и речи. [6] Говорят, что эта технология способствует появлению так называемого эмоционального или эмоционального Интернета . [7]

Существующие подходы к распознаванию эмоций для классификации определенных типов эмоций можно в целом разделить на три основные категории: методы, основанные на знаниях, статистические методы и гибридные подходы. [8]

основанные на знаниях , Методы

Методы, основанные на знаниях (иногда называемые методами, основанными на лексике ), используют знания предметной области, а также семантические и синтаксические характеристики текста и потенциально разговорного языка для обнаружения определенных типов эмоций . [9] обычно используются ресурсы, основанные на знаниях, При таком подходе в процессе классификации эмоций такие как WordNet , SenticNet, [10] ConceptNet и EmotiNet, [11] чтобы назвать несколько. [12] Одним из преимуществ этого подхода является доступность и экономичность, обеспечиваемая большой доступностью таких основанных на знаниях ресурсов. [8] С другой стороны, ограничением этого метода является его неспособность обрабатывать нюансы понятий и сложные лингвистические правила. [8]

Методы, основанные на знаниях, можно в основном разделить на две категории: подходы, основанные на словарях и подходы, основанные на корпусе. [ нужна ссылка ] Подходы, основанные на словарях, находят мнений или эмоций исходные слова в словаре и ищут их синонимы и антонимы, чтобы расширить исходный список мнений или эмоций . [13] С другой стороны, подходы, основанные на корпусе, начинаются с исходного списка слов, выражающих мнения или эмоции , и расширяют базу данных за счет поиска других слов с контекстно-зависимыми характеристиками в большом корпусе . [13] Хотя корпусные подходы учитывают контекст, их эффективность по-прежнему различается в разных доменах, поскольку слово в одном домене может иметь разную ориентацию в другом домене. [14]

методы Статистические

Статистические методы обычно включают использование различных алгоритмов контролируемого машинного обучения , в которых большой набор аннотированных данных вводится в алгоритмы, позволяющие системе изучать и прогнозировать соответствующие типы эмоций . [8] Алгоритмы машинного обучения обычно обеспечивают более разумную точность классификации по сравнению с другими подходами, но одной из проблем достижения хороших результатов в процессе классификации является необходимость иметь достаточно большой обучающий набор. [8]

Некоторые из наиболее часто используемых машинного обучения алгоритмов включают в себя машины опорных векторов (SVM) , наивный Байес и максимальную энтропию . [15] Глубокое обучение , которое относится к семейству машинного обучения без учителя , также широко используется для распознавания эмоций. [16] [17] [18] Хорошо известные алгоритмы глубокого обучения включают в себя различные архитектуры искусственных нейронных сетей (ИНС), такие как сверточная нейронная сеть (CNN) , длинная краткосрочная память (LSTM) и машина экстремального обучения (ELM) . [15] Популярность подходов глубокого обучения в области распознавания эмоций можно главным образом объяснить их успехом в смежных приложениях, таких как компьютерное зрение , распознавание речи и обработка естественного языка (НЛП) . [15]

Гибридные подходы [ править ]

Гибридные подходы к распознаванию эмоций по сути представляют собой комбинацию методов, основанных на знаниях, и статистических методов, в которых используются взаимодополняющие характеристики обоих методов. [8] Некоторые из работ, в которых применялся ансамбль лингвистических элементов, основанных на знаниях, и статистических методов, включают в себя сентические вычисления и iFeel, обе из которых использовали ресурс SenticNet, основанный на знаниях концептуального уровня. [19] [20] Роль таких основанных на знаниях ресурсов в реализации гибридных подходов очень важна в процессе классификации эмоций . [12] Поскольку гибридные методы извлекают выгоду из преимуществ, предлагаемых как подходами, основанными на знаниях, так и статистическими, они, как правило, имеют более высокую производительность классификации, в отличие от независимого использования методов, основанных на знаниях или статистических методах. [ нужна ссылка ] Однако недостатком использования гибридных методов является сложность вычислений в процессе классификации. [12]

Наборы данных [ править ]

Данные являются неотъемлемой частью существующих подходов к распознаванию эмоций, и в большинстве случаев получение аннотированных данных, необходимых для обучения машинного обучения , представляет собой проблему. алгоритмов [13] Для задачи классификации различных типов эмоций из мультимодальных источников в виде текстов, аудио, видео или физиологических сигналов доступны следующие наборы данных:

  1. HUMAINE: предоставляет естественные клипы со словами эмоций и контекстными метками в различных модальностях. [21]
  2. База данных Белфаста: содержит клипы с широким спектром эмоций из телепрограмм и записей интервью. [22]
  3. SEMAINE: обеспечивает аудиовизуальные записи между человеком и виртуальным агентом и содержит аннотации к эмоциям, таким как гнев, счастье, страх, отвращение, печаль, презрение и веселье. [23]
  4. IEMOCAP: предоставляет записи диадических сессий между актерами и содержит аннотации эмоций, таких как счастье, гнев, печаль, разочарование и нейтральное состояние. [24]
  5. eNTERFACE: предоставляет аудиовизуальные записи лиц семи национальностей и содержит аннотации к эмоциям, таким как счастье, гнев, печаль, удивление, отвращение и страх. [25]
  6. DEAP: обеспечивает электроэнцефалографию (ЭЭГ), электрокардиографию (ЭКГ) и видеозаписи лиц, а также аннотации эмоций с точки зрения валентности , возбуждения и доминирования людей, просматривающих видеоклипы. [26]
  7. МЕЧТАТЕЛЬ: обеспечивает записи электроэнцефалографии (ЭЭГ) и электрокардиографии (ЭКГ), а также аннотации эмоций с точки зрения валентности и доминирования людей, смотрящих видеоклипы. [27]
  8. MELD: представляет собой многосторонний диалоговый набор данных, в котором каждое высказывание помечено эмоциями и настроениями. МЕЛД [28] обеспечивает общение в видеоформате и, следовательно, подходит для мультимодального распознавания эмоций и анализа настроений . MELD полезен для мультимодального анализа настроений и распознавания эмоций, диалоговых систем и распознавания эмоций в разговорах . [29]
  9. MuSe: обеспечивает аудиовизуальные записи естественных взаимодействий между человеком и объектом. [30] Он имеет дискретные и непрерывные аннотации эмоций с точки зрения валентности, возбуждения и надежности, а также речевые темы, полезные для мультимодального анализа настроений и распознавания эмоций.
  10. UIT-VSMEC: стандартный вьетнамский корпус эмоций в социальных сетях (UIT-VSMEC), содержащий около 6927 предложений, аннотированных людьми, с шестью метками эмоций, что способствует исследованиям распознавания эмоций на вьетнамском языке, который является языком с низкими ресурсами в области обработки естественного языка (НЛП). . [31]
  11. BED: обеспечивает валентность и возбуждение людей, смотрящих изображения. Он также включает записи электроэнцефалографии (ЭЭГ) людей, подвергшихся воздействию различных раздражителей ( ССВЭП , отдых с закрытыми глазами, отдых с открытыми глазами, когнитивные задачи) для задачи биометрии на основе ЭЭГ . [32]

Приложения [ править ]

Распознавание эмоций используется в обществе по разным причинам. Affectiva , созданная на базе Массачусетского технологического института , предоставляет программное обеспечение для искусственного интеллекта , которое позволяет более эффективно выполнять задачи, которые раньше выполнялись людьми вручную, в основном для сбора информации о мимике и выражении голоса, связанной с конкретными контекстами, в которых зрители согласились поделиться этой информацией. Например, вместо того, чтобы заполнять длинный опрос о том, как вы себя чувствуете в каждый момент просмотра образовательного видео или рекламы, вы можете дать согласие на то, чтобы камера наблюдала за вашим лицом и слушала, что вы говорите, и отмечала, во время каких частей опыта вы покажите такие выражения, как скука, интерес, замешательство или улыбка. (Обратите внимание, что это не означает, что он считывает ваши самые сокровенные чувства — он считывает только то, что вы выражаете внешне.) Другие варианты использования Affectiva включают помощь детям с аутизмом, помощь слепым людям читать выражения лица, помощь роботам более разумно взаимодействовать с людьми. и отслеживание знаков внимания во время вождения с целью повышения безопасности водителя. [33]

Академические исследования все чаще используют распознавание эмоций как метод изучения вопросов социальных наук, связанных с выборами, протестами и демократией. Несколько исследований сосредоточены на выражениях лиц политических кандидатов в социальных сетях и показывают, что политики склонны выражать счастье. [34] [35] [36] Однако это исследование показывает, что инструменты компьютерного зрения, такие как Amazon Rekognition, точны только для определения счастья и в основном надежны в качестве «детекторов счастья». [37] Поэтому исследователи, изучающие протесты, в которых ожидается негативное воздействие , такое как гнев, разработали свои собственные модели для более точного изучения проявлений негатива и насилия в демократических процессах. [38]

Патент , заархивированный 7 октября 2019 года в Wayback Machine, поданный Snapchat в 2015 году, описывает метод извлечения данных о толпе на публичных мероприятиях путем алгоритмического распознавания эмоций на селфи пользователей с геотегами . [39]

Emotient была стартап-компанией , которая применяла распознавание эмоций для чтения хмурых взглядов, улыбок и других выражений лица, а именно искусственный интеллект для прогнозирования «отношений и действий на основе выражений лица». [40] Apple купила Emotient в 2016 году и использует технологию распознавания эмоций для повышения эмоционального интеллекта своих продуктов. [40]

реального времени nViso обеспечивает распознавание эмоций в реальном времени для веб- и мобильных приложений через API . [41] Visage Technologies AB предлагает оценку эмоций как часть своего Visage SDK для маркетинговых , научных исследований и аналогичных целей. [42]

Eyeris — компания по распознаванию эмоций, которая работает с производителями встраиваемых систем , включая производителей автомобилей и компаний, занимающихся социальными роботами, над интеграцией своего программного обеспечения для анализа лиц и распознавания эмоций; а также с создателями видеоконтента, чтобы помочь им оценить воспринимаемую эффективность их коротких и длинных видеокреативов. [43] [44]

Также существует множество продуктов для агрегирования информации об эмоциях, передаваемых в Интернете, в том числе посредством нажатия кнопки «Нравится» и подсчета положительных и отрицательных фраз в тексте, а распознавание эффектов все чаще используется в некоторых видах игр и виртуальной реальности, как в образовательных целях, так и для дать игрокам более естественный контроль над своими аватарами в социальных сетях. [ нужна ссылка ]

Подполя [ править ]

Распознавание эмоций, вероятно, даст наилучший результат, если применять несколько модальностей путем объединения различных объектов, включая текст (разговор), аудио, видео и физиологию для обнаружения эмоций.

Распознавание эмоций в тексте [ править ]

Текстовые данные являются благоприятным объектом исследования для распознавания эмоций, поскольку они бесплатны и доступны повсюду в жизни человека. По сравнению с другими типами данных, текстовые данные легче хранятся и их легко сжимать для достижения наилучшей производительности благодаря частому повторению слов и символов на языках. Эмоции можно извлечь из двух основных текстовых форм: письменных текстов и разговоров (диалогов). [45] В письменных текстах многие ученые сосредотачиваются на работе с уровнем предложений, чтобы извлечь «слова/фразы», ​​представляющие эмоции. [46] [47]

Распознавание эмоций в аудио [ править ]

В отличие от распознавания эмоций в тексте, голосовые сигналы используются для распознавания эмоций из аудио . [48]

Распознавание эмоций в видео [ править ]

Видеоданные представляют собой комбинацию аудиоданных, данных изображения и иногда текста (в случае субтитров). [49] ).

Распознавание эмоций в разговоре [ править ]

Распознавание эмоций в разговоре (ERC) извлекает мнения участников из массивных данных разговоров в социальных платформах , таких как Facebook , Twitter , YouTube и других. [29] ERC может принимать входные данные, такие как текст, аудио, видео или их комбинацию, для обнаружения нескольких эмоций, таких как страх, похоть, боль и удовольствие.

См. также [ править ]

Ссылки [ править ]

  1. ^ Миякоши, Ёсихиро и Шохей Като. «Обнаружение эмоций на лице с учетом частичной окклюзии лица с использованием байсовской сети» . Компьютеры и информатика (2011): 96–101.
  2. ^ Хари Кришна Видана, П. Фани Кумар, К. Шри Рама Кришна и Анил Кумар Вуппала. «Улучшенное распознавание эмоций с помощью GMM-UBM» . 2015 Международная конференция по инженерным системам обработки сигналов и связи
  3. ^ Б. Шуллер, Г. Ригол М. Ланг. «Распознавание речевых эмоций на основе скрытой марковской модели» . ICME '03. Слушания. 2003 г. Международная конференция по мультимедиа и выставкам, 2003 г.
  4. ^ Сингх, Премджит; Саха, Гутам; Сахидулла, Мэриленд (2021). «Нелинейное искажение частоты с использованием преобразования с постоянной добротностью для распознавания речевых эмоций». Международная конференция по компьютерной связи и информатике (ICCCI) 2021 . стр. 1–4. arXiv : 2102.04029 . дои : 10.1109/ICCCI50826.2021.9402569 . ISBN  978-1-7281-5875-4 . S2CID   231846518 .
  5. ^ Пория, Суджанья; Камбрия, Эрик; Баджпай, Раджив; Хусейн, Амир (сентябрь 2017 г.). «Обзор аффективных вычислений: от унимодального анализа к мультимодальному слиянию» . Информационный синтез . 37 : 98–125. дои : 10.1016/j.inffus.2017.02.003 . hdl : 1893/25490 . S2CID   205433041 .
  6. ^ Каридакис, Джордж; Кастеллано, Джиневра; Кессоус, Лоик; Раузайу, Амариллис; Малатеста, Лори; Астериадис, Стелиос; Карпузис, Костас (19 сентября 2007 г.). «Мультимодальное распознавание эмоций по выразительным лицам, жестам и речи». Искусственный интеллект и инновации 2007: от теории к приложениям . ИФИП — Международная федерация обработки информации. Том. 247. стр. 375–388. дои : 10.1007/978-0-387-74161-1_41 . ISBN  978-0-387-74160-4 .
  7. ^ Цена (23 августа 2015 г.). «Подключение к эмоциональному Интернету» . ТехКранч . Проверено 12 декабря 2018 г.
  8. ^ Jump up to: Перейти обратно: а б с д и ж Камбрия, Эрик (март 2016 г.). «Аффективные вычисления и анализ настроений». Интеллектуальные системы IEEE . 31 (2): 102–107. дои : 10.1109/MIS.2016.31 . S2CID   18580557 .
  9. ^ Табоада, Майте; Брук, Джулиан; Тофилоски, Милан; Волл, Кимберли; Стеде, Манфред (июнь 2011 г.). «Лексиконные методы анализа настроений» . Компьютерная лингвистика . 37 (2): 267–307. дои : 10.1162/coli_a_00049 . ISSN   0891-2017 .
  10. ^ Камбрия, Эрик; Лю, Цянь; Декерки, Серджио; Син, Фрэнк; Квок, Кеннет (2022). «SenticNet 7: основанная на здравом смысле система нейросимволического искусственного интеллекта для объяснимого анализа настроений» (PDF) . Труды ЛРЭК . стр. 3829–3839.
  11. ^ Балахур, Александра; Эрмида, Хесус М; Монтойо, АндреС (1 ноября 2012 г.). «Обнаружение неявных выражений эмоций в тексте: сравнительный анализ» . Системы поддержки принятия решений . 53 (4): 742–753. дои : 10.1016/j.dss.2012.05.024 . ISSN   0167-9236 .
  12. ^ Jump up to: Перейти обратно: а б с Медхат, Валаа; Хасан, Ахмед; Кораши, Хода (декабрь 2014 г.). «Алгоритмы и приложения анализа настроений: опрос» . Инженерный журнал Айн-Шамс . 5 (4): 1093–1113. дои : 10.1016/j.asej.2014.04.011 .
  13. ^ Jump up to: Перейти обратно: а б с Мадхуши, Зохре; Хамдан, Абдул Разак; Заинудин, Сухайла (2015). «Методы анализа настроений в последних работах». 2015 Научно-информационная конференция (SAI) . стр. 288–291. дои : 10.1109/SAI.2015.7237157 . ISBN  978-1-4799-8547-0 . S2CID   14821209 .
  14. ^ Хемматиан, Фатима; Сохраби, Мохаммад Карим (18 декабря 2017 г.). «Обзор методов классификации для анализа мнений и настроений». Обзор искусственного интеллекта . 52 (3): 1495–1545. дои : 10.1007/s10462-017-9599-6 . S2CID   11741285 .
  15. ^ Jump up to: Перейти обратно: а б с Сунь, Шилян; Ло, Чен; Чен, Джунюй (июль 2017 г.). «Обзор методов обработки естественного языка для систем интеллектуального анализа мнений». Информационный синтез . 36 : 10–25. дои : 10.1016/j.inffus.2016.10.004 .
  16. ^ Маджумдер, Навонил; Пория, Суджанья; Гельбух, Александр; Камбрия, Эрик (март 2017 г.). «Моделирование документов на основе глубокого обучения для распознавания личности по тексту». Интеллектуальные системы IEEE . 32 (2): 74–79. дои : 10.1109/MIS.2017.23 . S2CID   206468984 .
  17. ^ Махендхиран, PD; Каннимуту, С. (май 2018 г.). «Методы глубокого обучения для классификации полярностей в мультимодальном анализе настроений». Международный журнал информационных технологий и принятия решений . 17 (3): 883–910. дои : 10.1142/S0219622018500128 .
  18. ^ Ю, Хунлян; Гуй, Лянке; Мадайо, Майкл; Оган, Эми; Касселл, Жюстин; Моранси, Луи-Филипп (23 октября 2017 г.). «Модель временного избирательного внимания для социального и аффективного распознавания состояний в мультимедийном контенте». Материалы 25-й международной конференции ACM по мультимедиа . ММ '17. АКМ. стр. 1743–1751. дои : 10.1145/3123266.3123413 . ISBN  9781450349062 . S2CID   3148578 .
  19. ^ Камбрия, Эрик; Хусейн, Амир (2015). Сентические вычисления: основанная на здравом смысле концепция анализа настроений на концептуальном уровне . Издательская компания Springer, Incorporated. ISBN  978-3319236537 .
  20. ^ Араужо, Матеус; Гонсалвес, Поллианна; Ча, Миёнг ; Беневенуто, Фабрисио (7 апреля 2014 г.). «IFeel: система, которая сравнивает и комбинирует методы анализа настроений». Материалы 23-й Международной конференции по Всемирной паутине . WWW '14 Компаньон. АКМ. стр. 75–78. дои : 10.1145/2567948.2577013 . ISBN  9781450327459 . S2CID   11018367 .
  21. ^ Паоло Петта; Катрин Пелашо ; Родди Коуи, ред. (2011). Эмоционально-ориентированные системы. Человеческий справочник . Берлин: Шпрингер. ISBN  978-3-642-15184-2 .
  22. ^ Дуглас-Коуи, Эллен; Кэмпбелл, Ник; Коуи, Родди; Роуч, Питер (1 апреля 2003 г.). «Эмоциональная речь: к новому поколению баз данных» . Речевое общение . 40 (1–2): 33–60. CiteSeerX   10.1.1.128.3991 . дои : 10.1016/S0167-6393(02)00070-5 . ISSN   0167-6393 . S2CID   6421586 .
  23. ^ Маккеун, Г.; Валстар, М.; Коуи, Р.; Пантич, М.; Шредер, М. (январь 2012 г.). «База данных SEMAINE: аннотированные мультимодальные записи эмоционально окрашенных разговоров между человеком и агентом с ограниченной ответственностью» . Транзакции IEEE для аффективных вычислений . 3 (1): 5–17. дои : 10.1109/T-AFFC.2011.20 . S2CID   2995377 .
  24. ^ Буссо, Карлос; Булут, Муртаза; Ли, Чи-Чун; Каземзаде, Абэ; Мауэр, Эмили ; Ким, Сэмюэл; Чанг, Жаннетт Н.; Ли, Сунгбок; Нарайанан, Шрикант С. (5 ноября 2008 г.). «IEMOCAP: интерактивная база данных эмоционального диадного захвата движений». Языковые ресурсы и оценка . 42 (4): 335–359. дои : 10.1007/s10579-008-9076-6 . ISSN   1574-020X . S2CID   11820063 .
  25. ^ Мартин, О.; Коция, И.; Макк, Б.; Питас, И. (3 апреля 2006 г.). «База данных аудиовизуальных эмоций eNTERFACE'05». 22-я Международная конференция по инженерии данных (ICDEW'06) . Айдью '06. Компьютерное общество IEEE. стр. 8–. дои : 10.1109/ICDEW.2006.145 . ISBN  9780769525716 . S2CID   16185196 .
  26. ^ Коелстра, Сандер; Мюль, Кристиан; Сулеймани, Мохаммед; Ли, Чон Сок; Яздани, Ашкан; Эбрахими, Турадж; Игра слов, Тьерри; Нейхолт, Антон; Патры, Иоаннис (январь 2012 г.). «DEAP: база данных для анализа эмоций с использованием физиологических сигналов». Транзакции IEEE для аффективных вычислений . 3 (1): 18–31. CiteSeerX   10.1.1.593.8470 . дои : 10.1109/T-AFFC.2011.15 . ISSN   1949-3045 . S2CID   206597685 .
  27. ^ Кацигианнис, Стамос; Рамзан, Наим (январь 2018 г.). «DREAMER: база данных для распознавания эмоций с помощью сигналов ЭЭГ и ЭКГ от беспроводных недорогих готовых устройств» (PDF) . Журнал IEEE по биомедицинской и медицинской информатике . 22 (1): 98–107. дои : 10.1109/JBHI.2017.2688239 . ISSN   2168-2194 . ПМИД   28368836 . S2CID   23477696 . Архивировано из оригинала (PDF) 1 ноября 2022 года . Проверено 1 октября 2019 г.
  28. ^ Пория, Суджанья; Хазарика, Деваманью; Маджумдер, Навонил; Наик, Гаутама; Камбрия, Эрик; Михалча, Рада (2019). «MELD: мультимодальный многосторонний набор данных для распознавания эмоций в разговорах». Материалы 57-го ежегодного собрания Ассоциации компьютерной лингвистики . Страудсбург, Пенсильвания, США: Ассоциация компьютерной лингвистики: 527–536. arXiv : 1810.02508 . дои : 10.18653/v1/p19-1050 . S2CID   52932143 .
  29. ^ Jump up to: Перейти обратно: а б Пориа С., Маджумдер Н., Михалча Р. и Хови Э. (2019). Распознавание эмоций в разговоре: проблемы исследования, наборы данных и последние достижения . Доступ IEEE, 7, 100943-100953.
  30. ^ Стаппен, Лукас; Шуллер, Бьорн; Лефтер, Юлия; Камбрия, Эрик; Компациарис, Иоаннис (2020). «Краткий обзор MuSe 2020: мультимодальный анализ настроений, взаимодействие с эмоциями и обнаружение надежности в реальных СМИ». Материалы 28-й Международной конференции ACM по мультимедиа . Сиэтл, Пенсильвания, США: Ассоциация вычислительной техники. стр. 4769–4770. arXiv : 2004.14858 . дои : 10.1145/3394171.3421901 . ISBN  9781450379885 . S2CID   222278714 .
  31. ^ Хо, Вонг (2020). «Распознавание эмоций в текстах вьетнамских социальных сетей» . Компьютерная лингвистика . Коммуникации в компьютерной и информатике. Том. 1215. стр. 319–333. arXiv : 1911.09339 . дои : 10.1007/978-981-15-6168-9_27 . ISBN  978-981-15-6167-2 . S2CID   208202333 .
  32. ^ Арнау-Гонсалес, Пабло; Кацигианнис, Стамос; Аревалило-Эррас, Мигель; Рамзан, Наим (февраль 2021 г.). «BED: новый набор данных для биометрии на основе ЭЭГ» . Журнал IEEE Интернета вещей . (Ранний доступ) (15): 1. doi : 10.1109/JIOT.2021.3061727 . ISSN   2327-4662 . S2CID   233916681 .
  33. ^ «Аффектива» .
  34. ^ Боссетта, Майкл; Шмёкель, Расмус (2 января 2023 г.). «Межплатформенные эмоции и вовлечение аудитории в политическую кампанию в социальных сетях: сравнение изображений кандидатов в Facebook и Instagram на выборах в США в 2020 году» . Политическая коммуникация . 40 (1): 48–68. дои : 10.1080/10584609.2022.2128949 . ISSN   1058-4609 .
  35. ^ Пэн, Илан (январь 2021 г.). «Что делает публикации политиков в Instagram популярными? Анализ стратегий кандидатов и должностных лиц в социальных сетях с помощью компьютерного зрения» . Международный журнал прессы/политики . 26 (1): 143–166. дои : 10.1177/1940161220964769 . ISSN   1940-1612 . S2CID   225108765 .
  36. ^ Хаим, Марио; Юнгблут, Марк (15 марта 2021 г.). «Самоописание политиков и их изображение в новостях: данные из 28 стран с использованием визуального компьютерного анализа» . Политическая коммуникация . 38 (1–2): 55–74. дои : 10.1080/10584609.2020.1753869 . ISSN   1058-4609 . S2CID   219481457 .
  37. ^ Боссетта, Майкл; Шмёкель, Расмус (2 января 2023 г.). «Межплатформенные эмоции и вовлечение аудитории в политическую кампанию в социальных сетях: сравнение изображений кандидатов в Facebook и Instagram на выборах в США в 2020 году» . Политическая коммуникация . 40 (1): 48–68. дои : 10.1080/10584609.2022.2128949 . ISSN   1058-4609 .
  38. ^ Вон, Донхён; Штайнерт-Трелкельд, Закари К.; Джу, Чонсок (19 октября 2017 г.). «Выявление протестной активности и оценка предполагаемого насилия по изображениям в социальных сетях» . Материалы 25-й международной конференции ACM по мультимедиа . ММ '17. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 786–794. arXiv : 1709.06204 . дои : 10.1145/3123266.3123282 . ISBN  978-1-4503-4906-2 .
  39. ^ Бушвик, Софи. «Это видео наблюдает за тобой» . Научный американец . Проверено 27 января 2020 г.
  40. ^ Jump up to: Перейти обратно: а б ДеМут-младший, Крис (8 января 2016 г.). «Apple читает ваши мысли» . Ежедневник слияний и поглощений . В поисках Альфа . Проверено 9 января 2016 г.
  41. ^ «НВисо» . nViso.ch .
  42. ^ «Визаж Технологии» .
  43. ^ «Чувствуешь грусть, злость? Твоя будущая машина узнает об этом» .
  44. ^ Варагур, Критика (22 марта 2016 г.). «Автомобили вскоре могут предупреждать водителей, прежде чем они уснут» . Хаффингтон Пост .
  45. ^ Шивхаре, С.Н., и Кетават, С. (2012). Обнаружение эмоций по тексту. Препринт arXiv arXiv : 1205.4944
  46. ^ Эжилараси Р. и Мину Р.И. (2012). Автоматическое распознавание и классификация эмоций . Проседиа Инжиниринг, 38, 21-26.
  47. ^ Кркадинац У., Паскье П., Йованович Дж. и Деведжич В. (2013). Synesketch: библиотека с открытым исходным кодом для распознавания эмоций на основе предложений . Транзакции IEEE по аффективным вычислениям, 4 (3), 312–325.
  48. ^ Шмитт М., Рингеваль Ф. и Шуллер Б.В. (сентябрь 2016 г.). На границе акустики и лингвистики: Мешок аудиослов для распознавания эмоций в речи . В Interspeech (стр. 495–499).
  49. ^ Дхалл А., Гёке Р., Люси С. и Гедеон Т. (2012). Сбор больших, богато аннотированных баз данных выражений лиц из фильмов . Мультимедиа IEEE, (3), 34–41.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 250ba3de4ae5a9f2b9be5c3a8a9cc1ca__1709857380
URL1:https://arc.ask3.ru/arc/aa/25/ca/250ba3de4ae5a9f2b9be5c3a8a9cc1ca.html
Заголовок, (Title) документа по адресу, URL1:
Emotion recognition - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)