Розпізнавання емоцій — це процес виявлення людських емоцій. Люди суттєво відрізняються між собою за здатністю точно розпізнавати емоції інших людей. Використання технологій, які допомагають людям з розпізнаванням емоцій, є відносно новою сферою досліджень. Як правило, технологія працює найкраще, якщо вона використовує кілька способів у різних контекстах. На сьогодні найбільша робота була проведена з автоматизації [en] з відео, мовленнєвих виразів із аудіо, письмових виразів із тексту та фізіології, виміряної за допомогою переносних пристроїв.
Люди
Люди демонструють велику мінливість у своїх здібностях розпізнавати емоції. Ключовим моментом, який слід пам'ятати, вивчаючи автоматичне розпізнавання емоцій, є кілька джерел «фундаментальної істини» або правди про те, що таке справжня емоція. Припустимо, ми намагаємося розпізнати емоції Алекса. Одне з джерел: «Що більшість людей скаже, що відчуває Алекс?» У цьому випадку «правда» може не відповідати тому, що відчуває Алекс, але може відповідати тому, що більшість людей скаже, що виглядає так, як відчуває Алекс. Наприклад, Алекс може бути сумним, але він широко посміхається, а потім більшість людей кажуть, що він виглядає щасливим. Якщо автоматизований метод досягає тих же результатів, що й група спостерігачів, його можна вважати точним, навіть якщо він насправді не вимірює те, що Алекс справді відчуває. Інше джерело «правди» — запитати Алекса, що він насправді відчуває. Це працює, якщо Алекс добре відчуває свій внутрішній стан, хоче розповісти вам, що це таке, і вміє точно передати це словами чи цифрами. Однак деякі люди погано відчувають свої внутрішні відчуття або не можуть точно передати їх словами й цифрами. Взагалі, щоб дізнатися правду про те, яка емоція насправді присутня, може знадобитися певна робота, вона може змінюватися залежно від обраних критеріїв і зазвичай вимагає підтримки певного рівня невизначеності.
Машинний
Десятиліттями наукових досліджень ведуться розробка та оцінка методів автоматизованого розпізнавання емоцій. Зараз існує велика література, в якій пропонуються й оцінюються сотні різних методів, що використовують методи з різних областей, таких як обробка сигналів, машинне навчання, комп'ютерний зір та [en] . Для інтерпретації емоцій можуть використовуватися різні методології та техніки, наприклад байєсівські мережі, [en] та приховані моделі Маркова та глибокі нейронні мережі.
Підходи
Точність розпізнавання емоцій зазвичай покращується, коли воно поєднує аналіз людських виразів із мультимодальних форм, таких як тексти, фізіологія, аудіо чи відео. Різні типи емоцій виявляються завдяки інтеграції інформації з виразів обличчя, рухів тіла та [en], а також мови. Кажуть, що ця технологія сприяє появі так званого емоційного або [en].
Теперішні підходи до розпізнавання емоцій для класифікації певних типів емоцій можна загалом розділити на три основні категорії: методи, засновані на знаннях, статистичні методи та гібридні підходи.
Методики, засновані на знаннях
Техніки, засновані на знаннях (іноді їх називають методиками, заснованими на лексиці), використовують знання предметної області та семантичні та синтаксичні характеристики мови для виявлення певних типів емоцій. У цьому підході зазвичай використовуються ресурси, засновані на знаннях, під час процесу класифікації емоцій, такі як WordNet, SenticNet,[en] і EmotiNet, щоб назвати лише деякі. Однією з переваг цього підходу є доступність та економічність, зумовлені великою доступністю таких баз знань. Обмеженням цієї техніки, з іншого боку, є її нездатність обробляти концептуальні нюанси та складні лінгвістичні правила.
Методи, засновані на знаннях, можна в основному розділити на дві категорії: підходи, засновані на словнику та на основі корпусу. Підходи, засновані на словнику, знаходять у словнику початкові слова думки чи емоції та шукають їх синоніми й антоніми, щоб розширити початковий список думок чи емоцій. З іншого боку, підходи, засновані на корпусі, починаються з початкового списку слів думок або емоцій і розширюють базу даних шляхом пошуку інших слів із контекстно-специфічними характеристиками у великому корпусі. Хоча підходи, засновані на корпусі, враховують контекст, їх ефективність все ще різниться в різних областях, оскільки слово в одному домені може мати різну орієнтацію в іншому домені.
Статистичні методи
Статистичні методи зазвичай передбачають використання різних контрольованих алгоритмів машинного навчання, в яких великий набір анотованих даних подається в алгоритми, щоб система вивчала та передбачала відповідні типи емоцій. Алгоритми машинного навчання, як правило, забезпечують більш розумну точність класифікації у порівнянні іншими підходами, але однією з проблем у досягненні кращих результатів у процесі класифікації є необхідність мати достатньо великий навчальний набір.
Деякі з найбільш часто використовуваних алгоритмів машинного навчання включають опорні векторні машини (SVM), наївні байєсівські та максимальні ентропії.Глибоке навчання, яке належить до групи некерованого машинного навчання, також широко використовується для розпізнавання емоцій. Добре відомі алгоритми глибокого навчання включають різні архітектури штучної нейронної мережі (ANN), такі як згортка нейронна мережа (CNN), довготривала короткочасна пам'ять (LSTM) і машина екстремального навчання (ELM). Популярність підходів глибокого навчання в області розпізнавання емоцій може бути пов'язана головним чином з його успіхом у пов'язаних додатках, таких як комп'ютерний зір, розпізнавання мовлення та обробка природної мови (NLP).
Гібридні підходи
Гібридні підходи до розпізнавання емоцій, по суті, є комбінацією методів, заснованих на знаннях, і статистичних методів, які використовують додаткові характеристики обох методів. Деякі з робіт, у яких застосовано сукупність керованих знаннями лінгвістичних елементів і статистичних методів, включають септичні обчислення та iFeel, обидві з яких використовують ресурс на основі знань на рівні концепції SenticNet. Роль таких ресурсів на основі знань у реалізації гібридних підходів дуже важлива в процесі класифікації емоцій. Оскільки гібридні методи отримують переваги як підходів, що ґрунтуються на знаннях, так і статистичних підходів, вони, як правило, мають кращу ефективність класифікації, ніж використання методів, заснованих на знаннях або статистичних, незалежно. Недоліком використання гібридних методів є складність обчислень під час процесу класифікації.
Набори даних
Дані є невіддільною частиною наявних підходів до розпізнавання емоцій, і в більшості випадків отримати анотовані дані, необхідні для навчання алгоритмів машинного навчання, є складним завданням. Для завдання класифікації різних типів емоцій із мультимодальних джерел у вигляді текстів, аудіо, відео чи фізіологічних сигналів доступні такі набори даних:
- HUMAINE: надає природні кліпи зі словами емоцій та мітками контексту в різних модальностях
- База даних Белфаста: надає кліпи з широким спектром емоцій з телевізійних програм та записів інтерв'ю
- SEMAINE: забезпечує аудіовізуальні записи між людиною та віртуальним агентом і містить анотації емоцій, такі як гнів, щастя, страх, огида, смуток, презирство та розвага
- IEMOCAP: забезпечує записи діадичних сеансів між акторами та містить анотації емоцій, такі як щастя, гнів, смуток, розчарування та нейтральний стан
- ІНТЕРФЕЙС: забезпечує аудіовізуальні записи суб'єктів семи національностей та містить анотації емоцій, такі як щастя, гнів, смуток, здивування, огида та страх
- DEAP: забезпечує електроенцефалографію (ЕЕГ), електрокардіографію (ЕКГ) та відеозаписи обличчя, а також анотації емоцій щодо валентності, збудження та домінування людей, які дивляться кліпи
- DREAMER: забезпечує записи електроенцефалографії (ЕЕГ) та електрокардіографії (ЕКГ), а також анотації емоцій щодо валентності, збудження та домінування людей, які дивляться фільми
- MELD: це багатосторонній набір даних для розмови, де кожне висловлювання позначено емоціями та почуттями. MELD забезпечує розмови у форматі відео і, отже, підходить для [en] розпізнавання емоцій та аналізу настроїв. MELD корисний для [en] і розпізнавання емоцій, [en] та [en] .
- MuSe: забезпечує аудіовізуальні записи природних взаємодій між людиною та об'єктом. Він має дискретні й безперервні анотації емоцій з точки зору валентності, збудження та надійності, а також теми мовлення, корисні для [en] та розпізнавання емоцій.
- UIT-VSMEC: це стандартний в'єтнамський корпус емоцій у соціальних мережах (UIT-VSMEC) з приблизно 6927 анотованими людьми речень із шістьма мітками емоцій, що сприяє дослідженню розпізнавання емоцій у в'єтнамській мові, яка є малоресурсною мовою в обробці природної мови (NLP).
- BED: забезпечує записи електроенцефалографії (ЕЕГ), а також анотації емоцій з точки зору валентності та збудження людей, які переглядають зображення. Він також включає записи електроенцефалографії (ЕЕГ) людей, які зазнали впливу різних подразників ([en] , відпочинок із закритими очима, відпочинок з відкритими очима, когнітивні завдання) для завдання біометричних даних на основі ЕЕГ.
Додатки
Розпізнавання емоцій використовується в суспільстві з різних причин. [en], що виникла з Массачусетського технологічного інституту, надає програмне забезпечення для штучного інтелекту, яке робить його більш ефективним для виконання завдань, які раніше виконували люди вручну, в основному для збору інформації про вираз обличчя та голос, пов'язану з конкретними контекстами, де глядачі погодилися поділитися цією інформацією. Наприклад, замість того, щоб заповнювати довге опитування про те, як ви себе почуваєте під час перегляду навчального відео чи реклами, ви можете погодитися на те, щоб камера спостерігала за вашим обличчям і слухала, що ви говорите, і відзначати, під час яких частин досвіду ви показували такі вирази, як нудьга, інтерес, розгубленість або посмішка. (Зауважте, що це не означає, що це читає ваші найпотаємніші почуття — це лише те, що ви висловлюєте зовні.) Інші види використання [en] містять в собі допомогу дітям з аутизмом, допомогу сліпим людям читати вирази обличчя, допомогу роботам взаємодіяти більш розумно з людьми та моніторинг ознак уваги під час водіння, щоб підвищити безпеку водія.
Патент, поданий Snapchat у 2015 році, описує метод вилучення даних про натовпи на публічних заходах шляхом виконання алгоритмічного розпізнавання емоцій на селфі користувачів із географічними тегами.
Emotient була стартап-компанією, яка застосовувала розпізнавання емоцій до читання нахмурених, посмішок та інших виразів на обличчях, а саме штучний інтелект, щоб передбачати «ставлення та дії на основі виразів обличчя».Apple купила Emotient у 2016 році і використовує технологію розпізнавання емоцій для підвищення емоційного інтелекту своїх продуктів.
nViso забезпечує розпізнавання емоцій у режимі реального часу для веб та мобільних додатків через API в режимі реального часу. Visage Technologies AB пропонує оцінку емоцій як частину свого [en] для маркетингових і наукових досліджень та подібних цілей.
Eyeris — це компанія з розпізнавання емоцій, яка співпрацює з виробниками вбудованих систем, включаючи виробників автомобілів і компаній, що працюють у соціальних мережах, над інтеграцією свого програмного забезпечення для аналізу облич і розпізнавання емоцій; а також із творцями відеоконтенту, щоб допомогти їм оцінити ефективність їх короткого та довгої відеореклами.
Також існує багато продуктів для об'єднання інформації з емоцій, переданих в Інтернеті, в тому числі за допомогою натискання кнопки «подобається» та кількості позитивних і негативних фраз у тексті, а розпізнавання афектів все частіше використовується в деяких видах ігор і віртуальної реальності, як для навчальних цілей, так і для надати гравцям більш природний контроль над своїми соціальними аватарами.
Підполя розпізнавання емоцій
Розпізнавання емоцій, ймовірно, досягне найкращого результату, якщо застосовує [en], поєднуючи різні об'єкти, включаючи текст (розмову), аудіо, відео та фізіологію для виявлення емоцій.
Розпізнавання емоцій у тексті
Текстові дані є сприятливим об'єктом дослідження для розпізнавання емоцій, коли вони безплатні та доступні скрізь у житті людини. У порівнянні з іншими типами даних, зберігання текстових даних легше і легко стискається до найкращої продуктивності через часте повторення слів і символів у мовах. Емоції можна витягти з двох основних текстових форм: письмових текстів і розмов (діалогів). Для письмових текстів багато вчених зосереджуються на роботі з рівнем речень, щоб витягти «слова/фрази», що представляють емоції.
Розпізнавання емоцій в аудіо
На відміну від розпізнавання емоцій у тексті, голосові сигнали використовуються для [en].
Розпізнавання емоцій у відео
Відеодані — це комбінація аудіоданих, даних зображень і іноді текстів (у разі субтитрів).
Розпізнавання емоцій у розмові
[en] (ERC) витягує думки між учасниками з масивних даних розмови в соціальних платформах, таких як Facebook, Twitter, YouTube та інших. ERC може приймати вхідні дані, такі як текст, аудіо, відео або комбіновану форму, щоб виявити кілька емоцій, таких як страх, пожадливість, біль і задоволення.
Див. також
Примітки
- Miyakoshi, Yoshihiro, and Shohei Kato. «Facial Emotion Detection Considering Partial Occlusion Of Face Using Baysian Network». Computers and Informatics (2011): 96–101.
- Hari Krishna Vydana, P. Phani Kumar, K. Sri Rama Krishna and Anil Kumar Vuppala. «Improved emotion recognition using GMM-UBMs». 2015 International Conference on Signal Processing and Communication Engineering Systems
- B. Schuller, G. Rigoll M. Lang. «Hidden Markov model-based speech emotion recognition». ICME '03. Proceedings. 2003 International Conference on Multimedia and Expo, 2003.
- Singh, Premjeet; Saha, Goutam; Sahidullah, Md (2021). Non-linear frequency warping using constant-Q transformation for speech emotion recognition. 2021 International Conference on Computer Communication and Informatics (ICCCI). с. 1—4. arXiv:2102.04029. doi:10.1109/ICCCI50826.2021.9402569. ISBN .
- Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (September 2017). A review of affective computing: From unimodal analysis to multimodal fusion. Information Fusion. 37: 98—125. doi:10.1016/j.inffus.2017.02.003.
{{}}
:|hdl-access=
вимагає|hdl=
() - Caridakis, George; Castellano, Ginevra; Kessous, Loic; Raouzaiou, Amaryllis; Malatesta, Lori; Asteriadis, Stelios; Karpouzis, Kostas (19 вересня 2007). Multimodal emotion recognition from expressive faces, body gestures and speech (англ.). Т. 247. с. 375—388. doi:10.1007/978-0-387-74161-1_41. ISBN .
{{}}
: Проігноровано|journal=
() - Price. Tapping Into The Emotional Internet. TechCrunch (амер.). Процитовано 12 грудня 2018.
- Cambria, Erik (March 2016). Affective Computing and Sentiment Analysis. IEEE Intelligent Systems. 31 (2): 102—107. doi:10.1109/MIS.2016.31. S2CID 18580557.
- Cambria, Erik; Poria, Soujanya; Bajpai, Rajiv; Schuller, Bjoern (2016). . Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers (англ.): 2666—2677. Архів оригіналу за 15 червня 2018. Процитовано 24 травня 2022.
- Balahur, Alexandra; Hermida, JesúS M; Montoyo, AndréS (1 листопада 2012). Detecting implicit expressions of emotion in text: A comparative analysis. Decision Support Systems. 53 (4): 742—753. doi:10.1016/j.dss.2012.05.024. ISSN 0167-9236.
- Medhat, Walaa; Hassan, Ahmed; Korashy, Hoda (December 2014). Sentiment analysis algorithms and applications: A survey. Ain Shams Engineering Journal. 5 (4): 1093—1113. doi:10.1016/j.asej.2014.04.011.
- Madhoushi, Zohreh; Hamdan, Abdul Razak; Zainudin, Suhaila (2015). Sentiment analysis techniques in recent works. 2015 Science and Information Conference (SAI). с. 288—291. doi:10.1109/SAI.2015.7237157. ISBN .
- Hemmatian, Fatemeh; Sohrabi, Mohammad Karim (18 грудня 2017). A survey on classification techniques for opinion mining and sentiment analysis. Artificial Intelligence Review. 52 (3): 1495—1545. doi:10.1007/s10462-017-9599-6.
- Sun, Shiliang; Luo, Chen; Chen, Junyu (July 2017). A review of natural language processing techniques for opinion mining systems. Information Fusion. 36: 10—25. doi:10.1016/j.inffus.2016.10.004.
- Majumder, Navonil; Poria, Soujanya; Gelbukh, Alexander; Cambria, Erik (March 2017). Deep Learning-Based Document Modeling for Personality Detection from Text. IEEE Intelligent Systems. 32 (2): 74—79. doi:10.1109/MIS.2017.23.
- Mahendhiran, P. D.; Kannimuthu, S. (May 2018). Deep Learning Techniques for Polarity Classification in Multimodal Sentiment Analysis. International Journal of Information Technology & Decision Making. 17 (3): 883—910. doi:10.1142/S0219622018500128.
- Yu, Hongliang; Gui, Liangke; Madaio, Michael; Ogan, Amy; Cassell, Justine; Morency, Louis-Philippe (23 жовтня 2017). Temporally Selective Attention Model for Social and Affective State Recognition in Multimedia Content. MM '17. ACM. с. 1743—1751. doi:10.1145/3123266.3123413. ISBN .
- Cambria, Erik; Hussain, Amir (2015). Sentic Computing: A Common-Sense-Based Framework for Concept-Level Sentiment Analysis. Springer Publishing Company, Incorporated. ISBN .
- Araújo, Matheus; Gonçalves, Pollyanna; Cha, Meeyoung; Benevenuto, Fabrício (7 квітня 2014). iFeel: a system that compares and combines sentiment analysis methods. WWW '14 Companion. ACM. с. 75—78. doi:10.1145/2567948.2577013. ISBN .
- Paolo Petta, ред. (2011). Emotion-oriented systems the humaine handbook. Berlin: Springer. ISBN .
- Douglas-Cowie, Ellen; Campbell, Nick; Cowie, Roddy; Roach, Peter (1 квітня 2003). Emotional speech: towards a new generation of databases. Speech Communication. 40 (1–2): 33—60. CiteSeerX 10.1.1.128.3991. doi:10.1016/S0167-6393(02)00070-5. ISSN 0167-6393.
- McKeown, G.; Valstar, M.; Cowie, R.; Pantic, M.; Schroder, M. (January 2012). The SEMAINE Database: Annotated Multimodal Records of Emotionally Colored Conversations between a Person and a Limited Agent. IEEE Transactions on Affective Computing. 3 (1): 5—17. doi:10.1109/T-AFFC.2011.20.
- Busso, Carlos; Bulut, Murtaza; Lee, Chi-Chun; Kazemzadeh, Abe; Mower, Emily; Kim, Samuel; Chang, Jeannette N.; Lee, Sungbok; Narayanan, Shrikanth S. (5 листопада 2008). IEMOCAP: interactive emotional dyadic motion capture database. Language Resources and Evaluation (англ.). 42 (4): 335—359. doi:10.1007/s10579-008-9076-6. ISSN 1574-020X.
- Martin, O.; Kotsia, I.; Macq, B.; Pitas, I. (3 квітня 2006). The eNTERFACE'05 Audio-Visual Emotion Database. Icdew '06. IEEE Computer Society. с. 8–. doi:10.1109/ICDEW.2006.145. ISBN .
- Koelstra, Sander; Muhl, Christian; Soleymani, Mohammad; Lee, Jong-Seok; Yazdani, Ashkan; Ebrahimi, Touradj; Pun, Thierry; Nijholt, Anton; Patras, Ioannis (January 2012). DEAP: A Database for Emotion Analysis Using Physiological Signals. IEEE Transactions on Affective Computing. 3 (1): 18—31. CiteSeerX 10.1.1.593.8470. doi:10.1109/T-AFFC.2011.15. ISSN 1949-3045.
- Katsigiannis, Stamos; Ramzan, Naeem (January 2018). (PDF). IEEE Journal of Biomedical and Health Informatics. 22 (1): 98—107. doi:10.1109/JBHI.2017.2688239. ISSN 2168-2194. PMID 28368836. Архів оригіналу (PDF) за 1 листопада 2022. Процитовано 24 травня 2022.
- Poria, Soujanya; Hazarika, Devamanyu; Majumder, Navonil; Naik, Gautam; Cambria, Erik; Mihalcea, Rada (2019). MELD: A Multimodal Multi-Party Dataset for Emotion Recognition in Conversations. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA, USA: Association for Computational Linguistics: 527—536. arXiv:1810.02508. doi:10.18653/v1/p19-1050.
- Poria, S., Majumder, N., Mihalcea, R., & Hovy, E. (2019). Emotion recognition in conversation: Research challenges, datasets, and recent advances. IEEE Access, 7, 100943-100953.
- Stappen, Lukas; Schuller, Björn; Lefter, Iulia; Cambria, Erik; Kompatsiaris, Ioannis (2020). Summary of MuSe 2020: Multimodal Sentiment Analysis, Emotion-target Engagement and Trustworthiness Detection in Real-life Media. Proceedings of the 28th ACM International Conference on Multimedia. Seattle, PA, USA: Association for Computing Machinery: 4769—4770. arXiv:2004.14858. doi:10.1145/3394171.3421901.
- Ho, Vong (2020). Emotion Recognition for Vietnamese Social Media Text. 16th International Conference of the Pacific Association for Computational Linguistics (PACLING 2019). Communications in Computer and Information Science. 1215: 319—333. arXiv:1911.09339. doi:10.1007/978-981-15-6168-9_27. ISBN .
- Arnau-González, Pablo; Katsigiannis, Stamos; Arevalillo-Herráez, Miguel; Ramzan, Naeem (February 2021). BED: A new dataset for EEG-based biometrics. IEEE Internet of Things Journal. (Early Access): 1. doi:10.1109/JIOT.2021.3061727. ISSN 2327-4662.
- Affectiva.
- Bushwick, Sophie. This Video Watches You Back. Scientific American (англ.). Процитовано 27 січня 2020.
- DeMuth Jr., Chris (8 січня 2016). Apple Reads Your Mind. M&A Daily. Seeking Alpha. Процитовано 9 січня 2016.
- . nViso.ch. Архів оригіналу за 28 серпня 2018. Процитовано 24 травня 2022.
- Visage Technologies.
- Feeling sad, angry? Your future car will know.
- Varagur, Krithika (22 березня 2016). Cars May Soon Warn Drivers Before They Nod Off. Huffington Post.
- Shivhare, S. N., & Khethawat, S. (2012). Emotion detection from text. arXiv preprint arXiv:1205.4944
- Ezhilarasi, R., & Minu, R. I. (2012). Automatic emotion recognition and classification. Procedia Engineering, 38, 21-26.
- Krcadinac, U., Pasquier, P., Jovanovic, J., & Devedzic, V. (2013). Synesketch: An open source library for sentence-based emotion recognition. IEEE Transactions on Affective Computing, 4(3), 312—325.
- Schmitt, M., Ringeval, F., & Schuller, B. W. (2016, September). . In Interspeech (pp. 495—499).
- Dhall, A., Goecke, R., Lucey, S., & Gedeon, T. (2012). Collecting large, richly annotated facial-expression databases from movies. IEEE multimedia, (3), 34-41.
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Rozpiznavannya emocij ce proces viyavlennya lyudskih emocij Lyudi suttyevo vidriznyayutsya mizh soboyu za zdatnistyu tochno rozpiznavati emociyi inshih lyudej Vikoristannya tehnologij yaki dopomagayut lyudyam z rozpiznavannyam emocij ye vidnosno novoyu sferoyu doslidzhen Yak pravilo tehnologiya pracyuye najkrashe yaksho vona vikoristovuye kilka sposobiv u riznih kontekstah Na sogodni najbilsha robota bula provedena z avtomatizaciyi en z video movlennyevih viraziv iz audio pismovih viraziv iz tekstu ta fiziologiyi vimiryanoyi za dopomogoyu perenosnih pristroyiv LyudiLyudi demonstruyut veliku minlivist u svoyih zdibnostyah rozpiznavati emociyi Klyuchovim momentom yakij slid pam yatati vivchayuchi avtomatichne rozpiznavannya emocij ye kilka dzherel fundamentalnoyi istini abo pravdi pro te sho take spravzhnya emociya Pripustimo mi namagayemosya rozpiznati emociyi Aleksa Odne z dzherel Sho bilshist lyudej skazhe sho vidchuvaye Aleks U comu vipadku pravda mozhe ne vidpovidati tomu sho vidchuvaye Aleks ale mozhe vidpovidati tomu sho bilshist lyudej skazhe sho viglyadaye tak yak vidchuvaye Aleks Napriklad Aleks mozhe buti sumnim ale vin shiroko posmihayetsya a potim bilshist lyudej kazhut sho vin viglyadaye shaslivim Yaksho avtomatizovanij metod dosyagaye tih zhe rezultativ sho j grupa sposterigachiv jogo mozhna vvazhati tochnim navit yaksho vin naspravdi ne vimiryuye te sho Aleks spravdi vidchuvaye Inshe dzherelo pravdi zapitati Aleksa sho vin naspravdi vidchuvaye Ce pracyuye yaksho Aleks dobre vidchuvaye svij vnutrishnij stan hoche rozpovisti vam sho ce take i vmiye tochno peredati ce slovami chi ciframi Odnak deyaki lyudi pogano vidchuvayut svoyi vnutrishni vidchuttya abo ne mozhut tochno peredati yih slovami j ciframi Vzagali shob diznatisya pravdu pro te yaka emociya naspravdi prisutnya mozhe znadobitisya pevna robota vona mozhe zminyuvatisya zalezhno vid obranih kriteriyiv i zazvichaj vimagaye pidtrimki pevnogo rivnya neviznachenosti MashinnijDesyatilittyami naukovih doslidzhen vedutsya rozrobka ta ocinka metodiv avtomatizovanogo rozpiznavannya emocij Zaraz isnuye velika literatura v yakij proponuyutsya j ocinyuyutsya sotni riznih metodiv sho vikoristovuyut metodi z riznih oblastej takih yak obrobka signaliv mashinne navchannya komp yuternij zir ta en Dlya interpretaciyi emocij mozhut vikoristovuvatisya rizni metodologiyi ta tehniki napriklad bajyesivski merezhi en ta prihovani modeli Markova ta gliboki nejronni merezhi Pidhodi Tochnist rozpiznavannya emocij zazvichaj pokrashuyetsya koli vono poyednuye analiz lyudskih viraziv iz multimodalnih form takih yak teksti fiziologiya audio chi video Rizni tipi emocij viyavlyayutsya zavdyaki integraciyi informaciyi z viraziv oblichchya ruhiv tila ta en a takozh movi Kazhut sho cya tehnologiya spriyaye poyavi tak zvanogo emocijnogo abo en Teperishni pidhodi do rozpiznavannya emocij dlya klasifikaciyi pevnih tipiv emocij mozhna zagalom rozdiliti na tri osnovni kategoriyi metodi zasnovani na znannyah statistichni metodi ta gibridni pidhodi Metodiki zasnovani na znannyah Tehniki zasnovani na znannyah inodi yih nazivayut metodikami zasnovanimi na leksici vikoristovuyut znannya predmetnoyi oblasti ta semantichni ta sintaksichni harakteristiki movi dlya viyavlennya pevnih tipiv emocij U comu pidhodi zazvichaj vikoristovuyutsya resursi zasnovani na znannyah pid chas procesu klasifikaciyi emocij taki yak WordNet SenticNet en i EmotiNet shob nazvati lishe deyaki Odniyeyu z perevag cogo pidhodu ye dostupnist ta ekonomichnist zumovleni velikoyu dostupnistyu takih baz znan Obmezhennyam ciyeyi tehniki z inshogo boku ye yiyi nezdatnist obroblyati konceptualni nyuansi ta skladni lingvistichni pravila Metodi zasnovani na znannyah mozhna v osnovnomu rozdiliti na dvi kategoriyi pidhodi zasnovani na slovniku ta na osnovi korpusu Pidhodi zasnovani na slovniku znahodyat u slovniku pochatkovi slova dumki chi emociyi ta shukayut yih sinonimi j antonimi shob rozshiriti pochatkovij spisok dumok chi emocij Z inshogo boku pidhodi zasnovani na korpusi pochinayutsya z pochatkovogo spisku sliv dumok abo emocij i rozshiryuyut bazu danih shlyahom poshuku inshih sliv iz kontekstno specifichnimi harakteristikami u velikomu korpusi Hocha pidhodi zasnovani na korpusi vrahovuyut kontekst yih efektivnist vse she riznitsya v riznih oblastyah oskilki slovo v odnomu domeni mozhe mati riznu oriyentaciyu v inshomu domeni Statistichni metodi Statistichni metodi zazvichaj peredbachayut vikoristannya riznih kontrolovanih algoritmiv mashinnogo navchannya v yakih velikij nabir anotovanih danih podayetsya v algoritmi shob sistema vivchala ta peredbachala vidpovidni tipi emocij Algoritmi mashinnogo navchannya yak pravilo zabezpechuyut bilsh rozumnu tochnist klasifikaciyi u porivnyanni inshimi pidhodami ale odniyeyu z problem u dosyagnenni krashih rezultativ u procesi klasifikaciyi ye neobhidnist mati dostatno velikij navchalnij nabir Deyaki z najbilsh chasto vikoristovuvanih algoritmiv mashinnogo navchannya vklyuchayut oporni vektorni mashini SVM nayivni bajyesivski ta maksimalni entropiyi Gliboke navchannya yake nalezhit do grupi nekerovanogo mashinnogo navchannya takozh shiroko vikoristovuyetsya dlya rozpiznavannya emocij Dobre vidomi algoritmi glibokogo navchannya vklyuchayut rizni arhitekturi shtuchnoyi nejronnoyi merezhi ANN taki yak zgortka nejronna merezha CNN dovgotrivala korotkochasna pam yat LSTM i mashina ekstremalnogo navchannya ELM Populyarnist pidhodiv glibokogo navchannya v oblasti rozpiznavannya emocij mozhe buti pov yazana golovnim chinom z jogo uspihom u pov yazanih dodatkah takih yak komp yuternij zir rozpiznavannya movlennya ta obrobka prirodnoyi movi NLP Gibridni pidhodi Gibridni pidhodi do rozpiznavannya emocij po suti ye kombinaciyeyu metodiv zasnovanih na znannyah i statistichnih metodiv yaki vikoristovuyut dodatkovi harakteristiki oboh metodiv Deyaki z robit u yakih zastosovano sukupnist kerovanih znannyami lingvistichnih elementiv i statistichnih metodiv vklyuchayut septichni obchislennya ta iFeel obidvi z yakih vikoristovuyut resurs na osnovi znan na rivni koncepciyi SenticNet Rol takih resursiv na osnovi znan u realizaciyi gibridnih pidhodiv duzhe vazhliva v procesi klasifikaciyi emocij Oskilki gibridni metodi otrimuyut perevagi yak pidhodiv sho gruntuyutsya na znannyah tak i statistichnih pidhodiv voni yak pravilo mayut krashu efektivnist klasifikaciyi nizh vikoristannya metodiv zasnovanih na znannyah abo statistichnih nezalezhno Nedolikom vikoristannya gibridnih metodiv ye skladnist obchislen pid chas procesu klasifikaciyi Nabori danih Dani ye neviddilnoyu chastinoyu nayavnih pidhodiv do rozpiznavannya emocij i v bilshosti vipadkiv otrimati anotovani dani neobhidni dlya navchannya algoritmiv mashinnogo navchannya ye skladnim zavdannyam Dlya zavdannya klasifikaciyi riznih tipiv emocij iz multimodalnih dzherel u viglyadi tekstiv audio video chi fiziologichnih signaliv dostupni taki nabori danih HUMAINE nadaye prirodni klipi zi slovami emocij ta mitkami kontekstu v riznih modalnostyah Baza danih Belfasta nadaye klipi z shirokim spektrom emocij z televizijnih program ta zapisiv interv yu SEMAINE zabezpechuye audiovizualni zapisi mizh lyudinoyu ta virtualnim agentom i mistit anotaciyi emocij taki yak gniv shastya strah ogida smutok prezirstvo ta rozvaga IEMOCAP zabezpechuye zapisi diadichnih seansiv mizh aktorami ta mistit anotaciyi emocij taki yak shastya gniv smutok rozcharuvannya ta nejtralnij stan INTERFEJS zabezpechuye audiovizualni zapisi sub yektiv semi nacionalnostej ta mistit anotaciyi emocij taki yak shastya gniv smutok zdivuvannya ogida ta strah DEAP zabezpechuye elektroencefalografiyu EEG elektrokardiografiyu EKG ta videozapisi oblichchya a takozh anotaciyi emocij shodo valentnosti zbudzhennya ta dominuvannya lyudej yaki divlyatsya klipi DREAMER zabezpechuye zapisi elektroencefalografiyi EEG ta elektrokardiografiyi EKG a takozh anotaciyi emocij shodo valentnosti zbudzhennya ta dominuvannya lyudej yaki divlyatsya filmi MELD ce bagatostoronnij nabir danih dlya rozmovi de kozhne vislovlyuvannya poznacheno emociyami ta pochuttyami MELD zabezpechuye rozmovi u formati video i otzhe pidhodit dlya en rozpiznavannya emocij ta analizu nastroyiv MELD korisnij dlya en i rozpiznavannya emocij en ta en MuSe zabezpechuye audiovizualni zapisi prirodnih vzayemodij mizh lyudinoyu ta ob yektom Vin maye diskretni j bezperervni anotaciyi emocij z tochki zoru valentnosti zbudzhennya ta nadijnosti a takozh temi movlennya korisni dlya en ta rozpiznavannya emocij UIT VSMEC ce standartnij v yetnamskij korpus emocij u socialnih merezhah UIT VSMEC z priblizno 6927 anotovanimi lyudmi rechen iz shistma mitkami emocij sho spriyaye doslidzhennyu rozpiznavannya emocij u v yetnamskij movi yaka ye maloresursnoyu movoyu v obrobci prirodnoyi movi NLP BED zabezpechuye zapisi elektroencefalografiyi EEG a takozh anotaciyi emocij z tochki zoru valentnosti ta zbudzhennya lyudej yaki pereglyadayut zobrazhennya Vin takozh vklyuchaye zapisi elektroencefalografiyi EEG lyudej yaki zaznali vplivu riznih podraznikiv en vidpochinok iz zakritimi ochima vidpochinok z vidkritimi ochima kognitivni zavdannya dlya zavdannya biometrichnih danih na osnovi EEG Dodatki Rozpiznavannya emocij vikoristovuyetsya v suspilstvi z riznih prichin en sho vinikla z Massachusetskogo tehnologichnogo institutu nadaye programne zabezpechennya dlya shtuchnogo intelektu yake robit jogo bilsh efektivnim dlya vikonannya zavdan yaki ranishe vikonuvali lyudi vruchnu v osnovnomu dlya zboru informaciyi pro viraz oblichchya ta golos pov yazanu z konkretnimi kontekstami de glyadachi pogodilisya podilitisya ciyeyu informaciyeyu Napriklad zamist togo shob zapovnyuvati dovge opituvannya pro te yak vi sebe pochuvayete pid chas pereglyadu navchalnogo video chi reklami vi mozhete pogoditisya na te shob kamera sposterigala za vashim oblichchyam i sluhala sho vi govorite i vidznachati pid chas yakih chastin dosvidu vi pokazuvali taki virazi yak nudga interes rozgublenist abo posmishka Zauvazhte sho ce ne oznachaye sho ce chitaye vashi najpotayemnishi pochuttya ce lishe te sho vi vislovlyuyete zovni Inshi vidi vikoristannya en mistyat v sobi dopomogu dityam z autizmom dopomogu slipim lyudyam chitati virazi oblichchya dopomogu robotam vzayemodiyati bilsh rozumno z lyudmi ta monitoring oznak uvagi pid chas vodinnya shob pidvishiti bezpeku vodiya Patent podanij Snapchat u 2015 roci opisuye metod viluchennya danih pro natovpi na publichnih zahodah shlyahom vikonannya algoritmichnogo rozpiznavannya emocij na selfi koristuvachiv iz geografichnimi tegami Emotient bula startap kompaniyeyu yaka zastosovuvala rozpiznavannya emocij do chitannya nahmurenih posmishok ta inshih viraziv na oblichchyah a same shtuchnij intelekt shob peredbachati stavlennya ta diyi na osnovi viraziv oblichchya Apple kupila Emotient u 2016 roci i vikoristovuye tehnologiyu rozpiznavannya emocij dlya pidvishennya emocijnogo intelektu svoyih produktiv nViso zabezpechuye rozpiznavannya emocij u rezhimi realnogo chasu dlya veb ta mobilnih dodatkiv cherez API v rezhimi realnogo chasu Visage Technologies AB proponuye ocinku emocij yak chastinu svogo en dlya marketingovih i naukovih doslidzhen ta podibnih cilej Eyeris ce kompaniya z rozpiznavannya emocij yaka spivpracyuye z virobnikami vbudovanih sistem vklyuchayuchi virobnikiv avtomobiliv i kompanij sho pracyuyut u socialnih merezhah nad integraciyeyu svogo programnogo zabezpechennya dlya analizu oblich i rozpiznavannya emocij a takozh iz tvorcyami videokontentu shob dopomogti yim ociniti efektivnist yih korotkogo ta dovgoyi videoreklami Takozh isnuye bagato produktiv dlya ob yednannya informaciyi z emocij peredanih v Interneti v tomu chisli za dopomogoyu natiskannya knopki podobayetsya ta kilkosti pozitivnih i negativnih fraz u teksti a rozpiznavannya afektiv vse chastishe vikoristovuyetsya v deyakih vidah igor i virtualnoyi realnosti yak dlya navchalnih cilej tak i dlya nadati gravcyam bilsh prirodnij kontrol nad svoyimi socialnimi avatarami Pidpolya rozpiznavannya emocijRozpiznavannya emocij jmovirno dosyagne najkrashogo rezultatu yaksho zastosovuye en poyednuyuchi rizni ob yekti vklyuchayuchi tekst rozmovu audio video ta fiziologiyu dlya viyavlennya emocij Rozpiznavannya emocij u teksti Tekstovi dani ye spriyatlivim ob yektom doslidzhennya dlya rozpiznavannya emocij koli voni bezplatni ta dostupni skriz u zhitti lyudini U porivnyanni z inshimi tipami danih zberigannya tekstovih danih legshe i legko stiskayetsya do najkrashoyi produktivnosti cherez chaste povtorennya sliv i simvoliv u movah Emociyi mozhna vityagti z dvoh osnovnih tekstovih form pismovih tekstiv i rozmov dialogiv Dlya pismovih tekstiv bagato vchenih zoseredzhuyutsya na roboti z rivnem rechen shob vityagti slova frazi sho predstavlyayut emociyi Rozpiznavannya emocij v audio Na vidminu vid rozpiznavannya emocij u teksti golosovi signali vikoristovuyutsya dlya en Rozpiznavannya emocij u video Videodani ce kombinaciya audiodanih danih zobrazhen i inodi tekstiv u razi subtitriv Rozpiznavannya emocij u rozmovi en ERC vityaguye dumki mizh uchasnikami z masivnih danih rozmovi v socialnih platformah takih yak Facebook Twitter YouTube ta inshih ERC mozhe prijmati vhidni dani taki yak tekst audio video abo kombinovanu formu shob viyaviti kilka emocij takih yak strah pozhadlivist bil i zadovolennya Div takozh en Sprijnyattya oblichchya Sistema rozpiznavannya oblich Analiz nastroyiv en PrimitkiMiyakoshi Yoshihiro and Shohei Kato Facial Emotion Detection Considering Partial Occlusion Of Face Using Baysian Network Computers and Informatics 2011 96 101 Hari Krishna Vydana P Phani Kumar K Sri Rama Krishna and Anil Kumar Vuppala Improved emotion recognition using GMM UBMs 2015 International Conference on Signal Processing and Communication Engineering Systems B Schuller G Rigoll M Lang Hidden Markov model based speech emotion recognition ICME 03 Proceedings 2003 International Conference on Multimedia and Expo 2003 Singh Premjeet Saha Goutam Sahidullah Md 2021 Non linear frequency warping using constant Q transformation for speech emotion recognition 2021 International Conference on Computer Communication and Informatics ICCCI s 1 4 arXiv 2102 04029 doi 10 1109 ICCCI50826 2021 9402569 ISBN 978 1 7281 5875 4 Poria Soujanya Cambria Erik Bajpai Rajiv Hussain Amir September 2017 A review of affective computing From unimodal analysis to multimodal fusion Information Fusion 37 98 125 doi 10 1016 j inffus 2017 02 003 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite journal title Shablon Cite journal cite journal a hdl access vimagaye hdl dovidka Caridakis George Castellano Ginevra Kessous Loic Raouzaiou Amaryllis Malatesta Lori Asteriadis Stelios Karpouzis Kostas 19 veresnya 2007 Multimodal emotion recognition from expressive faces body gestures and speech angl T 247 s 375 388 doi 10 1007 978 0 387 74161 1 41 ISBN 978 0 387 74160 4 a href wiki D0 A8 D0 B0 D0 B1 D0 BB D0 BE D0 BD Cite book title Shablon Cite book cite book a Proignorovano journal dovidka Price Tapping Into The Emotional Internet TechCrunch amer Procitovano 12 grudnya 2018 Cambria Erik March 2016 Affective Computing and Sentiment Analysis IEEE Intelligent Systems 31 2 102 107 doi 10 1109 MIS 2016 31 S2CID 18580557 Cambria Erik Poria Soujanya Bajpai Rajiv Schuller Bjoern 2016 Proceedings of COLING 2016 the 26th International Conference on Computational Linguistics Technical Papers angl 2666 2677 Arhiv originalu za 15 chervnya 2018 Procitovano 24 travnya 2022 Balahur Alexandra Hermida JesuS M Montoyo AndreS 1 listopada 2012 Detecting implicit expressions of emotion in text A comparative analysis Decision Support Systems 53 4 742 753 doi 10 1016 j dss 2012 05 024 ISSN 0167 9236 Medhat Walaa Hassan Ahmed Korashy Hoda December 2014 Sentiment analysis algorithms and applications A survey Ain Shams Engineering Journal 5 4 1093 1113 doi 10 1016 j asej 2014 04 011 Madhoushi Zohreh Hamdan Abdul Razak Zainudin Suhaila 2015 Sentiment analysis techniques in recent works 2015 Science and Information Conference SAI s 288 291 doi 10 1109 SAI 2015 7237157 ISBN 978 1 4799 8547 0 Hemmatian Fatemeh Sohrabi Mohammad Karim 18 grudnya 2017 A survey on classification techniques for opinion mining and sentiment analysis Artificial Intelligence Review 52 3 1495 1545 doi 10 1007 s10462 017 9599 6 Sun Shiliang Luo Chen Chen Junyu July 2017 A review of natural language processing techniques for opinion mining systems Information Fusion 36 10 25 doi 10 1016 j inffus 2016 10 004 Majumder Navonil Poria Soujanya Gelbukh Alexander Cambria Erik March 2017 Deep Learning Based Document Modeling for Personality Detection from Text IEEE Intelligent Systems 32 2 74 79 doi 10 1109 MIS 2017 23 Mahendhiran P D Kannimuthu S May 2018 Deep Learning Techniques for Polarity Classification in Multimodal Sentiment Analysis International Journal of Information Technology amp Decision Making 17 3 883 910 doi 10 1142 S0219622018500128 Yu Hongliang Gui Liangke Madaio Michael Ogan Amy Cassell Justine Morency Louis Philippe 23 zhovtnya 2017 Temporally Selective Attention Model for Social and Affective State Recognition in Multimedia Content MM 17 ACM s 1743 1751 doi 10 1145 3123266 3123413 ISBN 9781450349062 Cambria Erik Hussain Amir 2015 Sentic Computing A Common Sense Based Framework for Concept Level Sentiment Analysis Springer Publishing Company Incorporated ISBN 978 3319236537 Araujo Matheus Goncalves Pollyanna Cha Meeyoung Benevenuto Fabricio 7 kvitnya 2014 iFeel a system that compares and combines sentiment analysis methods WWW 14 Companion ACM s 75 78 doi 10 1145 2567948 2577013 ISBN 9781450327459 Paolo Petta red 2011 Emotion oriented systems the humaine handbook Berlin Springer ISBN 978 3 642 15184 2 Douglas Cowie Ellen Campbell Nick Cowie Roddy Roach Peter 1 kvitnya 2003 Emotional speech towards a new generation of databases Speech Communication 40 1 2 33 60 CiteSeerX 10 1 1 128 3991 doi 10 1016 S0167 6393 02 00070 5 ISSN 0167 6393 McKeown G Valstar M Cowie R Pantic M Schroder M January 2012 The SEMAINE Database Annotated Multimodal Records of Emotionally Colored Conversations between a Person and a Limited Agent IEEE Transactions on Affective Computing 3 1 5 17 doi 10 1109 T AFFC 2011 20 Busso Carlos Bulut Murtaza Lee Chi Chun Kazemzadeh Abe Mower Emily Kim Samuel Chang Jeannette N Lee Sungbok Narayanan Shrikanth S 5 listopada 2008 IEMOCAP interactive emotional dyadic motion capture database Language Resources and Evaluation angl 42 4 335 359 doi 10 1007 s10579 008 9076 6 ISSN 1574 020X Martin O Kotsia I Macq B Pitas I 3 kvitnya 2006 The eNTERFACE 05 Audio Visual Emotion Database Icdew 06 IEEE Computer Society s 8 doi 10 1109 ICDEW 2006 145 ISBN 9780769525716 Koelstra Sander Muhl Christian Soleymani Mohammad Lee Jong Seok Yazdani Ashkan Ebrahimi Touradj Pun Thierry Nijholt Anton Patras Ioannis January 2012 DEAP A Database for Emotion Analysis Using Physiological Signals IEEE Transactions on Affective Computing 3 1 18 31 CiteSeerX 10 1 1 593 8470 doi 10 1109 T AFFC 2011 15 ISSN 1949 3045 Katsigiannis Stamos Ramzan Naeem January 2018 PDF IEEE Journal of Biomedical and Health Informatics 22 1 98 107 doi 10 1109 JBHI 2017 2688239 ISSN 2168 2194 PMID 28368836 Arhiv originalu PDF za 1 listopada 2022 Procitovano 24 travnya 2022 Poria Soujanya Hazarika Devamanyu Majumder Navonil Naik Gautam Cambria Erik Mihalcea Rada 2019 MELD A Multimodal Multi Party Dataset for Emotion Recognition in Conversations Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics Stroudsburg PA USA Association for Computational Linguistics 527 536 arXiv 1810 02508 doi 10 18653 v1 p19 1050 Poria S Majumder N Mihalcea R amp Hovy E 2019 Emotion recognition in conversation Research challenges datasets and recent advances IEEE Access 7 100943 100953 Stappen Lukas Schuller Bjorn Lefter Iulia Cambria Erik Kompatsiaris Ioannis 2020 Summary of MuSe 2020 Multimodal Sentiment Analysis Emotion target Engagement and Trustworthiness Detection in Real life Media Proceedings of the 28th ACM International Conference on Multimedia Seattle PA USA Association for Computing Machinery 4769 4770 arXiv 2004 14858 doi 10 1145 3394171 3421901 Ho Vong 2020 Emotion Recognition for Vietnamese Social Media Text 16th International Conference of the Pacific Association for Computational Linguistics PACLING 2019 Communications in Computer and Information Science 1215 319 333 arXiv 1911 09339 doi 10 1007 978 981 15 6168 9 27 ISBN 978 981 15 6167 2 Arnau Gonzalez Pablo Katsigiannis Stamos Arevalillo Herraez Miguel Ramzan Naeem February 2021 BED A new dataset for EEG based biometrics IEEE Internet of Things Journal Early Access 1 doi 10 1109 JIOT 2021 3061727 ISSN 2327 4662 Affectiva Bushwick Sophie This Video Watches You Back Scientific American angl Procitovano 27 sichnya 2020 DeMuth Jr Chris 8 sichnya 2016 Apple Reads Your Mind M amp A Daily Seeking Alpha Procitovano 9 sichnya 2016 nViso ch Arhiv originalu za 28 serpnya 2018 Procitovano 24 travnya 2022 Visage Technologies Feeling sad angry Your future car will know Varagur Krithika 22 bereznya 2016 Cars May Soon Warn Drivers Before They Nod Off Huffington Post Shivhare S N amp Khethawat S 2012 Emotion detection from text arXiv preprint arXiv 1205 4944 Ezhilarasi R amp Minu R I 2012 Automatic emotion recognition and classification Procedia Engineering 38 21 26 Krcadinac U Pasquier P Jovanovic J amp Devedzic V 2013 Synesketch An open source library for sentence based emotion recognition IEEE Transactions on Affective Computing 4 3 312 325 Schmitt M Ringeval F amp Schuller B W 2016 September In Interspeech pp 495 499 Dhall A Goecke R Lucey S amp Gedeon T 2012 Collecting large richly annotated facial expression databases from movies IEEE multimedia 3 34 41