Utilize este identificador para referenciar este registo: http://hdl.handle.net/10071/13798
Registo completo
Campo DCValorIdioma
dc.contributor.advisorDias, Miguel Sales-
dc.contributor.authorSilva, Pedro Coelho Grácio da-
dc.date.accessioned2017-06-29T12:53:24Z-
dc.date.available2017-06-29T12:53:24Z-
dc.date.issued2015-12-03-
dc.date.submitted2015-10-
dc.identifier.citationSILVA, Pedro Coelho Grácio da - Multimodal emotion recognition [Em linha]. Lisboa: ISCTE-IUL, 2015. Dissertação de mestrado. [Consult. Dia Mês Ano] Disponível em www:<http://hdl.handle.net/10071/13798>.pt-PT
dc.identifier.urihttp://hdl.handle.net/10071/13798-
dc.description.abstractReading emotions from facial expression and speech is a milestone in Human-Computer Interaction. Recent sensing technologies, namely the Microsoft Kinect Sensor, provide basic input modalities data, such as RGB imaging, depth imaging and speech, that can be used in Emotion Recognition. Moreover Kinect can track a face in real time and present the face fiducial points, as well as 6 basic Action Units (AUs). In this work we explore this information by gathering a new and exclusive dataset. This is a new opportunity for the academic community as well to the progress of the emotion recognition problem. The database includes RGB, depth, audio, fiducial points and AUs for 18 volunteers for 7 emotions. We then present automatic emotion classification results on this dataset by employing k-Nearest Neighbor, Support Vector Machines and Neural Networks classifiers, with unimodal and multimodal approaches. Our conclusions show that multimodal approaches can attain better results.por
dc.description.abstractLer e reconhecer emoções de expressões faciais e verbais é um marco na Interacção Humana com um Computador. As recentes tecnologias de deteção, nomeadamente o sensor Microsoft Kinect, recolhem dados de modalidades básicas como imagens RGB, de informaçãode profundidade e defala que podem ser usados em reconhecimento de emoções. Mais ainda, o sensor Kinect consegue reconhecer e seguir uma cara em tempo real e apresentar os pontos fiduciais, assim como as 6 AUs – Action Units básicas. Neste trabalho exploramos esta informação através da compilação de um dataset único e exclusivo que representa uma oportunidade para a comunidade académica e para o progresso do problema do reconhecimento de emoções. Este dataset inclui dados RGB, de profundidade, de fala, pontos fiduciais e AUs, para 18 voluntários e 7 emoções. Apresentamos resultados com a classificação automática de emoções com este dataset, usando classificadores k-vizinhos próximos, máquinas de suporte de vetoreseredes neuronais, em abordagens multimodais e unimodais. As nossas conclusões indicam que abordagens multimodais permitem obter melhores resultados.por
dc.language.isoengpor
dc.rightsopenAccesspor
dc.subjectEmotionspor
dc.subjectAutomatic recognitionpor
dc.subject3Dpor
dc.subjectCamerapor
dc.subjectMultimodalpor
dc.subjectAudiopor
dc.subjectVideopor
dc.subjectDepthpor
dc.subjectEngenharia informáticapor
dc.subjectInteração homem-máquinapor
dc.subjectEmoçãopor
dc.subject3Dpor
dc.subjectReconhecimento biométricopor
dc.subjectTecnologia audiovisualpor
dc.titleMultimodal emotion recognitionpor
dc.typemasterThesispor
dc.peerreviewedyespor
dc.identifier.tid201647273por
dc.subject.fosDomínio/Área Científica::Engenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e Informáticapor
thesis.degree.nameMestrado em Engenharia de Telecomunicações e Informáticapor
Aparece nas coleções:T&D-DM - Dissertações de mestrado

Ficheiros deste registo:
Ficheiro Descrição TamanhoFormato 
[FINAL]Multimodal Emotion Recognition_to_ISCTE_pedro.pdf2,53 MBAdobe PDFVer/Abrir


FacebookTwitterDeliciousLinkedInDiggGoogle BookmarksMySpaceOrkut
Formato BibTex mendeley Endnote Logotipo do DeGóis Logotipo do Orcid 

Todos os registos no repositório estão protegidos por leis de copyright, com todos os direitos reservados.