Utilize este identificador para referenciar este registo: http://hdl.handle.net/10071/23256
Autoria: Vieira, D.
Freitas, J. D.
Acartürk, C.
Teixeira, A.
Sousa, F
Candeias, S.
Dias, J.
Editor: Yeliz Yesilada
Data: 1-Jan-2015
Título próprio: “Read That Article”: Exploring synergies between gaze and speech interaction
Paginação: 341 - 342
ISBN: 9781450334006
DOI (Digital Object Identifier): 10.1145/2700648.2811369
Palavras-chave: Multimodal
Gaze
Speech
Fusion
Resumo: Gaze information has the potential to benefit Human-Computer Interaction (HCI) tasks, particularly when combined with speech. Gaze can improve our understanding of the user intention, as a secondary input modality, or it can be used as the main input modality by users with some level of permanent or temporary impairments. In this paper we describe a multimodal HCI system prototype which supports speech, gaze and the combination of both. The system has been developed for Active Assisted Living scenarios.
Arbitragem científica: yes
Acesso: Acesso Aberto
Aparece nas coleções:ISTAR-CRI - Comunicações a conferências internacionais

Ficheiros deste registo:
Ficheiro Descrição TamanhoFormato 
conferenceObject_42814.pdfVersão Aceite955,54 kBAdobe PDFVer/Abrir


FacebookTwitterDeliciousLinkedInDiggGoogle BookmarksMySpaceOrkut
Formato BibTex mendeley Endnote Logotipo do DeGóis Logotipo do Orcid 

Todos os registos no repositório estão protegidos por leis de copyright, com todos os direitos reservados.