Utilize este identificador para referenciar este registo: http://hdl.handle.net/10071/22781
Autoria: Petisca, Sofia Miguel Martins Nunes
Orientação: Esteves, Francisco
Paiva, Ana
Data: 7-Jun-2021
Título próprio: Using social robots to encourage honest behaviours
Referência bibliográfica: Petisca, S. M. M. N. (2020). Using social robots to encourage honest behaviours [Tese de doutoramento, Iscte - Instituto Universitário de Lisboa]. Repositório do Iscte. http://hdl.handle.net/10071/22781
ISBN: 978-989-781-524-9
Palavras-chave: Dishonesty
Human-robot interaction
Theory of self concept maintenance
Desonestidade
Comportamento não-ético
Batota
Interações entre humanos e robôs
Resumo: This thesis presents a series of studies to understand if robots can promote more honest behaviours from people, when they are tempted to behave dishonestly. In Study 1 we see that a robot just presenting gaze behaviour inhibits cheating, but a robot doing small talk, does not. In Study 2 we see that participants cheated to an equal extent when doing the task in their homes alone or with a video of a robot looking at them. In Study 3 we find that including situation awareness in a robot (showing awareness of the participant behaviour), decreased cheating across the game. In Study 4 we see that priming participants for their relational self-concept does not enhance the situation awareness effect on cheating. In study 5 and 6 we explore participants perceptions, and we see that people consider it wrong to be dishonest towards a robot. However, they would feel low levels of guilt and justify it by the robots’ lack of capabilities, presence, and a human tendency for dishonesty. When prompted to evaluate what other’s/or their own attitudes would be regarding dishonesty, manipulating the caring behaviour of a robot, it shows no effect and people in general think others would be dishonest and hold themselves in a more neutral stance. Interestingly, people that show more negative attitudes towards robots tend to report that others will act more dishonestly as well as themselves. These are important considerations for the development of robots, in the future, to work alongside with humans.
Esta tese apresenta uma série de estudos para perceber se os robôs podem promover comportamentos honestos nas pessoas. No Estudo 1 observa-se que um robô que apenas olha para o utilizador, inibe batota, mas um robô que apresenta algum comportamento verbal não tem o mesmo efeito. No estudo 2, vemos que os participantes fazem batota tanto sozinhos, nas suas casas, como na presença de um vídeo de um robô que simplesmente olha. No Estudo 3 incluindo no robô a capacidade de perceber as jogadas dos participantes e reagir a elas, diminui a batota ao longo do jogo. No Estudo 4 a inclusão de um priming para o auto-conceito relacional não aumenta o efeito encontrado no Estudo 3. Finalmente, no Estudo 5 e 6 exploram-se as perceções das pessoas, e verifica-se que consideram errado ser-se desonesto com um robô, mas reportando baixos níveis de culpa. Justificam a desonestidade por: falta de capacidades no robô, falta de presença e a existência de uma tendência humana para a desonestidade. Quando avaliadas as atitudes que os outros teriam ou eles próprios em ser-se desonesto, manipulando o carácter afetivo do robô, não existem efeitos e as pessoas no geral reportam que os outros serão desonestos mantendo-se a si mesmas numa posição neutra. Curiosamente, os que demonstram atitudes mais negativas face a interagirem com robôs, reportam mais desonestidade. Estas são considerações importantes para o desenvolvimento de robôs para colaborarem com humanos no futuro.
Designação do grau: Doutoramento em Psicologia
Arbitragem científica: yes
Acesso: Acesso Aberto
Aparece nas coleções:T&D-TD - Teses de doutoramento

Ficheiros deste registo:
Ficheiro Descrição TamanhoFormato 
phd_sofia_nunes_petisca.pdf10,76 MBAdobe PDFVer/Abrir


FacebookTwitterDeliciousLinkedInDiggGoogle BookmarksMySpaceOrkut
Formato BibTex mendeley Endnote Logotipo do DeGóis Logotipo do Orcid 

Este registo está protegido por Licença Creative Commons Creative Commons