Utilize este identificador para referenciar este registo: http://hdl.handle.net/10071/23399
Registo completo
Campo DCValorIdioma
dc.contributor.advisorFerreira, Patrícia Paula Lourenço Arriaga-
dc.contributor.advisorPiçarra, Nuno José Guerreiro-
dc.contributor.authorSoares, Antonio Alvaro-
dc.date.accessioned2021-10-26T13:54:55Z-
dc.date.available2021-10-26T13:54:55Z-
dc.date.issued2021-10-15-
dc.date.submitted2021-09-
dc.identifier.citationSoares, A. A. (2021). Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais [Dissertação de mestrado, Iscte - Instituto Universitário de Lisboa]. Repositório do Iscte. http://hdl.handle.net/10071/23399pt-PT
dc.identifier.urihttp://hdl.handle.net/10071/23399-
dc.description.abstractA Inteligência Artificial e os robôs sociais nos cuidados de saúde trazem um novo campo de investigação interdisciplinar. Neste estudo examinámos os julgamentos morais das pessoas acerca da reação de uma agente de saúde perante uma paciente que recusa uma medicação. Para o efeito, desenvolvemos um dilema moral que variou em função da agente (humana vs. robô), decisão (respeito à autonomia vs. beneficência/não-maleficência) e argumentação (benefício à saúde vs. prejuízo à saúde). Avaliámos a aceitabilidade moral da decisão, a responsabilidade moral da agente e os seus traços de amabilidade, competência e confiabilidade, atribuídos por 524 participantes (350 mulheres; 316 brasileiros, 179 portugueses; 18-77 anos), aleatorizados por 8 vinhetas, num desenho inter-sujeitos aplicado através de um inquérito online. Os julgamentos de aceitabilidade moral foram mais elevados na decisão do respeito à autonomia da paciente, evidência similar para as duas agentes. A responsabilização moral e a perceção de amabilidade foram superiores para a humana em relação à robô. Não houve diferenças na perceção de competência e confiabilidade das agentes. As agentes que respeitaram a autonomia foram percebidas como muito mais amáveis, com uma dimensão de efeito superior aos outros atributos, mas menos competentes e confiáveis que as agentes que decidiram pela beneficência/não-maleficência. As agentes que priorizaram a beneficência/não-maleficência e argumentaram acerca do benefício à saúde foram consideradas mais confiáveis do que nas demais interações entre a decisão e a argumentação. Esta investigação contribui para a compreensão dos julgamentos morais no contexto dos cuidados de saúde mediados por agentes tanto humanos como artificiais.por
dc.description.abstractArtificial Intelligence and social robots in healthcare bring a new interdisciplinary field of research. In this study, we have examined people's moral judgments about a healthcare agent's reaction to a patient who refuses a medication. For this purpose, we have developed a moral dilemma that was varied according to the type of healthcare agent (human vs. robot), decision (respect for autonomy vs. beneficence/non-maleficence), and argumentation (health benefit vs. health harm). We have assessed the decision’s moral acceptability, the agent’s moral responsibility, and her traits of warmth, competence, and trustworthiness assigned by 524 participants (350 women; 316 Brazilian, 179 Portuguese; 18-77 years old) randomized into 8 vignettes, in an inter-subject design that was applied using an online survey. Moral acceptability judgments were higher in the decision to respect patient autonomy, similar evidence for both agents. Moral responsibility and perceived warmth were higher for the human agent than for the robot, and there were no differences in the agents' perceived competence and trustworthiness. Agents who have respected autonomy were perceived as much warmer, with a higher effect dimension than the other attributes, but less competent and trustworthy than agents who have decided for beneficence/non-maleficence. Agents who have prioritized beneficence/non-maleficence and argued about the health benefit were perceived as more trustworthy than in the other interactions between decision and argumentation. This research contributes to the understanding of moral judgments in the context of healthcare mediated by both humans and artificial agents.por
dc.language.isoporpor
dc.rightsopenAccesspor
dc.subjectPsicologia moral da robóticapor
dc.subjectJulgamentos moraispor
dc.subjectCuidados de saúde -- Health carepor
dc.subjectRobôs de enfermagempor
dc.subjectAmabilidade & competênciapor
dc.subjectMoral psychology of roboticspor
dc.subjectMoral judgmentspor
dc.subjectNursing robotspor
dc.subjectWarmth & competencepor
dc.titleÉtica 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociaispor
dc.typemasterThesispor
dc.peerreviewedyespor
dc.identifier.tid202777308por
dc.subject.fosDomínio/Área Científica::Ciências Sociais::Psicologiapor
thesis.degree.nameMestrado em Ciências em Emoçõespor
dc.subject.apa2300-
dc.subject.apa2340-
dc.subject.apa2360-
dc.subject.apa3360-
dc.subject.apa3365-
dc.subject.apa3370-
dc.subject.apa3375-
dc.subject.apa3377-
dc.subject.apa3400-
dc.subject.apa3430-
dc.subject.apa3450-
dc.subject.apa4100-
dc.subject.apa4120-
dc.subject.apa4140-
dc.subject.apa12300 Human experimental psychology-
dc.subject.apa13300 Health, mental health treatment and prevention-
dc.subject.apa13400 Health and mental health personnel issues-
dc.subject.apa14100 Cognitive psychology and intelligent systems-
Aparece nas coleções:T&D-DM - Dissertações de mestrado

Ficheiros deste registo:
Ficheiro Descrição TamanhoFormato 
master_antonio_alvaro_soares.pdf3,21 MBAdobe PDFVer/Abrir


FacebookTwitterDeliciousLinkedInDiggGoogle BookmarksMySpaceOrkut
Formato BibTex mendeley Endnote Logotipo do DeGóis Logotipo do Orcid 

Todos os registos no repositório estão protegidos por leis de copyright, com todos os direitos reservados.