Utilize este identificador para referenciar este registo: http://hdl.handle.net/10071/35749
Registo completo
Campo DCValorIdioma
dc.contributor.advisorSantos, Margarida Rodrigues-
dc.contributor.authorSousa, Filipe de Lancastre e Távora Salazar de-
dc.date.accessioned2025-12-15T12:19:30Z-
dc.date.issued2025-10-30-
dc.date.submitted2025-09-
dc.identifier.citationSousa, F. de L. e T. S. de (2025). The role of explainable AI (XAI) in decision-making: An Interpretive Structural Modeling (ISM) analysis [Dissertação de mestrado, Iscte - Instituto Universitário de Lisboa]. Repositório Iscte. http://hdl.handle.net/10071/35749por
dc.identifier.urihttp://hdl.handle.net/10071/35749-
dc.description.abstractIn recent years, Artificial Intelligence (AI) has transformed from a specialized field of study to a game-changing technology with numerous applications in fields including human resources, healthcare, defense, and security. Concerns regarding trust, accountability, and ethical alignment have been raised by the fact that contemporary AI models, particularly machine learning and deep learning systems, are becoming less interpretable due to their complexity. One important solution to these issues is Explainable AI (XAI), which seeks to make AI decision-making clear, intelligible, and consistent with human values. Despite its significance, the literature has flaws, such as excessive focus in certain sectors, failure to adequately incorporate morality into real-world applications, and a lack of investigation into user-centered, real-time explainability. By using constructivist methodologies, like Cognitive Mapping (CM) and Interpretive Structural Modeling (ISM), to organize and examine the factors that influence XAI in decision-making situations, this dissertation fills these gaps. While CM makes it possible to visualize stakeholder perspectives and emphasizes the causal linkages, ISM hierarchically arranges these determinants, highlighting important drivers and dependencies. This study bridges the gap between theoretical concepts and real-world applications by combining these methods to offer a comprehensive framework for comprehending XAI's function in decision-making. Organizations may deploy transparent and reliable AI systems more easily thanks to the model's actionable insights, which also boost stakeholder confidence and encourage morally sound decision-making.por
dc.description.abstractNos últimos anos, a Inteligência Artificial (IA) transformou-se de um campo de estudo especializado para uma tecnologia revolucionária, com inúmeras aplicações em áreas como os recursos humanos, a saúde, a defesa e a segurança. No entanto, o aumento da complexidade dos modelos de IA contemporâneos, em especial os sistemas de aprendizagem automática (machine learning) e aprendizagem profunda (deep learning), tem tornado estes sistemas cada vez menos interpretáveis, levantando preocupações quanto à confiança, responsabilidade e alinhamento ético. Uma solução importante para estes desafios é a Explainable AI (XAI), que procura tornar o processo de tomada de decisão da IA claro, compreensível e coerente com os valores humanos. Apesar da sua relevância, a literatura apresenta lacunas, como o foco excessivo em determinados setores, a falta de integração adequada da moralidade nas aplicações práticas e a escassez de estudos sobre explicabilidade em tempo real e centrada no utilizador. Esta dissertação procura colmatar essas lacunas através do recurso a metodologias construtivistas, como o Mapeamento Cognitivo (MC) e o Interpretive Structural Modeling (ISM), para organizar e analisar os fatores que influenciam a XAI em contextos de tomada de decisão. O MC permite visualizar as perspetivas dos stakeholders e destacar as ligações causais, enquanto o ISM organiza hierarquicamente esses fatores, evidenciando os principais drivers e dependências. Ao combinar estas abordagens, este estudo estabelece uma ponte entre os conceitos teóricos e as aplicações práticas, oferecendo um quadro abrangente para compreender o papel da XAI na tomada de decisão. O modelo resultante fornece perceções práticas que facilitam a implementação de sistemas de IA transparentes e fiáveis, reforçando a confiança dos stakeholders e promovendo decisões eticamente responsáveis.por
dc.language.isoengpor
dc.rightsrestrictedAccesspor
dc.subjectExplainable AI (XAI)por
dc.subjectMapa cognitivo -- Cognitive mappor
dc.subjectInterpretive Structural Modeling (ISM)por
dc.subjectDecision-making supportpor
dc.subjectTomada de decisão -- Decision makingpor
dc.titleThe role of explainable AI (XAI) in decision-making: An Interpretive Structural Modeling (ISM) analysispor
dc.typemasterThesispor
dc.peerreviewedyespor
dc.identifier.tid204029813por
dc.subject.fosDomínio/Área Científica::Ciências Sociais::Economia e Gestãopor
thesis.degree.nameMestrado em Gestãopor
dc.date.embargo2028-10-29-
iscte.subject.odsEducação de qualidadepor
iscte.subject.odsTrabalho digno e crescimento económicopor
dc.subject.jelD81por
dc.subject.jelM20por
dc.subject.jel1D Microeconomicspor
dc.subject.jel1M Business administration and business economics - Marketing - Accounting - Personnel economicspor
thesis.degree.departmentDepartamento de Marketing, Operações e Gestão Geralpor
Aparece nas coleções:T&D-DM - Dissertações de mestrado

Ficheiros deste registo:
Ficheiro Descrição TamanhoFormato 
master_filipe_salazar_sousa.pdf
  Restricted Access
2,93 MBAdobe PDFVer/Abrir Request a copy


FacebookTwitterDeliciousLinkedInDiggGoogle BookmarksMySpaceOrkut
Formato BibTex mendeley Endnote Logotipo do DeGóis Logotipo do Orcid 

Todos os registos no repositório estão protegidos por leis de copyright, com todos os direitos reservados.