Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/71450
Título
Responsible decision-making in trustworthy human-AI interaction: linking counterfactual explanations and regret
Autor
Director o Tutor
Año del Documento
2024
Titulación
Doctorado en Filosofía
Resumen
This dissertation addresses the issue of responsible decision-making in trustworthy human-AI interaction from an interdisciplinary perspective. This approach is motivated by the growing use of AI systems with increasingly autonomous decision-making capabilities. However, designing and implementing these AI systems with cognitive and affective human-like abilities to replace them in their decisions is not exempt from limitations and challenges as well as new opportunities.
In this way, to understand more about the risks and possibilities that this emerging scenario brings us, this dissertation presents, describes, and analyzes the fields of machine ethics and explainable AI, along with other advances in the areas of neuroscience and affective computing for their studies on the impact of emotions in human behavior. Thus, all these disciplines comprise the design proposal of the multi-ethical interdisciplinary framework for responsible AI. Thus, the proposed framework is divided into three levels in which human and artificial agents cooperate within goal-driven XAI. The aim is to create a theory of mind about the normative value of regret to prove whether the somatic marker hypothesis driven by the counterfactual component of the anticipated regret could serve as a recommendation norm for preventing unspecified errors before they occur.
Chapter 1 introduces the dissertation topic and justifies the motivations for conducting it. Chapter 2 provides an overview of the state of AI ethics. Chapter 3 discusses the research methodology employed. Chapter 4 discusses and presents the opportunities and constraints of the field of machine ethics for de-signing responsible AI. Chapter 5 deals with different approaches to Explainable AI and the phenomenon of biases in algorithmic systems and human behavior. Chapter 6 focuses on the current debate on theories about emotions and the possibilities and risks of using emotional data in affective computing. Chapter 7 concerns the ethical power of the human imagination in creating counterfactual scenarios by repressing those associated with negative emotional charges, such as regret. The last chapter of this research, Chapter 8, closes this dissertation by presenting the multi-ethical interdisciplinary framework for responsible AI in trustworthy human-AI interaction. The conclusions are in chapter 9. Esta tesis aborda la cuestión de la toma de decisiones responsable en una interacción de confianza entre el ser humano y la IA desde una perspectiva interdisciplinar. Este enfoque está motivado por el creciente uso de sistemas de IA con capacidades de toma de decisiones cada vez más autónomas. Sin embargo, diseñar e implementar estos sistemas de IA con capacidades cognitivas y afectivas similares a las humanas para sustituirlas en sus decisiones no está exento de limitaciones y retos, así como de nuevas oportunidades.
De este modo, para comprender mejor los riesgos y posibilidades que nos depara este escenario emergente, esta tesis presenta, describe y analiza los campos de la ética de las máquinas y la IA explicable, junto con otros avances en las áreas de la neurociencia y la computación afectiva por sus estudios sobre el impacto de las emociones en el comportamiento humano. Así todas estas disciplinas conforman la propuesta de diseño del marco interdisciplinar multiético para una IA responsable. Así, el marco propuesto se divide en tres niveles en los que los agentes humanos y artificiales cooperan dentro de la XAI orientada a objetivos. El objetivo es crear una teoría de la mente sobre el valor normativo del arrepentimiento para probar si la hipótesis del marcador somático impulsada por el componente contrafactual del arrepentimiento anticipado podría servir como norma de recomendación para prevenir errores no especificados antes de que ocurran.
El capítulo 1 presenta el tema de la tesis y justifica las motivaciones para llevarla a cabo. El capítulo 2 ofrece una visión general del estado de la ética de la IA. En el capítulo 3 se analiza la metodología de investigación empleada. El capítulo 4 analiza y presenta las oportunidades y limitaciones del campo de la ética de las máquinas para diseñar una IA responsable. El capítulo 5 aborda los distintos enfoques de la IA explicable y el fenómeno de los sesgos en los sistemas algorítmicos y el comportamiento humano. El capítulo 6 se centra en el debate actual sobre las teorías acerca de las emociones y las posibilidades y riesgos de utilizar datos emocionales en la informática afectiva. El capítulo 7 se refiere al poder ético de la imaginación humana para crear escenarios contrafactuales reprimiendo los asociados a cargas emocionales negativas, como el arrepentimiento. El último capítulo de esta investigación, el capítulo 8, cierra esta disertación presentando el marco interdisciplinar multiético para una IA responsable en la interacción humano-IA digna de confianza. Las conclusiones figuran en el capítulo 9.
Materias (normalizadas)
Inteligencia artificial
Materias Unesco
72 Filosofía
Palabras Clave
Responsible AI
IA responsable
Departamento
Escuela de Doctorado
Idioma
eng
Tipo de versión
info:eu-repo/semantics/publishedVersion
Derechos
openAccess
Aparece en las colecciones
- Tesis doctorales UVa [2321]
Ficheros en el ítem
La licencia del ítem se describe como Attribution-NonCommercial-NoDerivatives 4.0 International