• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Ricerca

    Tutto UVaDOCArchiviData di pubblicazioneAutoriSoggettiTitoli

    My Account

    Login

    Estadísticas

    Ver Estadísticas de uso

    Compartir

    Mostra Item 
    •   UVaDOC Home
    • PRODUZIONE SCIENTIFICA
    • Escuela de Doctorado (ESDUVa)
    • Tesis doctorales UVa
    • Mostra Item
    •   UVaDOC Home
    • PRODUZIONE SCIENTIFICA
    • Escuela de Doctorado (ESDUVa)
    • Tesis doctorales UVa
    • Mostra Item
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/71450

    Título
    Responsible decision-making in trustworthy human-AI interaction: linking counterfactual explanations and regret
    Autor
    Martín Peña, Rosa Esther
    Director o Tutor
    Castro Rodríguez, Sixto JoséAutoridad UVA
    Liao, Beishui
    Benzmüller, Christoph Ewald
    Editor
    Universidad de Valladolid. Escuela de DoctoradoAutoridad UVA
    Año del Documento
    2024
    Titulación
    Doctorado en Filosofía
    Abstract
    This dissertation addresses the issue of responsible decision-making in trustworthy human-AI interaction from an interdisciplinary perspective. This approach is motivated by the growing use of AI systems with increasingly autonomous decision-making capabilities. However, designing and implementing these AI systems with cognitive and affective human-like abilities to replace them in their decisions is not exempt from limitations and challenges as well as new opportunities. In this way, to understand more about the risks and possibilities that this emerging scenario brings us, this dissertation presents, describes, and analyzes the fields of machine ethics and explainable AI, along with other advances in the areas of neuroscience and affective computing for their studies on the impact of emotions in human behavior. Thus, all these disciplines comprise the design proposal of the multi-ethical interdisciplinary framework for responsible AI. Thus, the proposed framework is divided into three levels in which human and artificial agents cooperate within goal-driven XAI. The aim is to create a theory of mind about the normative value of regret to prove whether the somatic marker hypothesis driven by the counterfactual component of the anticipated regret could serve as a recommendation norm for preventing unspecified errors before they occur. Chapter 1 introduces the dissertation topic and justifies the motivations for conducting it. Chapter 2 provides an overview of the state of AI ethics. Chapter 3 discusses the research methodology employed. Chapter 4 discusses and presents the opportunities and constraints of the field of machine ethics for de-signing responsible AI. Chapter 5 deals with different approaches to Explainable AI and the phenomenon of biases in algorithmic systems and human behavior. Chapter 6 focuses on the current debate on theories about emotions and the possibilities and risks of using emotional data in affective computing. Chapter 7 concerns the ethical power of the human imagination in creating counterfactual scenarios by repressing those associated with negative emotional charges, such as regret. The last chapter of this research, Chapter 8, closes this dissertation by presenting the multi-ethical interdisciplinary framework for responsible AI in trustworthy human-AI interaction. The conclusions are in chapter 9.
     
    Esta tesis aborda la cuestión de la toma de decisiones responsable en una interacción de confianza entre el ser humano y la IA desde una perspectiva interdisciplinar. Este enfoque está motivado por el creciente uso de sistemas de IA con capacidades de toma de decisiones cada vez más autónomas. Sin embargo, diseñar e implementar estos sistemas de IA con capacidades cognitivas y afectivas similares a las humanas para sustituirlas en sus decisiones no está exento de limitaciones y retos, así como de nuevas oportunidades. De este modo, para comprender mejor los riesgos y posibilidades que nos depara este escenario emergente, esta tesis presenta, describe y analiza los campos de la ética de las máquinas y la IA explicable, junto con otros avances en las áreas de la neurociencia y la computación afectiva por sus estudios sobre el impacto de las emociones en el comportamiento humano. Así todas estas disciplinas conforman la propuesta de diseño del marco interdisciplinar multiético para una IA responsable. Así, el marco propuesto se divide en tres niveles en los que los agentes humanos y artificiales cooperan dentro de la XAI orientada a objetivos. El objetivo es crear una teoría de la mente sobre el valor normativo del arrepentimiento para probar si la hipótesis del marcador somático impulsada por el componente contrafactual del arrepentimiento anticipado podría servir como norma de recomendación para prevenir errores no especificados antes de que ocurran. El capítulo 1 presenta el tema de la tesis y justifica las motivaciones para llevarla a cabo. El capítulo 2 ofrece una visión general del estado de la ética de la IA. En el capítulo 3 se analiza la metodología de investigación empleada. El capítulo 4 analiza y presenta las oportunidades y limitaciones del campo de la ética de las máquinas para diseñar una IA responsable. El capítulo 5 aborda los distintos enfoques de la IA explicable y el fenómeno de los sesgos en los sistemas algorítmicos y el comportamiento humano. El capítulo 6 se centra en el debate actual sobre las teorías acerca de las emociones y las posibilidades y riesgos de utilizar datos emocionales en la informática afectiva. El capítulo 7 se refiere al poder ético de la imaginación humana para crear escenarios contrafactuales reprimiendo los asociados a cargas emocionales negativas, como el arrepentimiento. El último capítulo de esta investigación, el capítulo 8, cierra esta disertación presentando el marco interdisciplinar multiético para una IA responsable en la interacción humano-IA digna de confianza. Las conclusiones figuran en el capítulo 9.
    Materias (normalizadas)
    Inteligencia artificial
    Materias Unesco
    72 Filosofía
    Palabras Clave
    Responsible AI
    IA responsable
    Departamento
    Escuela de Doctorado
    DOI
    10.35376/10324/71450
    Idioma
    eng
    URI
    https://uvadoc.uva.es/handle/10324/71450
    Tipo de versión
    info:eu-repo/semantics/publishedVersion
    Derechos
    openAccess
    Aparece en las colecciones
    • Tesis doctorales UVa [2414]
    Mostra tutti i dati dell'item
    Files in questo item
    Nombre:
    TESIS-2378-241114.pdf
    Tamaño:
    5.087Mb
    Formato:
    Adobe PDF
    Thumbnail
    Mostra/Apri
    Attribution-NonCommercial-NoDerivatives 4.0 InternationalLa licencia del ítem se describe como Attribution-NonCommercial-NoDerivatives 4.0 International

    Universidad de Valladolid

    Powered by MIT's. DSpace software, Version 5.10