Afficher la notice abrégée

dc.contributor.advisorMoldovan, Andreies
dc.contributor.advisorMuñoz Pérez, María Teresaes
dc.contributor.authorMuñoz Pérez, María Teresa
dc.contributor.editorUniversidad de Valladolid. Facultad de Filosofía y Letras es
dc.date.accessioned2025-11-21T10:18:25Z
dc.date.available2025-11-21T10:18:25Z
dc.date.issued2025
dc.identifier.urihttps://uvadoc.uva.es/handle/10324/79946
dc.description.abstractEn este trabajo se analizan los sistemas de inteligencia artificial para la generación de lenguaje natural basados en redes neuronales conocidos como modelos de lenguaje a gran escala desde una perspectiva epistemológica. Se revisan los riesgos inherentes a estos sistemas, que pueden conducir a la adquisición de información imprecisa, incorrecta o sesgada de manera opaca para los usuarios. Se sostiene la tesis de que, a medida que estos modelos superan ciertos umbrales de eficiencia, los errores persistentes tienden a diluirse en el conjunto del funcionamiento general, sin llegar a desaparecer por completo. Este fenómeno genera una ilusión de infalibilidad que, combinada con la opacidad inherente de sus procesos internos, puede inducir una percepción errónea de precisión y fomentar una aceptación acrítica de estos modelos como herramientas fiables para la transmisión del conocimiento. Para sustentar este planteamiento, se presentan las bases del funcionamiento de estos sistemas, seguidas de un análisis sobre las alucinaciones y los sesgos: definición, tipologías, por qué representan un riesgo y las estrategias de mitigación en desarrollo. A partir de este análisis, se propone una discusión que aborda los riesgos desde una perspectiva integral y se analiza la opacidad como un factor que amplifica su impacto.es
dc.description.sponsorshipDepartamento de Filosofía (Filosofía, Lógica y Filosofía de la Ciencia, Teoría e Historia de la Educación, Filosofía Moral, Estética y Teoría de las Artes)es
dc.format.mimetypeapplication/pdfes
dc.language.isospaes
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subject.classificationInteligencia Artificiales
dc.subject.classificationLLMses
dc.subject.classificationAlucinacioneses
dc.subject.classificationSesgoses
dc.subject.classificationOpacidades
dc.titleInteligencia Artificial y Riesgos Epistémicoses
dc.typeinfo:eu-repo/semantics/masterThesises
dc.description.degreeMáster Universitario en Lógica y Filosofía de la Cienciaes
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.subject.unesco72 Filosofíaes


Fichier(s) constituant ce document

Thumbnail

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée