• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Listar

    Todo UVaDOCComunidadesPor fecha de publicaciónAutoresMateriasTítulos

    Mi cuenta

    Acceder

    Estadísticas

    Ver Estadísticas de uso

    Compartir

    Ver ítem 
    •   UVaDOC Principal
    • TRABAJOS FIN DE ESTUDIOS
    • Trabajos Fin de Máster UVa
    • Ver ítem
    •   UVaDOC Principal
    • TRABAJOS FIN DE ESTUDIOS
    • Trabajos Fin de Máster UVa
    • Ver ítem
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/79946

    Título
    Inteligencia Artificial y Riesgos Epistémicos
    Autor
    Muñoz Pérez, María Teresa
    Director o Tutor
    Moldovan, Andrei
    Muñoz Pérez, María Teresa
    Editor
    Universidad de Valladolid. Facultad de Filosofía y LetrasAutoridad UVA
    Año del Documento
    2025
    Titulación
    Máster Universitario en Lógica y Filosofía de la Ciencia
    Resumen
    En este trabajo se analizan los sistemas de inteligencia artificial para la generación de lenguaje natural basados en redes neuronales conocidos como modelos de lenguaje a gran escala desde una perspectiva epistemológica. Se revisan los riesgos inherentes a estos sistemas, que pueden conducir a la adquisición de información imprecisa, incorrecta o sesgada de manera opaca para los usuarios. Se sostiene la tesis de que, a medida que estos modelos superan ciertos umbrales de eficiencia, los errores persistentes tienden a diluirse en el conjunto del funcionamiento general, sin llegar a desaparecer por completo. Este fenómeno genera una ilusión de infalibilidad que, combinada con la opacidad inherente de sus procesos internos, puede inducir una percepción errónea de precisión y fomentar una aceptación acrítica de estos modelos como herramientas fiables para la transmisión del conocimiento. Para sustentar este planteamiento, se presentan las bases del funcionamiento de estos sistemas, seguidas de un análisis sobre las alucinaciones y los sesgos: definición, tipologías, por qué representan un riesgo y las estrategias de mitigación en desarrollo. A partir de este análisis, se propone una discusión que aborda los riesgos desde una perspectiva integral y se analiza la opacidad como un factor que amplifica su impacto.
    Materias Unesco
    72 Filosofía
    Palabras Clave
    Inteligencia Artificial
    LLMs
    Alucinaciones
    Sesgos
    Opacidad
    Departamento
    Departamento de Filosofía (Filosofía, Lógica y Filosofía de la Ciencia, Teoría e Historia de la Educación, Filosofía Moral, Estética y Teoría de las Artes)
    Idioma
    spa
    URI
    https://uvadoc.uva.es/handle/10324/79946
    Derechos
    openAccess
    Aparece en las colecciones
    • Trabajos Fin de Máster UVa [7567]
    Mostrar el registro completo del ítem
    Ficheros en el ítem
    Nombre:
    TFM_F_2025_059.pdf
    Tamaño:
    4.452Mb
    Formato:
    Adobe PDF
    Thumbnail
    Visualizar/Abrir
    Attribution-NonCommercial-NoDerivatives 4.0 InternacionalLa licencia del ítem se describe como Attribution-NonCommercial-NoDerivatives 4.0 Internacional

    Universidad de Valladolid

    Powered by MIT's. DSpace software, Version 5.10