• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Navegar

    Todo o repositórioComunidadesPor data do documentoAutoresAssuntosTítulos

    Minha conta

    Entrar

    Estatística

    Ver as estatísticas de uso

    Compartir

    Ver item 
    •   Página inicial
    • TRABALHO DE CONCLUSÃO DE ESTUDO
    • Trabajos Fin de Máster UVa
    • Ver item
    •   Página inicial
    • TRABALHO DE CONCLUSÃO DE ESTUDO
    • Trabajos Fin de Máster UVa
    • Ver item
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/71509

    Título
    Implementación de técnicas de RAG (Retrieval Augmented Generation) sobre LLM (Large Language Models) para la extracción y generación de documentos en las entidades públicas
    Autor
    Collado Alonso, Miguel Ángel
    Director o Tutor
    Escudero Mancebo, DavidAutoridad UVA
    Editor
    Universidad de Valladolid. Escuela de Ingeniería Informática de ValladolidAutoridad UVA
    Año del Documento
    2024
    Titulación
    Máster en Ingeniería Informática
    Resumo
    Un viejo desafío en el campo de la inteligencia artificial es “enseñar” a las máquinas a entender cómo hablan y escriben los humanos, conocido como procesamiento de lenguaje natural (PLN). Sin embargo, desde hace poco más de dos años, estamos asistiendo a la caída de este antiguo bastión con la llegada de los modelos grandes del lenguaje (LLM) y los interfaces conversacionales. Los LLM son modelos de inteligencia artificial que se entrenan utilizando algoritmos de Deep Learning sobre conjuntos enormes de información generada por humanos. De esta manera, una vez entrenados, han aprendido la forma en la que los humanos utilizamos la palabra hablada y escrita, así que son capaces de ofrecernos respuestas generales y con un patrón muy parecido a nuestra forma de contestar a las preguntas que les hacemos. Sin embargo, si buscamos respuestas precisas en un contexto determinado, los LLM por sí solos no proporcionarán respuestas concretas o habrá una alta probabilidad de que se inventen completamente la respuesta. En este trabajo, se explica y desarrolla una de las técnicas clave que hace posible que estos sistemas nos respondan con relativa precisión a las preguntas que les hacemos, esta tecnología se denomina Generación Aumentada por Recuperación o RAG, del inglés Retrieval Augmented Generation. Para ello se comparan diversos modelos LLM, se configuran un conjunto de herramientas para lograr inferir los modelos, y se desarrolla un código fuente para, finalmente, lograr realizar una interfaz web, a modo de chatbot, que permita interactuar con el usuario y realizar RAG sobre un documento elegido por el mismo.
     
    A long-standing challenge in the field of artificial intelligence is “teaching” machines to understand how humans speak and write, known as natural language processing (NLP). However, for just over two years, we have been witnessing the fall of this old bastion with the arrival of large language models (LLM) and conversational interfaces. LLMs are artificial intelligence models that are trained using Deep Learning algorithms on huge sets of humangenerated data. In this way, once trained, they have learned the way in which humans use the spoken and written word, so they are able to offer us general answers with a pattern very similar to our way of answering the questions we ask them. However, if we are looking for precise answers in a given context, LLMs alone will not provide concrete answers or there will be a high probability that they will completely make up the answer. In this work, one of the key techniques that makes it possible for these systems to respond with relative precision to the questions we ask them is explained and developed. This technology is called Retrieval Augmented Generation or RAG. To do this, various LLM models are compared, a set of tools are configured to infer the models, and a source code is developed to, finally, create a web interface, like a chatbot, that allows interacting with the user and performing RAG on a document chosen by him.
    Palabras Clave
    Inteligencia Artificial (IA)
    Procesamiento del Lenguaje Natural (PLN)
    Modelo Grande del Lenguaje (LLM)
    Generación Aumentada por Recuperación (RAG)
    Departamento
    Departamento de Informática (Arquitectura y Tecnología de Computadores, Ciencias de la Computación e Inteligencia Artificial, Lenguajes y Sistemas Informáticos)
    Idioma
    spa
    URI
    https://uvadoc.uva.es/handle/10324/71509
    Derechos
    openAccess
    Aparece en las colecciones
    • Trabajos Fin de Máster UVa [7002]
    Mostrar registro completo
    Arquivos deste item
    Nombre:
    TFM-G1993.pdf
    Tamaño:
    3.113Mb
    Formato:
    Adobe PDF
    Thumbnail
    Visualizar/Abrir
    Attribution-NonCommercial-NoDerivatives 4.0 InternacionalExceto quando indicado o contrário, a licença deste item é descrito como Attribution-NonCommercial-NoDerivatives 4.0 Internacional

    Universidad de Valladolid

    Powered by MIT's. DSpace software, Version 5.10