Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/71509
Título
Implementación de técnicas de RAG (Retrieval Augmented Generation) sobre LLM (Large Language Models) para la extracción y generación de documentos en las entidades públicas
Director o Tutor
Año del Documento
2024
Titulación
Máster en Ingeniería Informática
Résumé
Un viejo desafío en el campo de la inteligencia artificial es “enseñar” a las máquinas a entender
cómo hablan y escriben los humanos, conocido como procesamiento de lenguaje natural (PLN).
Sin embargo, desde hace poco más de dos años, estamos asistiendo a la caída de este antiguo
bastión con la llegada de los modelos grandes del lenguaje (LLM) y los interfaces
conversacionales. Los LLM son modelos de inteligencia artificial que se entrenan utilizando
algoritmos de Deep Learning sobre conjuntos enormes de información generada por humanos.
De esta manera, una vez entrenados, han aprendido la forma en la que los humanos utilizamos
la palabra hablada y escrita, así que son capaces de ofrecernos respuestas generales y con un
patrón muy parecido a nuestra forma de contestar a las preguntas que les hacemos. Sin embargo,
si buscamos respuestas precisas en un contexto determinado, los LLM por sí solos no
proporcionarán respuestas concretas o habrá una alta probabilidad de que se inventen
completamente la respuesta. En este trabajo, se explica y desarrolla una de las técnicas clave
que hace posible que estos sistemas nos respondan con relativa precisión a las preguntas que
les hacemos, esta tecnología se denomina Generación Aumentada por Recuperación o RAG,
del inglés Retrieval Augmented Generation. Para ello se comparan diversos modelos LLM, se
configuran un conjunto de herramientas para lograr inferir los modelos, y se desarrolla un
código fuente para, finalmente, lograr realizar una interfaz web, a modo de chatbot, que permita
interactuar con el usuario y realizar RAG sobre un documento elegido por el mismo. A long-standing challenge in the field of artificial intelligence is “teaching” machines to
understand how humans speak and write, known as natural language processing (NLP).
However, for just over two years, we have been witnessing the fall of this old bastion with the
arrival of large language models (LLM) and conversational interfaces. LLMs are artificial
intelligence models that are trained using Deep Learning algorithms on huge sets of humangenerated data. In this way, once trained, they have learned the way in which humans use the
spoken and written word, so they are able to offer us general answers with a pattern very similar
to our way of answering the questions we ask them. However, if we are looking for precise
answers in a given context, LLMs alone will not provide concrete answers or there will be a
high probability that they will completely make up the answer. In this work, one of the key
techniques that makes it possible for these systems to respond with relative precision to the
questions we ask them is explained and developed. This technology is called Retrieval
Augmented Generation or RAG. To do this, various LLM models are compared, a set of tools
are configured to infer the models, and a source code is developed to, finally, create a web
interface, like a chatbot, that allows interacting with the user and performing RAG on a
document chosen by him.
Palabras Clave
Inteligencia Artificial (IA)
Procesamiento del Lenguaje Natural (PLN)
Modelo Grande del Lenguaje (LLM)
Generación Aumentada por Recuperación (RAG)
Departamento
Departamento de Informática (Arquitectura y Tecnología de Computadores, Ciencias de la Computación e Inteligencia Artificial, Lenguajes y Sistemas Informáticos)
Idioma
spa
Derechos
openAccess
Aparece en las colecciones
- Trabajos Fin de Máster UVa [6579]
Fichier(s) constituant ce document
Excepté là où spécifié autrement, la license de ce document est décrite en tant que Attribution-NonCommercial-NoDerivatives 4.0 Internacional