<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="static/style.xsl"?><OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd"><responseDate>2026-04-23T21:12:11Z</responseDate><request verb="GetRecord" identifier="oai:uvadoc.uva.es:10324/71509" metadataPrefix="etdms">https://uvadoc.uva.es/oai/request</request><GetRecord><record><header><identifier>oai:uvadoc.uva.es:10324/71509</identifier><datestamp>2024-11-15T20:02:18Z</datestamp><setSpec>com_10324_38</setSpec><setSpec>col_10324_787</setSpec></header><metadata><thesis xmlns="http://www.ndltd.org/standards/metadata/etdms/1.0/" xmlns:doc="http://www.lyncode.com/xoai" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.ndltd.org/standards/metadata/etdms/1.0/ http://www.ndltd.org/standards/metadata/etdms/1.0/etdms.xsd">
<title>Implementación de técnicas de RAG (Retrieval Augmented Generation) sobre LLM (Large Language Models) para la extracción y generación de documentos en las entidades públicas</title>
<creator>Collado Alonso, Miguel Ángel</creator>
<contributor>Escudero Mancebo, David</contributor>
<contributor>Universidad de Valladolid. Escuela de Ingeniería Informática de Valladolid</contributor>
<description>Un viejo desafío en el campo de la inteligencia artificial es “enseñar” a las máquinas a entender&#xd;
cómo hablan y escriben los humanos, conocido como procesamiento de lenguaje natural (PLN).&#xd;
Sin embargo, desde hace poco más de dos años, estamos asistiendo a la caída de este antiguo&#xd;
bastión con la llegada de los modelos grandes del lenguaje (LLM) y los interfaces&#xd;
conversacionales. Los LLM son modelos de inteligencia artificial que se entrenan utilizando&#xd;
algoritmos de Deep Learning sobre conjuntos enormes de información generada por humanos.&#xd;
De esta manera, una vez entrenados, han aprendido la forma en la que los humanos utilizamos&#xd;
la palabra hablada y escrita, así que son capaces de ofrecernos respuestas generales y con un&#xd;
patrón muy parecido a nuestra forma de contestar a las preguntas que les hacemos. Sin embargo,&#xd;
si buscamos respuestas precisas en un contexto determinado, los LLM por sí solos no&#xd;
proporcionarán respuestas concretas o habrá una alta probabilidad de que se inventen&#xd;
completamente la respuesta. En este trabajo, se explica y desarrolla una de las técnicas clave&#xd;
que hace posible que estos sistemas nos respondan con relativa precisión a las preguntas que&#xd;
les hacemos, esta tecnología se denomina Generación Aumentada por Recuperación o RAG,&#xd;
del inglés Retrieval Augmented Generation. Para ello se comparan diversos modelos LLM, se&#xd;
configuran un conjunto de herramientas para lograr inferir los modelos, y se desarrolla un&#xd;
código fuente para, finalmente, lograr realizar una interfaz web, a modo de chatbot, que permita&#xd;
interactuar con el usuario y realizar RAG sobre un documento elegido por el mismo.</description>
<description>A long-standing challenge in the field of artificial intelligence is “teaching” machines to&#xd;
understand how humans speak and write, known as natural language processing (NLP).&#xd;
However, for just over two years, we have been witnessing the fall of this old bastion with the&#xd;
arrival of large language models (LLM) and conversational interfaces. LLMs are artificial&#xd;
intelligence models that are trained using Deep Learning algorithms on huge sets of humangenerated data. In this way, once trained, they have learned the way in which humans use the&#xd;
spoken and written word, so they are able to offer us general answers with a pattern very similar&#xd;
to our way of answering the questions we ask them. However, if we are looking for precise&#xd;
answers in a given context, LLMs alone will not provide concrete answers or there will be a&#xd;
high probability that they will completely make up the answer. In this work, one of the key&#xd;
techniques that makes it possible for these systems to respond with relative precision to the&#xd;
questions we ask them is explained and developed. This technology is called Retrieval&#xd;
Augmented Generation or RAG. To do this, various LLM models are compared, a set of tools&#xd;
are configured to infer the models, and a source code is developed to, finally, create a web&#xd;
interface, like a chatbot, that allows interacting with the user and performing RAG on a&#xd;
document chosen by him.</description>
<date>2024-11-15</date>
<date>2024-11-15</date>
<date>2024</date>
<type>info:eu-repo/semantics/masterThesis</type>
<identifier>https://uvadoc.uva.es/handle/10324/71509</identifier>
<language>spa</language>
<rights>info:eu-repo/semantics/openAccess</rights>
<rights>http://creativecommons.org/licenses/by-nc-nd/4.0/</rights>
<rights>Attribution-NonCommercial-NoDerivatives 4.0 Internacional</rights>
</thesis></metadata></record></GetRecord></OAI-PMH>