<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="static/style.xsl"?><OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd"><responseDate>2026-04-14T18:13:01Z</responseDate><request verb="GetRecord" identifier="oai:uvadoc.uva.es:10324/71509" metadataPrefix="edm">https://uvadoc.uva.es/oai/request</request><GetRecord><record><header><identifier>oai:uvadoc.uva.es:10324/71509</identifier><datestamp>2024-11-15T20:02:18Z</datestamp><setSpec>com_10324_38</setSpec><setSpec>col_10324_787</setSpec></header><metadata><rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:doc="http://www.lyncode.com/xoai" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:ore="http://www.openarchives.org/ore/terms/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:ds="http://dspace.org/ds/elements/1.1/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:edm="http://www.europeana.eu/schemas/edm/" xsi:schemaLocation="http://www.w3.org/1999/02/22-rdf-syntax-ns# http://www.europeana.eu/schemas/edm/EDM.xsd">
<edm:ProvidedCHO rdf:about="https://uvadoc.uva.es/handle/10324/71509">
<dc:contributor>Escudero Mancebo, David</dc:contributor>
<dc:contributor>Universidad de Valladolid. Escuela de Ingeniería Informática de Valladolid</dc:contributor>
<dc:creator>Collado Alonso, Miguel Ángel</dc:creator>
<dc:date>2024</dc:date>
<dc:description>Un viejo desafío en el campo de la inteligencia artificial es “enseñar” a las máquinas a entender&#xd;
cómo hablan y escriben los humanos, conocido como procesamiento de lenguaje natural (PLN).&#xd;
Sin embargo, desde hace poco más de dos años, estamos asistiendo a la caída de este antiguo&#xd;
bastión con la llegada de los modelos grandes del lenguaje (LLM) y los interfaces&#xd;
conversacionales. Los LLM son modelos de inteligencia artificial que se entrenan utilizando&#xd;
algoritmos de Deep Learning sobre conjuntos enormes de información generada por humanos.&#xd;
De esta manera, una vez entrenados, han aprendido la forma en la que los humanos utilizamos&#xd;
la palabra hablada y escrita, así que son capaces de ofrecernos respuestas generales y con un&#xd;
patrón muy parecido a nuestra forma de contestar a las preguntas que les hacemos. Sin embargo,&#xd;
si buscamos respuestas precisas en un contexto determinado, los LLM por sí solos no&#xd;
proporcionarán respuestas concretas o habrá una alta probabilidad de que se inventen&#xd;
completamente la respuesta. En este trabajo, se explica y desarrolla una de las técnicas clave&#xd;
que hace posible que estos sistemas nos respondan con relativa precisión a las preguntas que&#xd;
les hacemos, esta tecnología se denomina Generación Aumentada por Recuperación o RAG,&#xd;
del inglés Retrieval Augmented Generation. Para ello se comparan diversos modelos LLM, se&#xd;
configuran un conjunto de herramientas para lograr inferir los modelos, y se desarrolla un&#xd;
código fuente para, finalmente, lograr realizar una interfaz web, a modo de chatbot, que permita&#xd;
interactuar con el usuario y realizar RAG sobre un documento elegido por el mismo.</dc:description>
<dc:description>A long-standing challenge in the field of artificial intelligence is “teaching” machines to&#xd;
understand how humans speak and write, known as natural language processing (NLP).&#xd;
However, for just over two years, we have been witnessing the fall of this old bastion with the&#xd;
arrival of large language models (LLM) and conversational interfaces. LLMs are artificial&#xd;
intelligence models that are trained using Deep Learning algorithms on huge sets of humangenerated data. In this way, once trained, they have learned the way in which humans use the&#xd;
spoken and written word, so they are able to offer us general answers with a pattern very similar&#xd;
to our way of answering the questions we ask them. However, if we are looking for precise&#xd;
answers in a given context, LLMs alone will not provide concrete answers or there will be a&#xd;
high probability that they will completely make up the answer. In this work, one of the key&#xd;
techniques that makes it possible for these systems to respond with relative precision to the&#xd;
questions we ask them is explained and developed. This technology is called Retrieval&#xd;
Augmented Generation or RAG. To do this, various LLM models are compared, a set of tools&#xd;
are configured to infer the models, and a source code is developed to, finally, create a web&#xd;
interface, like a chatbot, that allows interacting with the user and performing RAG on a&#xd;
document chosen by him.</dc:description>
<dc:format>application/pdf</dc:format>
<dc:identifier>https://uvadoc.uva.es/handle/10324/71509</dc:identifier>
<dc:language>spa</dc:language>
<dc:title>Implementación de técnicas de RAG (Retrieval Augmented Generation) sobre LLM (Large Language Models) para la extracción y generación de documentos en las entidades públicas</dc:title>
<dc:type>info:eu-repo/semantics/masterThesis</dc:type>
<edm:type>TEXT</edm:type>
</edm:ProvidedCHO>
<ore:Aggregation rdf:about="https://uvadoc.uva.es/handle/10324/71509#aggregation">
<edm:aggregatedCHO rdf:resource="https://uvadoc.uva.es/handle/10324/71509"/>
<edm:dataProvider>UVaDOC. Repositorio Documental de la Universidad de Valladolid</edm:dataProvider>
<edm:isShownAt rdf:resource="https://uvadoc.uva.es/handle/10324/71509"/>
<edm:isShownBy rdf:resource="https://uvadoc.uva.es/bitstream/10324/71509/1/TFM-G1993.pdf"/>
<edm:provider>Hispana</edm:provider>
<edm:rights rdf:resource="http://creativecommons.org/licenses/by-nc-nd/4.0/"/>
</ore:Aggregation>
<edm:WebResource rdf:about="https://uvadoc.uva.es/bitstream/10324/71509/1/TFM-G1993.pdf">
<edm:rights rdf:resource="http://creativecommons.org/licenses/by-nc-nd/4.0/"/>
</edm:WebResource>
</rdf:RDF></metadata></record></GetRecord></OAI-PMH>