<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="static/style.xsl"?><OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd"><responseDate>2026-04-14T20:11:19Z</responseDate><request verb="GetRecord" identifier="oai:uvadoc.uva.es:10324/71509" metadataPrefix="mods">https://uvadoc.uva.es/oai/request</request><GetRecord><record><header><identifier>oai:uvadoc.uva.es:10324/71509</identifier><datestamp>2024-11-15T20:02:18Z</datestamp><setSpec>com_10324_38</setSpec><setSpec>col_10324_787</setSpec></header><metadata><mods:mods xmlns:mods="http://www.loc.gov/mods/v3" xmlns:doc="http://www.lyncode.com/xoai" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:name>
<mods:namePart>Collado Alonso, Miguel Ángel</mods:namePart>
</mods:name>
<mods:extension>
<mods:dateAvailable encoding="iso8601">2024-11-15T09:04:41Z</mods:dateAvailable>
</mods:extension>
<mods:extension>
<mods:dateAccessioned encoding="iso8601">2024-11-15T09:04:41Z</mods:dateAccessioned>
</mods:extension>
<mods:originInfo>
<mods:dateIssued encoding="iso8601">2024</mods:dateIssued>
</mods:originInfo>
<mods:identifier type="uri">https://uvadoc.uva.es/handle/10324/71509</mods:identifier>
<mods:abstract>Un viejo desafío en el campo de la inteligencia artificial es “enseñar” a las máquinas a entender&#xd;
cómo hablan y escriben los humanos, conocido como procesamiento de lenguaje natural (PLN).&#xd;
Sin embargo, desde hace poco más de dos años, estamos asistiendo a la caída de este antiguo&#xd;
bastión con la llegada de los modelos grandes del lenguaje (LLM) y los interfaces&#xd;
conversacionales. Los LLM son modelos de inteligencia artificial que se entrenan utilizando&#xd;
algoritmos de Deep Learning sobre conjuntos enormes de información generada por humanos.&#xd;
De esta manera, una vez entrenados, han aprendido la forma en la que los humanos utilizamos&#xd;
la palabra hablada y escrita, así que son capaces de ofrecernos respuestas generales y con un&#xd;
patrón muy parecido a nuestra forma de contestar a las preguntas que les hacemos. Sin embargo,&#xd;
si buscamos respuestas precisas en un contexto determinado, los LLM por sí solos no&#xd;
proporcionarán respuestas concretas o habrá una alta probabilidad de que se inventen&#xd;
completamente la respuesta. En este trabajo, se explica y desarrolla una de las técnicas clave&#xd;
que hace posible que estos sistemas nos respondan con relativa precisión a las preguntas que&#xd;
les hacemos, esta tecnología se denomina Generación Aumentada por Recuperación o RAG,&#xd;
del inglés Retrieval Augmented Generation. Para ello se comparan diversos modelos LLM, se&#xd;
configuran un conjunto de herramientas para lograr inferir los modelos, y se desarrolla un&#xd;
código fuente para, finalmente, lograr realizar una interfaz web, a modo de chatbot, que permita&#xd;
interactuar con el usuario y realizar RAG sobre un documento elegido por el mismo.</mods:abstract>
<mods:abstract>A long-standing challenge in the field of artificial intelligence is “teaching” machines to&#xd;
understand how humans speak and write, known as natural language processing (NLP).&#xd;
However, for just over two years, we have been witnessing the fall of this old bastion with the&#xd;
arrival of large language models (LLM) and conversational interfaces. LLMs are artificial&#xd;
intelligence models that are trained using Deep Learning algorithms on huge sets of humangenerated data. In this way, once trained, they have learned the way in which humans use the&#xd;
spoken and written word, so they are able to offer us general answers with a pattern very similar&#xd;
to our way of answering the questions we ask them. However, if we are looking for precise&#xd;
answers in a given context, LLMs alone will not provide concrete answers or there will be a&#xd;
high probability that they will completely make up the answer. In this work, one of the key&#xd;
techniques that makes it possible for these systems to respond with relative precision to the&#xd;
questions we ask them is explained and developed. This technology is called Retrieval&#xd;
Augmented Generation or RAG. To do this, various LLM models are compared, a set of tools&#xd;
are configured to infer the models, and a source code is developed to, finally, create a web&#xd;
interface, like a chatbot, that allows interacting with the user and performing RAG on a&#xd;
document chosen by him.</mods:abstract>
<mods:language>
<mods:languageTerm>spa</mods:languageTerm>
</mods:language>
<mods:accessCondition type="useAndReproduction">info:eu-repo/semantics/openAccess</mods:accessCondition>
<mods:accessCondition type="useAndReproduction">http://creativecommons.org/licenses/by-nc-nd/4.0/</mods:accessCondition>
<mods:accessCondition type="useAndReproduction">Attribution-NonCommercial-NoDerivatives 4.0 Internacional</mods:accessCondition>
<mods:titleInfo>
<mods:title>Implementación de técnicas de RAG (Retrieval Augmented Generation) sobre LLM (Large Language Models) para la extracción y generación de documentos en las entidades públicas</mods:title>
</mods:titleInfo>
<mods:genre>info:eu-repo/semantics/masterThesis</mods:genre>
</mods:mods></metadata></record></GetRecord></OAI-PMH>