<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="static/style.xsl"?><OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd"><responseDate>2026-04-28T19:49:09Z</responseDate><request verb="GetRecord" identifier="oai:uvadoc.uva.es:10324/71509" metadataPrefix="marc">https://uvadoc.uva.es/oai/request</request><GetRecord><record><header><identifier>oai:uvadoc.uva.es:10324/71509</identifier><datestamp>2024-11-15T20:02:18Z</datestamp><setSpec>com_10324_38</setSpec><setSpec>col_10324_787</setSpec></header><metadata><record xmlns="http://www.loc.gov/MARC21/slim" xmlns:doc="http://www.lyncode.com/xoai" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:dcterms="http://purl.org/dc/terms/" xsi:schemaLocation="http://www.loc.gov/MARC21/slim http://www.loc.gov/standards/marcxml/schema/MARC21slim.xsd">
<leader>00925njm 22002777a 4500</leader>
<datafield tag="042" ind1=" " ind2=" ">
<subfield code="a">dc</subfield>
</datafield>
<datafield tag="720" ind1=" " ind2=" ">
<subfield code="a">Collado Alonso, Miguel Ángel</subfield>
<subfield code="e">author</subfield>
</datafield>
<datafield tag="260" ind1=" " ind2=" ">
<subfield code="c">2024</subfield>
</datafield>
<datafield tag="520" ind1=" " ind2=" ">
<subfield code="a">Un viejo desafío en el campo de la inteligencia artificial es “enseñar” a las máquinas a entender&#xd;
cómo hablan y escriben los humanos, conocido como procesamiento de lenguaje natural (PLN).&#xd;
Sin embargo, desde hace poco más de dos años, estamos asistiendo a la caída de este antiguo&#xd;
bastión con la llegada de los modelos grandes del lenguaje (LLM) y los interfaces&#xd;
conversacionales. Los LLM son modelos de inteligencia artificial que se entrenan utilizando&#xd;
algoritmos de Deep Learning sobre conjuntos enormes de información generada por humanos.&#xd;
De esta manera, una vez entrenados, han aprendido la forma en la que los humanos utilizamos&#xd;
la palabra hablada y escrita, así que son capaces de ofrecernos respuestas generales y con un&#xd;
patrón muy parecido a nuestra forma de contestar a las preguntas que les hacemos. Sin embargo,&#xd;
si buscamos respuestas precisas en un contexto determinado, los LLM por sí solos no&#xd;
proporcionarán respuestas concretas o habrá una alta probabilidad de que se inventen&#xd;
completamente la respuesta. En este trabajo, se explica y desarrolla una de las técnicas clave&#xd;
que hace posible que estos sistemas nos respondan con relativa precisión a las preguntas que&#xd;
les hacemos, esta tecnología se denomina Generación Aumentada por Recuperación o RAG,&#xd;
del inglés Retrieval Augmented Generation. Para ello se comparan diversos modelos LLM, se&#xd;
configuran un conjunto de herramientas para lograr inferir los modelos, y se desarrolla un&#xd;
código fuente para, finalmente, lograr realizar una interfaz web, a modo de chatbot, que permita&#xd;
interactuar con el usuario y realizar RAG sobre un documento elegido por el mismo.</subfield>
</datafield>
<datafield tag="520" ind1=" " ind2=" ">
<subfield code="a">A long-standing challenge in the field of artificial intelligence is “teaching” machines to&#xd;
understand how humans speak and write, known as natural language processing (NLP).&#xd;
However, for just over two years, we have been witnessing the fall of this old bastion with the&#xd;
arrival of large language models (LLM) and conversational interfaces. LLMs are artificial&#xd;
intelligence models that are trained using Deep Learning algorithms on huge sets of humangenerated data. In this way, once trained, they have learned the way in which humans use the&#xd;
spoken and written word, so they are able to offer us general answers with a pattern very similar&#xd;
to our way of answering the questions we ask them. However, if we are looking for precise&#xd;
answers in a given context, LLMs alone will not provide concrete answers or there will be a&#xd;
high probability that they will completely make up the answer. In this work, one of the key&#xd;
techniques that makes it possible for these systems to respond with relative precision to the&#xd;
questions we ask them is explained and developed. This technology is called Retrieval&#xd;
Augmented Generation or RAG. To do this, various LLM models are compared, a set of tools&#xd;
are configured to infer the models, and a source code is developed to, finally, create a web&#xd;
interface, like a chatbot, that allows interacting with the user and performing RAG on a&#xd;
document chosen by him.</subfield>
</datafield>
<datafield tag="024" ind2=" " ind1="8">
<subfield code="a">https://uvadoc.uva.es/handle/10324/71509</subfield>
</datafield>
<datafield tag="245" ind1="0" ind2="0">
<subfield code="a">Implementación de técnicas de RAG (Retrieval Augmented Generation) sobre LLM (Large Language Models) para la extracción y generación de documentos en las entidades públicas</subfield>
</datafield>
</record></metadata></record></GetRecord></OAI-PMH>