<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="static/style.xsl"?><OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd"><responseDate>2026-04-27T12:31:34Z</responseDate><request verb="GetRecord" identifier="oai:uvadoc.uva.es:10324/57345" metadataPrefix="mods">https://uvadoc.uva.es/oai/request</request><GetRecord><record><header><identifier>oai:uvadoc.uva.es:10324/57345</identifier><datestamp>2025-02-18T11:13:46Z</datestamp><setSpec>com_10324_38</setSpec><setSpec>col_10324_787</setSpec></header><metadata><mods:mods xmlns:mods="http://www.loc.gov/mods/v3" xmlns:doc="http://www.lyncode.com/xoai" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.loc.gov/mods/v3 http://www.loc.gov/standards/mods/v3/mods-3-1.xsd">
<mods:name>
<mods:namePart>Sánchez Brizuela, Guillermo</mods:namePart>
</mods:name>
<mods:extension>
<mods:dateAvailable encoding="iso8601">2022-11-22T16:02:38Z</mods:dateAvailable>
</mods:extension>
<mods:extension>
<mods:dateAccessioned encoding="iso8601">2022-11-22T16:02:38Z</mods:dateAccessioned>
</mods:extension>
<mods:originInfo>
<mods:dateIssued encoding="iso8601">2022</mods:dateIssued>
</mods:originInfo>
<mods:identifier type="uri">https://uvadoc.uva.es/handle/10324/57345</mods:identifier>
<mods:abstract>La estimación de profundidad monocular consiste en recuperar automáticamente una aproximación de la dimensión perdida al proyectar una escena tridimensional en una imagen bidimensional. Este problema tiene infinitas soluciones geométricas, por lo que es prácticamente imposible resolverlo con técnicas de visión artificial tradicional. Sin embargo, las técnicas de Deep Learning son capaces de extraer distintas características de las imágenes que permiten aproximar una solución. En este trabajo se estudia este problema y las soluciones existentes, especialmente aquellas basadas en Transformers y aprendizaje supervisado. En una de estas soluciones, se llevan a cabo una serie de modificaciones y desarrollos que permiten reducir el tamaño del modelo original y multiplicar por cerca de cinco su velocidad de inferencia. Además, se incluye un estudio exhaustivo, tanto cuantitativo como cualitativo, de la influencia de las modificaciones evaluando los modelos en el conjunto de datos KITTI, orientado a conducción autónoma.</mods:abstract>
<mods:abstract>Monocular depth estimation deals with the automatic recovery of an approximation of the&#xd;
dimension that is lost when projecting a three-dimensional scene into a two-dimensional&#xd;
image. This problem has an infinite number of geometric solutions, which makes it practically&#xd;
impossible to solve using traditional computer vision techniques. Nonetheless, Deep Learning&#xd;
techniques are capable of extracting different characteristics from the images that make it&#xd;
possible to approximate a solution. In this work this problem and the existing solutions are&#xd;
studied, especially those based on Transformers and supervised learning. In one of these&#xd;
solutions, a series of modifications and developments are carried out to reduce the size of the&#xd;
original model and multiply its inference speed by nearly five. Furthermore, an exhaustive&#xd;
study, both quantitative and qualitative, of the influence of the different modifications is&#xd;
included, evaluating the models in the KITTI dataset, oriented to autonomous driving.</mods:abstract>
<mods:language>
<mods:languageTerm>spa</mods:languageTerm>
</mods:language>
<mods:accessCondition type="useAndReproduction">info:eu-repo/semantics/openAccess</mods:accessCondition>
<mods:accessCondition type="useAndReproduction">http://creativecommons.org/licenses/by-nc-nd/4.0/</mods:accessCondition>
<mods:accessCondition type="useAndReproduction">Attribution-NonCommercial-NoDerivatives 4.0 Internacional</mods:accessCondition>
<mods:titleInfo>
<mods:title>Estimación de profundidad monocular online con Transformers eficientes</mods:title>
</mods:titleInfo>
<mods:genre>info:eu-repo/semantics/masterThesis</mods:genre>
</mods:mods></metadata></record></GetRecord></OAI-PMH>