<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="static/style.xsl"?><OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd"><responseDate>2026-05-05T20:59:04Z</responseDate><request verb="GetRecord" identifier="oai:uvadoc.uva.es:10324/50029" metadataPrefix="didl">https://uvadoc.uva.es/oai/request</request><GetRecord><record><header><identifier>oai:uvadoc.uva.es:10324/50029</identifier><datestamp>2021-11-15T21:59:44Z</datestamp><setSpec>com_10324_38</setSpec><setSpec>col_10324_852</setSpec></header><metadata><d:DIDL xmlns:d="urn:mpeg:mpeg21:2002:02-DIDL-NS" xmlns:doc="http://www.lyncode.com/xoai" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="urn:mpeg:mpeg21:2002:02-DIDL-NS http://standards.iso.org/ittf/PubliclyAvailableStandards/MPEG-21_schema_files/did/didl.xsd">
<d:DIDLInfo>
<dcterms:created xmlns:dcterms="http://purl.org/dc/terms/" xsi:schemaLocation="http://purl.org/dc/terms/ http://dublincore.org/schemas/xmls/qdc/dcterms.xsd">2021-11-15T16:47:59Z</dcterms:created>
</d:DIDLInfo>
<d:Item id="hdl_10324_50029">
<d:Descriptor>
<d:Statement mimeType="application/xml; charset=utf-8">
<dii:Identifier xmlns:dii="urn:mpeg:mpeg21:2002:01-DII-NS" xsi:schemaLocation="urn:mpeg:mpeg21:2002:01-DII-NS http://standards.iso.org/ittf/PubliclyAvailableStandards/MPEG-21_schema_files/dii/dii.xsd">urn:hdl:10324/50029</dii:Identifier>
</d:Statement>
</d:Descriptor>
<d:Descriptor>
<d:Statement mimeType="application/xml; charset=utf-8">
<oai_dc:dc xmlns:oai_dc="http://www.openarchives.org/OAI/2.0/oai_dc/" xmlns:dc="http://purl.org/dc/elements/1.1/" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
<dc:title>Reconocimiento eficiente de caras mediante Deep Learning a partir de imágenes en el espectro visible</dc:title>
<dc:creator>Pérez Rodríguez, Mario</dc:creator>
<dc:contributor>Casaseca de la Higuera, Juan Pablo</dc:contributor>
<dc:contributor>Aguiar Pérez, Javier Manuel</dc:contributor>
<dc:contributor>Universidad de Valladolid. Escuela Técnica Superior de Ingenieros de Telecomunicación</dc:contributor>
<dc:description>La detección facial está presente en múltiples ámbitos de la vida cotidiana hoy en día, ya sea&#xd;
para desbloquear nuestro teléfono móvil o como medida de seguridad en una empresa.&#xd;
Ahondando en esta idea, el objetivo de este Proyecto Fin de Carrera es estudiar el rendimiento&#xd;
de los detectores genéricos y específicos para un reconocimiento facial eficiente. Para&#xd;
ello, primero se entrenaron los detectores genéricos de forma específica para utilizarlos como&#xd;
detectores faciales y se utilizó la misma base de datos para los específicos. Después, los modelos&#xd;
se simplificaron utilizando herramientas estándar para su posterior análisis y evaluación. Se&#xd;
evaluó el rendimiento tanto en términos de velocidad (medida en fotogramas por segundo) como&#xd;
de precisión (utilizando la precisión media).&#xd;
A la vista de los resultados, tanto los modelos genéricos como los específicos pueden utilizarse&#xd;
para la detección facial, si bien los diseñados específicamente dan lugar a un mejor equilibrio&#xd;
entre precisión y eficacia.</dc:description>
<dc:description>Nowadays, facial detection is present in multiple aspects of daily life, whether it is for&#xd;
unlocking our phones or as a company’s security measurement.&#xd;
Delving into this idea, the aim of this Final Year Project is to study the performance of&#xd;
both generic and specific detectors for efficient facial recognition. To this end, the generic ones&#xd;
were first specifically trained to use them as facial detectors and the same database was used for&#xd;
the specific ones. Afterwards, the models were simplified using standard tools for subsequent&#xd;
analysis and evaluation. Performance in terms of both speed (measured in frames per second)&#xd;
and accuracy (using average precision) was assessed.&#xd;
In view of the results, both generic and specific models can be used for facial detection,&#xd;
although specifically designed result in a better trade off between accuracy and efficiency.</dc:description>
<dc:date>2021-11-15T16:47:59Z</dc:date>
<dc:date>2021-11-15T16:47:59Z</dc:date>
<dc:date>2021</dc:date>
<dc:type>info:eu-repo/semantics/bachelorThesis</dc:type>
<dc:identifier>https://uvadoc.uva.es/handle/10324/50029</dc:identifier>
<dc:language>spa</dc:language>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:rights>http://creativecommons.org/licenses/by-nc-nd/4.0/</dc:rights>
<dc:rights>Attribution-NonCommercial-NoDerivatives 4.0 Internacional</dc:rights>
</oai_dc:dc>
</d:Statement>
</d:Descriptor>
<d:Component id="10324_50029_1">
<d:Resource ref="https://uvadoc.uva.es/bitstream/10324/50029/1/TFG-G5204.pdf" mimeType="application/pdf"/>
</d:Component>
</d:Item>
</d:DIDL></metadata></record></GetRecord></OAI-PMH>