Mostrar el registro sencillo del ítem

dc.contributor.advisorIzquierdo Fuente, Alberto es
dc.contributor.advisorVal Puente, Lara del es
dc.contributor.authorMartín Yeves, Andrés
dc.contributor.editorUniversidad de Valladolid. Escuela Técnica Superior de Ingenieros de Telecomunicación es
dc.date.accessioned2023-11-21T16:49:17Z
dc.date.available2023-11-21T16:49:17Z
dc.date.issued2023
dc.identifier.urihttps://uvadoc.uva.es/handle/10324/63144
dc.description.abstractEste proyecto se inscribe dentro del campo de la biometría acústica formando parte de una investigación más amplia con escasa literatura existente. A partir de imágenes acústicas 3D capturadas mediante un array fractal de sensores MEMS de alta resolucion, junto con una cámara LiDAR diseñada para entornos interiores, este estudio presenta el hardware y la implementación de un software propio desarrollado en LabVIEW, destinados a la adquisición síncrona y procesamiento de imágenes resultantes de la fusión de ambos sistemas. Esta integración facilita la investigación de imágenes acústicas biométricas filtrando las imágenes espacialmente. El propósito final es implementar un sistema biométrico de verificación. En este contexto, tras una reflexión acerca de múltiples alternativas, se programa en python una arquitectura particular de red neuronal convolucional siamesa. Para cualquier aplicación de inteligencia artificial, resulta esencial disponer de un conjunto de datos amplio y de alta calidad. Con este propósito, se ha creado una base de datos compuesta por 21000 imágenes multifrecuenciales pertenecientes a 10 individuos. Finalmente haciendo uso de esta base de datos, se realizan proyecciones 2D destinadas a servir como entrada para la mencionada red neuronal. Se concluye con la evaluación de los resultados, lo que ha conducido al descarte de la arquitectura inicialmente propuesta y la reflexión sobre posibles vías de mejora.es
dc.description.abstractThis project falls within the field of acoustic biometrics and is part of a larger research project with little existing literature. Using 3D acoustic images captured with a fractal array of high-resolution MEMS sensors combined with a LiDAR camera designed for indoor environments, this study presents the hardware and the implementation of a proprietary software developed in LabVIEW for the synchronous acquisition and processing of images resulting from the fusion of both systems. This integration facilitates the research of biometric acoustic images by spatially filtering the images. The final purpose is to implement a biometric verification system. In this context, after studying multiple alternatives, a particular Siamese convolutional neural network architecture has been programmed using Python. For any artificial intelligence application, it is essential to have a large and high quality dataset. With this purpose, a database composed of 21000 multi-frequency images corresponding to 10 individuals has been created. Finally, using this database, 2D projections are made to be used as an input for the mentioned neural network. Finally, the results were evaluated, leading to the discard of the initially proposed architecture and a discussion about possible ways to improve the results.es
dc.description.sponsorshipDepartamento de Teoría de la Señal y Comunicaciones e Ingeniería Telemáticaes
dc.format.mimetypeapplication/pdfes
dc.language.isospaes
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subject.classificationBiometría acústicaes
dc.subject.classificationArray de micrófonos MEMSes
dc.subject.classificationLiDARes
dc.titleSistema biométrico multimodal con imágenes acústicas y LiDAR utilizando una red neuronales
dc.typeinfo:eu-repo/semantics/masterThesises
dc.description.degreeMáster en Ingeniería de Telecomunicaciónes
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem