<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="static/style.xsl"?><OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd"><responseDate>2026-05-05T18:33:16Z</responseDate><request verb="GetRecord" identifier="oai:uvadoc.uva.es:10324/63132" metadataPrefix="ese">https://uvadoc.uva.es/oai/request</request><GetRecord><record><header><identifier>oai:uvadoc.uva.es:10324/63132</identifier><datestamp>2023-11-21T20:02:20Z</datestamp><setSpec>com_10324_38</setSpec><setSpec>col_10324_787</setSpec></header><metadata><europeana:record xmlns:europeana="http://www.europeana.eu/schemas/ese/" xmlns:confman="org.dspace.core.ConfigurationManager" xmlns:doc="http://www.lyncode.com/xoai" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:dc="http://purl.org/dc/elements/1.1/" xsi:schemaLocation="http://www.europeana.eu/schemas/ese/ http://www.europeana.eu/schemas/ese/ESE-V3.4.xsd">
<dc:title>Técnicas avanzadas de aprendizaje profundo para la detección y análisis de tos en pacientes respiratorios</dc:title>
<dc:creator>Pérez Alonso, Diego Asay</dc:creator>
<dc:contributor>Casaseca de la Higuera, Juan Pablo</dc:contributor>
<dc:contributor>Universidad de Valladolid. Escuela Técnica Superior de Ingenieros de Telecomunicación</dc:contributor>
<dc:subject>Deep Learning</dc:subject>
<dc:subject>Tos</dc:subject>
<dc:subject>Detector</dc:subject>
<dc:description>Antecedentes: La tos es un mecanismo de defensa y expulsión del aparato respiratorio que provoca una respuesta&#xd;
refleja y sonora. En la actualidad, el análisis de la tos como marcador sintomático del avance de una enfermedad&#xd;
se apoya en instrumentos poco adecuados para el seguimiento en escenarios de la vida real. Algunos solo se han&#xd;
evaluado en ambientes silenciosos y controlados, otros se diseñaron para resolver un problema más general que la&#xd;
detección de la tos o se enfocan en una población muy concreta. Asimismo, algunos enfoques no se han concebido&#xd;
con la eficiencia requerida para operar en un smartphone. Por estos motivos, los métodos de análisis de audio&#xd;
empleados en estos dispositivos no son capaces de manejar ambientes ruidosos, como el caso de un paciente que&#xd;
use su smartphone en el bolsillo como dispositivo de captura de datos.&#xd;
Objetivo: Este Trabajo de Fin de Máster (TFM) tiene como propósito emplear técnicas de aprendizaje profundo&#xd;
(Deep Learning) para diseñar un sistema de “audición máquina” (Machine Hearing) que procese espectrogramas&#xd;
de señales acústicas y los clasifique de acuerdo a su contenido. Específicamente, se pretende reconocer los espectrogramas&#xd;
que contienen tos y los que no, y además clasificar cada tos a partir de sus propiedades espectrales según&#xd;
la enfermedad respiratorias asociada a la tos o el tipo de tos.&#xd;
Métodos: Para llevar a cabo el proyecto, adquirimos 36866 señales de audio contaminadas por ruido de 20&#xd;
pacientes respiratorios con distintas afecciones. La mitad de estas señales correspondieron a episodios de tos,&#xd;
mientras que la otra mitad no contenía ningún sonido de tos. Estas señales de audio se someten a un preprocesamiento&#xd;
en tres etapas. Primero, las señales de audio originales (señales de tos y no tos) se segmentan para que&#xd;
cada segmento dure un segundo. En segundo lugar, se transforman las señales 1D temporales en imágenes (señales&#xd;
2D) mediante tres métodos. Los dos primeros métodos transforman cada clip de audio, que son señales de tiempo&#xd;
(1D), en señales de tiempo-frecuencia (imágenes 2D) realizando un espectrograma logarítmico o un espectrograma&#xd;
de mel. El tercer método aplica a los audios la técnica de ventanas deslizadas cambiando la forma del vector y&#xd;
transformándolo en una matriz. Posteriormente, los datos se normalizan para poder alimentar a una red neuronal&#xd;
recurrente convolucional (C-LSTM). La red neuronal convolucional (Convolutional Neural Network, CNN) extrae&#xd;
características de los espectrogramas de audio automáticamente para identificar “patrones” espectrales o temporales.&#xd;
Luego, se alimenta a una red neuronal recurrente de memoria a corto plazo (Long Short-Term Memory, LSTM),&#xd;
que predice el frame actual haciendo referencia a los frames adyacentes. De esta manera, primero detecta si el clip&#xd;
de audio contiene tos o no, y en caso afirmativo, procedemos a realizar un análisis posterior con el objetivo de&#xd;
detectar el tipo de tos o la enfermedad subyacente.&#xd;
Resultados: El sistema de audiodetección de tos que obtuvo una especificidad mas alta presenta sensibilidad&#xd;
del 86,23% y una especificidad del 93,90 %. Por otro lado, el método de clasificación de tos que obtuvo la mayor&#xd;
exactitud fue el que discriminó entre tos de pacientes con COVID-19 y tos de pacientes que tiene síntomas pero&#xd;
sin diagnóstico de COVID-19, que obtuvo un 58,21 %.&#xd;
Conclusiones: Los resultados de este TFM abren la posibilidad de crear un dispositivo cómodo y no invasivo,&#xd;
con una mínima interferencia en las actividades cotidianas, capaz de detectar con carácter temprano enfermedades&#xd;
respiratorias, beneficiando a pacientes, profesionales sanitarios y sistemas nacionales de salud.</dc:description>
<dc:description>Background: Coughing is a defense mechanism and expulsion mechanism of the respiratory system that causes&#xd;
a reflexive and audible response. Currently, the analysis of cough as a symptomatic marker of disease progression&#xd;
relies on instruments that are poorly suited for monitoring in real-life scenarios. Some have only been evaluated&#xd;
in quiet and controlled environments, while others were designed to solve a problem more general than cough&#xd;
detection or focus on a very specific population. Additionally, some approaches have not been conceived with the&#xd;
required efficiency to operate on a smartphone. For these reasons, the audio analysis methods used in these devices&#xd;
are not capable of handling noisy environments, such as the case of a patient using their smartphone in their pocket&#xd;
as a data capture device.&#xd;
Objective: The purpose of this Master’s Thesis is to employ deep learning techniques to design a “machine&#xd;
hearing” system that processes spectrograms of acoustic signals and classifies them according to their content.&#xd;
Specifically, the aim is to recognize spectrograms that contain coughing and those that do not, as well as classify&#xd;
the disease associated with each cough based on their spectral properties.&#xd;
Methods: To carry out the project, audio signals contaminated with noise from twenty patients with various&#xd;
respiratory conditions were used, along with 18,433 audio signals recorded during cough episodes and 18,433&#xd;
audio signals recorded during non-cough episodes. These audio signals undergo preprocessing in three stages.&#xd;
First, the original audio signals (cough and non-cough signals) are segmented to have a duration of one second&#xd;
each. Secondly, the temporal 1D signals are transformed into images (2D signals) using three methods. The first&#xd;
two methods transform each audio, which are time-domain signals, into time-frequency signals by performing a&#xd;
logarithmic spectrogram or a mel spectrogram. The third method applies sliding windows to the audios, changing&#xd;
the vector shape and transforming it into a matrix. Subsequently, the data is normalized to feed into a Convolutional&#xd;
Long Short-Term Memory (C-LSTM) neural network. The Convolutional Neural Network (CNN) automatically&#xd;
extracts features from the audio spectrograms to identify spectral or temporal “patterns”. Finally, the processed&#xd;
data is fed into a Long Short-Term Memory (LSTM) recurrent neural network, which predicts the current frame&#xd;
by referencing adjacent frames. In this way, it first detects if the audio contains a cough or not, and if it does, it&#xd;
proceeds to diagnose the respiratory disease.&#xd;
Results: The audio detection system for coughs that achieved the highest specificity had a sensitivity of 86.23%&#xd;
and a specificity of 93.90 %. On the other hand, the cough classification method with the highest accuracy was the&#xd;
one that discriminated between coughs from COVID-19 patients and coughs from patients with symptoms but&#xd;
without a COVID-19 diagnosis, which achieved 58.21 %.&#xd;
Conclusions: The results of this Master’s Thesis open up the possibility of creating a comfortable and noninvasive&#xd;
device with minimal interference in daily activities, capable of early detecting respiratory diseases, benefiting&#xd;
patients, healthcare professionals, and national health systems.</dc:description>
<dc:description>Departamento de Teoría de la Señal y Comunicaciones e Ingeniería Telemática</dc:description>
<dc:description>Máster en Ingeniería de Telecomunicación</dc:description>
<dc:date>2023-11-21T09:09:12Z</dc:date>
<dc:date>2023-11-21T09:09:12Z</dc:date>
<dc:date>2023</dc:date>
<dc:type>info:eu-repo/semantics/masterThesis</dc:type>
<dc:identifier>https://uvadoc.uva.es/handle/10324/63132</dc:identifier>
<dc:language>spa</dc:language>
<dc:rights>Attribution-NonCommercial-NoDerivatives 4.0 Internacional</dc:rights>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:rights>http://creativecommons.org/licenses/by-nc-nd/4.0/</dc:rights>
<dc:format>application/pdf</dc:format>
<europeana:object>https://uvadoc.uva.es/bitstream/10324/63132/4/TFM-G1825.pdf.jpg</europeana:object>
<europeana:provider>Hispana</europeana:provider>
<europeana:type>TEXT</europeana:type>
<europeana:rights>http://creativecommons.org/licenses/by-nc-nd/4.0/</europeana:rights>
<europeana:dataProvider>UVaDOC. Repositorio Documental de la Universidad de Valladolid</europeana:dataProvider>
<europeana:isShownAt>https://uvadoc.uva.es/handle/10324/63132</europeana:isShownAt>
</europeana:record></metadata></record></GetRecord></OAI-PMH>