Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/63086
Título
Estudio comparativo de redes de aprendizaje profundo para reconocimiento de actividades empleando sensores inerciales
Autor
Director o Tutor
Año del Documento
2023
Titulación
Máster en Investigación en Tecnologías de la Información y las Comunicaciones
Zusammenfassung
HAR (Human Activity Recognition) o reconocimiento de actividades humanas, es un campo de investigación centrado, como su nombre indica, en la capacidad de reconocer la actividad humana que está siendo realizada. Suponiendo, especialmente en la última década, un campo de elevada relevancia en investigación, dadas las posibilidades que ofrece para la mejora de la calidad de vida de las personas en ámbitos muy diversos, tales como el sanitario, el transporte o la seguridad entre otros.
Aunque este campo de investigación no es nuevo, la evolución reciente de los sistemas de sensores inerciales, y de los sistemas de computación (aprendizaje automático), han supuesto un incremento notable en la capacidad de los investigadores de trabajar en este problema. Por ejemplo, centrándonos únicamente en el campo del aprendizaje automático, es posible encontrar en la literatura más reciente propuestas de redes neuronales muy diversas, aportando diferentes opciones para poder dar una mejor solución al problema del HAR, superando los resultados anteriores.
Con esta última afirmación como base, en el presente trabajo se realiza una búsqueda de las arquitecturas de red, propuestas en la literatura de la última década, para resolver el problema del HAR con sensores inerciales. A continuación, se implementan algunas de dichas arquitecturas y se comparan los resultados con los obtenidos en un trabajo de fin de máster previo, empleando la base de datos pública REALDISP. Adicionalmente, se estudia cómo la utilización de datos de aceleración, cuaternios, orientación o su combinación afecta a la exactitud del reconocimiento. Este TFM ha permitido identificar las mejores aproximaciones de redes neuronales con sensores inerciales, así como cuáles son los mejores datos de entrada a utilizar, para el reconocimiento de actividades con la base de datos REALDISP. HAR (Human Activity Recognition) is a field of research focused, as its name suggests, on the ability to recognize the human activity being performed. It has become, especially in the last decade, a highly relevant field of research, given the possibilities it offers for improving the quality of life of people in many different fields, such as health, transportation or security, among others.
Although this field of research is not new, the recent evolution of inertial sensor systems and computing systems (machine learning) has led to a significant increase in the ability of researchers to work on this problem. For example, focusing only on the field of machine learning, it is possible to find in the most recent literature very diverse neural network proposals, providing different options to provide a better solution to the HAR problem, surpassing previous results.
With this last statement as a basis, in the present work a search of the network architectures, proposed in the literature of the last decade, to solve the HAR problem with inertial sensors is carried out. Then, some of these architectures are implemented and the results are compared with those obtained in a previous master's thesis, using the public database REALDISP. Additionally, it is studied how the use of acceleration, quaternions, orientation data or their combination affects the recognition accuracy. This TFM has allowed us to identify the best approaches of neural networks with inertial sensors, as well as the best input data to use for the recognition of activities with the REALDISP database.
Palabras Clave
REALDISP
Aprendizaje profundo
Unidad de medida inercial
Departamento
Departamento de Teoría de la Señal y Comunicaciones e Ingeniería Telemática
Idioma
spa
Derechos
openAccess
Aparece en las colecciones
- Trabajos Fin de Máster UVa [6577]
Dateien zu dieser Ressource
Solange nicht anders angezeigt, wird die Lizenz wie folgt beschrieben: Attribution-NonCommercial-NoDerivatives 4.0 Internacional