Mostrar el registro sencillo del ítem

dc.contributor.advisorAdiego Rodríguez, Joaquín Nicolás es
dc.contributor.advisorJuanes Mayfield, Beatrizes
dc.contributor.authorGonzález Núñez, Víctor (Grado en E.I. Informática de Valladolid 2025)
dc.contributor.editorUniversidad de Valladolid. Escuela de Ingeniería Informática de Valladolid es
dc.date.accessioned2025-11-04T08:40:50Z
dc.date.available2025-11-04T08:40:50Z
dc.date.issued2025
dc.identifier.urihttps://uvadoc.uva.es/handle/10324/79212
dc.description.abstractDetectar emociones en la voz no es solo un reto técnico: es también una forma de acercarse a lo que las personas comunican sin decirlo. Este trabajo explora esa idea desde la inteligencia artificial, desarrollando un sistema capaz de analizar grabaciones y reconocer estados como la alegría, la tristeza, la ira o el miedo. A lo largo del proyecto se han combinado técnicas de procesamiento acústico y modelos de clasificación para encontrar una forma eficaz de interpretar la voz desde un punto de vista emocional. No se trata solo de obtener buenos resultados, sino de hacerlo con rigor, cuidando los datos, entendiendo los límites y asumiendo que detrás de cada señal hay una persona. El sistema es funcional, pero más allá de eso, este trabajo abre una línea que busca conectar tecnología y emoción sin perder de vista lo esencial: tratamos de enseñar a una máquina a escuchar, no solo a oír.es
dc.description.abstractDetecting emotions in voice is not just a technical challenge: it’s also a way of getting closer to what people communicate without saying it directly. This project explores that idea through the lens of artificial intelligence, developing a system capable of analyzing audio recordings and recognizing emotional states such as joy, sadness, anger or fear. Throughout the process, acoustic feature extraction and classification models have been combined to find an effective way of interpreting speech from an emotional perspective. It’s not only about achieving good results, but about doing it rigorously: taking care of the data, understanding the limitations, and remembering that behind every signal, there’s a person. The system is functional, but beyond that, this project opens a path that seeks to connect technology and emotion without losing sight of what really matters: we are trying to teach a machine to listen, not just to hear.es
dc.description.sponsorshipDepartamento de Informática (Arquitectura y Tecnología de Computadores, Ciencias de la Computación e Inteligencia Artificial, Lenguajes y Sistemas Informáticos)es
dc.format.mimetypeapplication/pdfes
dc.language.isospaes
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subject.classificationReconocimiento emocionales
dc.subject.classificationInteligencia artificiales
dc.subject.classificationModelos de clasificaciónes
dc.subject.classificationVozes
dc.titleAnálisis comparativo de modelos de aprendizaje supervisado para el reconocimiento de emociones en el hablaes
dc.typeinfo:eu-repo/semantics/bachelorThesises
dc.description.degreeGrado en Ingeniería Informáticaes
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem