Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/71283
Título
Hacia un sistema de reconocimiento del lenguaje corporal en presentaciones orales utilizando técnicas de machine learning
Autor
Director o Tutor
Año del Documento
2024
Titulación
Máster en Investigación en Tecnologías de la Información y las Comunicaciones
Résumé
Las instituciones educativas enfrentan el desafío de evaluar y mejorar las competencias del
siglo 21 en los estudiantes. Estas competencias son fundamentales para su desarrollo
académico y profesional. La comunicación no verbal, que incluye gestos y posturas, es
especialmente importante para enriquecer la competencia de comunicación oral. Esta
habilidad permite mostrar emociones y actitudes que respaldan una presentación oral
efectiva. Para complementar la evaluación integral de estas competencias, se propone utilizar
un sistema de evaluación objetiva del lenguaje corporal. Este sistema utiliza algoritmos de
machine learning y visión por computadora para analizar el lenguaje corporal de los
estudiantes y proporciona datos cuantitativos que identifican áreas específicas de mejora para
cada estudiante. A diferencia de las evaluaciones manuales, que son subjetivas y sesgadas,
este sistema automatizado puede ahorrar tiempo y mejorar la eficacia de la evaluación en
entornos académicos y profesionales. El sistema de evaluación automática del lenguaje
corporal puede brindar a los profesores una visión cuantificable de los gestos positivos y
negativos durante las presentaciones de los estudiantes. Además, brinda a los alumnos la
oportunidad de ver cómo obtuvieron esos resultados de manera consistente a través del
sistema. Esto les permite mejorar su comunicación efectiva durante las presentaciones. El
sistema desarrollado tiene el potencial de mejorar significativamente la efectividad de la
comunicación en diversos contextos, desde la educación hasta los entornos empresariales y
políticos. Al proporcionar información útil sobre el lenguaje corporal de los presentadores,
el sistema propuesto puede contribuir a un mejor desempeño en estas áreas. Educational institutions face the challenge of assessing and improving 21st century
competencies in students. These competencies are critical to their academic and
professional development. Nonverbal communication, which includes gestures and
postures, is especially important to enrich oral communication competence. This skill
allows for the display of emotions and attitudes that support an effective oral presentation.
To complement the comprehensive assessment of these competencies, it is proposed to use
an objective body language assessment system. This system uses machine learning and
computer vision algorithms to analyze students' body language and provides quantitative
data that identifies specific areas of improvement for each student. Unlike manual
assessments, which are subjective and biased, this automated system can save time and
improve the effectiveness of assessment in academic and professional settings. The
automatic body language assessment system can give teachers quantifiable insight into
positive and negative gestures during students' presentations. In addition, it gives students
the opportunity to see how they consistently achieved those results across the system. This
allows them to improve their effective communication during presentations. The developed
system has the potential to significantly improve the effectiveness of communication in
various contexts, from education to business and political settings. By providing useful
information about the body language of presenters, the proposed system can contribute to
better performance in these areas.
Palabras Clave
Visión por computadora
Habilidades comunicativas
Machine learning
Departamento
Departamento de Teoría de la Señal y Comunicaciones e Ingeniería Telemática
Idioma
spa
Derechos
openAccess
Aparece en las colecciones
- Trabajos Fin de Máster UVa [6579]
Fichier(s) constituant ce document
Excepté là où spécifié autrement, la license de ce document est décrite en tant que Attribution-NonCommercial-NoDerivatives 4.0 Internacional