RT info:eu-repo/semantics/bachelorThesis T1 Fundamentos y aplicaciones de la teoría de aprendizaje estadístico A1 Río Almajano, Miguel Tereso del A2 Universidad de Valladolid. Facultad de Ciencias K1 Aprendizaje estadístico K1 Máquinas de soporte vectorial K1 Redes neuronales AB La introducción del perceptrón por Rosenblatt en los 60 fue el punto de partida del aprendizaje estadístico: se trata del primer ejemplo de algoritmo mediante el cual un ordenador, a partir de la observación de una serie de datos (ejemplos) podía llegar a aprender, es decir, a distinguir sin error la etiqueta no observada de un nuevo caso. Desde entonces se ha desarrollado una considerable teoría matemática tratando de formular convenientemente cuestiones tales como: ¿qué es aprender, ¿qué tareas son aprendibles?, ¿cómo podemos hacer que los ordenadores aprendan de la mejor forma posible? En este trabajo se plantea el estudio de la teoría de aprendizaje estadístico desarrollada a partir de las ideas de V. Vapnik. Se analizarán las diferentes caracterizaciones del aprendizaje probablemente aproximadamente correcto (PAC), así como las posibilidades y limitaciones de las reglas basadas en minimización del riesgo empírico o de minimización del riesgo estructural. Como aplicación se analizará el rendimiento de algunas reglas de clasificación binaria basadas en estructuras lineales, incluyendo la discriminación logística, las máquinas de soporte vectorial o las redes neuronales. YR 2019 FD 2019 LK http://uvadoc.uva.es/handle/10324/40284 UL http://uvadoc.uva.es/handle/10324/40284 LA spa DS UVaDOC RD 12-sep-2024