Por favor, use este identificador para citar o enlazar este ítem:http://uvadoc.uva.es/handle/10324/40284
Título
Fundamentos y aplicaciones de la teoría de aprendizaje estadístico
Director o Tutor
Año del Documento
2019
Titulación
Grado en Matemáticas
Resumo
La introducción del perceptrón por Rosenblatt en los 60 fue el punto de partida del aprendizaje estadístico: se trata del primer ejemplo de algoritmo mediante el cual un ordenador, a partir de la observación de una serie de datos (ejemplos) podía llegar a aprender, es decir, a distinguir sin error la etiqueta no observada de un nuevo caso. Desde entonces se ha desarrollado una considerable teoría matemática tratando de formular convenientemente cuestiones tales como: ¿qué es aprender, ¿qué tareas son aprendibles?, ¿cómo podemos hacer que los ordenadores aprendan de la mejor forma posible? En este trabajo se plantea el estudio de la teoría de aprendizaje estadístico desarrollada a partir de las ideas de V. Vapnik. Se analizarán las diferentes caracterizaciones del aprendizaje probablemente aproximadamente correcto (PAC), así como las posibilidades y limitaciones de las reglas basadas en minimización del riesgo empírico o de minimización del riesgo estructural. Como aplicación se analizará el rendimiento de algunas reglas de clasificación binaria basadas en estructuras lineales, incluyendo la discriminación logística, las máquinas de soporte vectorial o las redes neuronales.
Palabras Clave
Aprendizaje estadístico
Máquinas de soporte vectorial
Redes neuronales
Idioma
spa
Derechos
openAccess
Aparece en las colecciones
- Trabajos Fin de Grado UVa [29575]
Arquivos deste item
Exceto quando indicado o contrário, a licença deste item é descrito como Attribution-NonCommercial-NoDerivatives 4.0 Internacional