• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Listar

    Todo UVaDOCComunidadesPor fecha de publicaciónAutoresMateriasTítulos

    Mi cuenta

    Acceder

    Estadísticas

    Ver Estadísticas de uso

    Compartir

    Ver ítem 
    •   UVaDOC Principal
    • TRABAJOS FIN DE ESTUDIOS
    • Trabajos Fin de Grado UVa
    • Ver ítem
    •   UVaDOC Principal
    • TRABAJOS FIN DE ESTUDIOS
    • Trabajos Fin de Grado UVa
    • Ver ítem
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Por favor, use este identificador para citar o enlazar este ítem:http://uvadoc.uva.es/handle/10324/40284

    Título
    Fundamentos y aplicaciones de la teoría de aprendizaje estadístico
    Autor
    Río Almajano, Miguel Tereso del
    Director o Tutor
    Barrio Tellado, Eustasio delAutoridad UVA
    Editor
    Universidad de Valladolid. Facultad de CienciasAutoridad UVA
    Año del Documento
    2019
    Titulación
    Grado en Matemáticas
    Resumen
    La introducción del perceptrón por Rosenblatt en los 60 fue el punto de partida del aprendizaje estadístico: se trata del primer ejemplo de algoritmo mediante el cual un ordenador, a partir de la observación de una serie de datos (ejemplos) podía llegar a aprender, es decir, a distinguir sin error la etiqueta no observada de un nuevo caso. Desde entonces se ha desarrollado una considerable teoría matemática tratando de formular convenientemente cuestiones tales como: ¿qué es aprender, ¿qué tareas son aprendibles?, ¿cómo podemos hacer que los ordenadores aprendan de la mejor forma posible? En este trabajo se plantea el estudio de la teoría de aprendizaje estadístico desarrollada a partir de las ideas de V. Vapnik. Se analizarán las diferentes caracterizaciones del aprendizaje probablemente aproximadamente correcto (PAC), así como las posibilidades y limitaciones de las reglas basadas en minimización del riesgo empírico o de minimización del riesgo estructural. Como aplicación se analizará el rendimiento de algunas reglas de clasificación binaria basadas en estructuras lineales, incluyendo la discriminación logística, las máquinas de soporte vectorial o las redes neuronales.
    Palabras Clave
    Aprendizaje estadístico
    Máquinas de soporte vectorial
    Redes neuronales
    Idioma
    spa
    URI
    http://uvadoc.uva.es/handle/10324/40284
    Derechos
    openAccess
    Aparece en las colecciones
    • Trabajos Fin de Grado UVa [30858]
    Mostrar el registro completo del ítem
    Ficheros en el ítem
    Nombre:
    TFG-G4107.pdf
    Tamaño:
    580.6Kb
    Formato:
    Adobe PDF
    Thumbnail
    Visualizar/Abrir
    Attribution-NonCommercial-NoDerivatives 4.0 InternacionalLa licencia del ítem se describe como Attribution-NonCommercial-NoDerivatives 4.0 Internacional

    Universidad de Valladolid

    Powered by MIT's. DSpace software, Version 5.10