• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Navegar

    Todo o repositórioComunidadesPor data do documentoAutoresAssuntosTítulos

    Minha conta

    Entrar

    Estatística

    Ver as estatísticas de uso

    Compartir

    Ver item 
    •   Página inicial
    • TRABALHO DE CONCLUSÃO DE ESTUDO
    • Trabajos Fin de Grado UVa
    • Ver item
    •   Página inicial
    • TRABALHO DE CONCLUSÃO DE ESTUDO
    • Trabajos Fin de Grado UVa
    • Ver item
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/50607

    Título
    Gradient boosting (Potenciación del gradiente) en aprendizaje estadístico
    Autor
    Martínez Celda, Bernardo
    Director o Tutor
    Álvarez Esteban, Pedro CésarAutoridad UVA
    Editor
    Universidad de Valladolid. Facultad de CienciasAutoridad UVA
    Año del Documento
    2021
    Titulación
    Grado en Matemáticas
    Resumo
    Este trabajo se centra en el estudio del boosting, un método de ensamble diseñado para combinar clasificadores débiles y formar un buen clasificador. En primer lugar se realiza una breve introducción a los problemas de aprendizaje estadístico y al método boosting. También se presenta AdaBoost, uno de los algoritmos de boosting más estudiados hasta el momento, y se prueban resultados teóricos que permiten acotar su error de generalización. Se utiliza el concepto de margen para explicar el comportamiento del error de generalización de AdaBoost, y justificar la falta de sobreajuste en ciertas ocasiones. Posteriormente se demuestra que AdaBoost es un algoritmo que optimiza una determinada función de coste mediante la búsqueda de su gradiente descendente. Por último se introducen los árboles de decisión como candidatos a ser combinados mediante algún algoritmo de boosting. La motivación de este trabajo es doble. Por un lado se pretende entender cómo funciona el boosting y a qué se deben sus cualidades, ya que es un método de ensamble que se encuentra en auge. Y por otro lado, poder realizar un estudio de caso donde se pretende predecir la configuración de pistas de un aeropuerto mediante árboles potenciados. Este estudio de caso se ha llevado a cabo en RStudio con la ayuda del paquete xgboost. En este trabajo se muestran las principales herramientas de este paquete y se realiza una búsqueda de parámetros óptimos para el entrenamiento de modelos combinados con xgboost.
    Palabras Clave
    Machine learning
    Boosting
    Gradient
    Idioma
    spa
    URI
    https://uvadoc.uva.es/handle/10324/50607
    Derechos
    openAccess
    Aparece en las colecciones
    • Trabajos Fin de Grado UVa [30857]
    Mostrar registro completo
    Arquivos deste item
    Nombre:
    TFG-G5344.pdf
    Tamaño:
    4.080Mb
    Formato:
    Adobe PDF
    Thumbnail
    Visualizar/Abrir
    Attribution-NonCommercial-NoDerivatives 4.0 InternacionalExceto quando indicado o contrário, a licença deste item é descrito como Attribution-NonCommercial-NoDerivatives 4.0 Internacional

    Universidad de Valladolid

    Powered by MIT's. DSpace software, Version 5.10