• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Ricerca

    Tutto UVaDOCArchiviData di pubblicazioneAutoriSoggettiTitoli

    My Account

    Login

    Estadísticas

    Ver Estadísticas de uso

    Compartir

    Mostra Item 
    •   UVaDOC Home
    • PROGETTI DI LAUREA FINALE
    • Trabajos Fin de Grado UVa
    • Mostra Item
    •   UVaDOC Home
    • PROGETTI DI LAUREA FINALE
    • Trabajos Fin de Grado UVa
    • Mostra Item
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/50607

    Título
    Gradient boosting (Potenciación del gradiente) en aprendizaje estadístico
    Autor
    Martínez Celda, Bernardo
    Director o Tutor
    Álvarez Esteban, Pedro CésarAutoridad UVA
    Editor
    Universidad de Valladolid. Facultad de CienciasAutoridad UVA
    Año del Documento
    2021
    Titulación
    Grado en Matemáticas
    Abstract
    Este trabajo se centra en el estudio del boosting, un método de ensamble diseñado para combinar clasificadores débiles y formar un buen clasificador. En primer lugar se realiza una breve introducción a los problemas de aprendizaje estadístico y al método boosting. También se presenta AdaBoost, uno de los algoritmos de boosting más estudiados hasta el momento, y se prueban resultados teóricos que permiten acotar su error de generalización. Se utiliza el concepto de margen para explicar el comportamiento del error de generalización de AdaBoost, y justificar la falta de sobreajuste en ciertas ocasiones. Posteriormente se demuestra que AdaBoost es un algoritmo que optimiza una determinada función de coste mediante la búsqueda de su gradiente descendente. Por último se introducen los árboles de decisión como candidatos a ser combinados mediante algún algoritmo de boosting. La motivación de este trabajo es doble. Por un lado se pretende entender cómo funciona el boosting y a qué se deben sus cualidades, ya que es un método de ensamble que se encuentra en auge. Y por otro lado, poder realizar un estudio de caso donde se pretende predecir la configuración de pistas de un aeropuerto mediante árboles potenciados. Este estudio de caso se ha llevado a cabo en RStudio con la ayuda del paquete xgboost. En este trabajo se muestran las principales herramientas de este paquete y se realiza una búsqueda de parámetros óptimos para el entrenamiento de modelos combinados con xgboost.
    Palabras Clave
    Machine learning
    Boosting
    Gradient
    Idioma
    spa
    URI
    https://uvadoc.uva.es/handle/10324/50607
    Derechos
    openAccess
    Aparece en las colecciones
    • Trabajos Fin de Grado UVa [30857]
    Mostra tutti i dati dell'item
    Files in questo item
    Nombre:
    TFG-G5344.pdf
    Tamaño:
    4.080Mb
    Formato:
    Adobe PDF
    Thumbnail
    Mostra/Apri
    Attribution-NonCommercial-NoDerivatives 4.0 InternacionalLa licencia del ítem se describe como Attribution-NonCommercial-NoDerivatives 4.0 Internacional

    Universidad de Valladolid

    Powered by MIT's. DSpace software, Version 5.10