• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Stöbern

    Gesamter BestandBereicheErscheinungsdatumAutorenSchlagwortenTiteln

    Mein Benutzerkonto

    Einloggen

    Statistik

    Benutzungsstatistik

    Compartir

    Dokumentanzeige 
    •   UVaDOC Startseite
    • STUDIENABSCHLUSSARBEITEN
    • Trabajos Fin de Máster UVa
    • Dokumentanzeige
    •   UVaDOC Startseite
    • STUDIENABSCHLUSSARBEITEN
    • Trabajos Fin de Máster UVa
    • Dokumentanzeige
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/71499

    Título
    Toma de decisiones de estrategia durante las carreras de Fórmula 1 utilizando Deep Reinforcement Learning
    Autor
    Rebé Martín, Jorge
    Director o Tutor
    Bregón Bregón, AníbalAutoridad UVA
    Pulido Junquera, José BelarminoAutoridad UVA
    Editor
    Universidad de Valladolid. Escuela de Ingeniería Informática de ValladolidAutoridad UVA
    Año del Documento
    2024
    Titulación
    Máster en Ingeniería Informática
    Zusammenfassung
    La estrategia de carrera en Fórmula 1 es uno de los elementos críticos que pueden cambiar el resultado de un piloto en una carrera. En este trabajo se ha construido un sistema basado en aprendizaje por refuerzo en el que un agente aprende a tomar las decisiones estratégicas óptimas en cada vuelta (parar o no parar, y si se para, qué neumático poner). Se ha desarrollado un simulador de carreras de Fórmula 1 que se ha utilizado como entorno para que el agente interactúe con él y pueda aprender cuáles son las acciones a tomar en cada momento que maximicen la posición final en carrera. Se utilizan varios algoritmos (DQN, QR-DQN y A2C) y varias funciones de recompensa con los que se entrenará a varios agentes. Finalmente, se evalúan los agentes entrenados y se selecciona el mejor.
     
    Race strategy in Formula One is one of the most critic elements that can change the final position of a driver in a race. In this work a full reinforcement learning system is built, in which the agent learns to take the optimal strategy decisions every lap (to pit or not to pit, and if pit what tyre to fit). A Formula 1 races simulator has been developed, and it is used as the environment that the agent interacts with in order to learn what actions to take given the race state in order to maximize the final position in the race. Various algorithms (DQN, QR-DQN and A2C) and reward functions are used, with which agents will be trained. Finally, trained agents are evaluated and the best one is selected.
    Palabras Clave
    Aprendizaje por refuerzo
    Fórmula 1
    Optimización de estrategia de carrera
    Departamento
    Departamento de Informática (Arquitectura y Tecnología de Computadores, Ciencias de la Computación e Inteligencia Artificial, Lenguajes y Sistemas Informáticos)
    Idioma
    spa
    URI
    https://uvadoc.uva.es/handle/10324/71499
    Derechos
    openAccess
    Aparece en las colecciones
    • Trabajos Fin de Máster UVa [7035]
    Zur Langanzeige
    Dateien zu dieser Ressource
    Nombre:
    TFM-G2000.pdf
    Tamaño:
    4.216Mb
    Formato:
    Adobe PDF
    Thumbnail
    Öffnen
    Attribution-NonCommercial-NoDerivatives 4.0 InternacionalSolange nicht anders angezeigt, wird die Lizenz wie folgt beschrieben: Attribution-NonCommercial-NoDerivatives 4.0 Internacional

    Universidad de Valladolid

    Powered by MIT's. DSpace software, Version 5.10