• español
  • English
  • français
  • Deutsch
  • português (Brasil)
  • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Listar

    Todo UVaDOCComunidadesPor fecha de publicaciónAutoresMateriasTítulos

    Mi cuenta

    Acceder

    Estadísticas

    Ver Estadísticas de uso

    Compartir

    Ver ítem 
    •   UVaDOC Principal
    • TRABAJOS FIN DE ESTUDIOS
    • Trabajos Fin de Grado UVa
    • Ver ítem
    •   UVaDOC Principal
    • TRABAJOS FIN DE ESTUDIOS
    • Trabajos Fin de Grado UVa
    • Ver ítem
    • español
    • English
    • français
    • Deutsch
    • português (Brasil)
    • italiano

    Exportar

    RISMendeleyRefworksZotero
    • edm
    • marc
    • xoai
    • qdc
    • ore
    • ese
    • dim
    • uketd_dc
    • oai_dc
    • etdms
    • rdf
    • mods
    • mets
    • didl
    • premis

    Citas

    Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/78789

    Título
    Redes neuronales convolucionales para detectar la cubierta de nubes en el cielo
    Autor
    Longarela Fuente, Bruno
    Director o Tutor
    Román Díez, RobertoAutoridad UVA
    Buitrago Alonso, FernandoAutoridad UVA
    Editor
    Universidad de Valladolid. Facultad de CienciasAutoridad UVA
    Año del Documento
    2025
    Titulación
    Grado en Física
    Resumen
    En el campo de la física atmosférica, una de las magnitudes más relevantes es la cobertura nubosa, que se define como la proporción de cielo o bóveda celeste cubierta por nubes. Las nubes desempeñan un papel fundamental en la regulación del balance energético terrestre y el ciclo hidrológico, además de ser un pilar en la circulación atmosférica, modulando parámetros como la irradiancia y la temperatura. Por ello, la cuantificación precisa de la cobertura nubosa es de gran interés en el estudio del clima y la atmósfera. Tradicionalmente, la medición de la cobertura nubosa se ha realizado de forma manual mediante observadores experimentados, lo que implica un alto coste de personal y una baja resolución temporal. Entre los avances tecnológicos en la medición terrestre de nubes, destacan las cámaras todo cielo, que, gracias a sus lentes ojo de pez, capturan un amplio campo de visión de la bóveda celeste. Las imágenes obtenidas permiten automatizar la medición de la cobertura nubosa a través de algoritmos de procesamiento de imágenes. La principal dificultad de los algoritmos clásicos reside en la detección de nubes finas y en escenarios de alta concentración de aerosoles en condiciones climáticas adversas. Los avances recientes en el procesamiento de imágenes han permitido desarrollar nuevas estrategias para mejorar la cuantificación de la cobertura nubosa. En este trabajo se propone un enfoque basado en el procesamiento de imágenes del cielo mediante redes neuronales convolucionales (CNN). Esta metodología permite extraer características adicionales, como texturas y bordes, que resultan fundamentales para una cuantificación más precisa de la cubierta nubosa. Para el entrenamiento y validación del modelo, se han empleado 71,991 imágenes capturadas mediante siete cámaras todo cielo ubicadas en la provincia de Valladolid y en las Islas Canarias. La captura de las imágenes se ha realizado en un régimen multi-exposición mediante cámaras todo cielo equipadas con sensores CMOS. Además, para dotar de una mayor robustez a los modelos se ha aumentado el conjunto de datos mediante la generación de imágenes sintéticas por difusión. Siguiendo esta metodología, se han desarrollado dos modelos de CNN, cuyos resultados han sido evaluados sobre un conjunto de datos reservado para validación. Se evalúa el rendimiento de ambos modelos y se analiza el impacto de la inclusión de imágenes sintéticas en su entrenamiento. El modelo ResNet36 fue el mejor alcanzando una tasa de acierto del 71.51 %. Finalmente, se comparan estos resultados con los obtenidos en trabajos previos, destacando el avance en la exactitud y en la desviación media de las medidas obtenidas. Este trabajo aporta una nueva aproximación multidisciplinar a la cuantificación de medidas cualitativas de la cubierta nubosa, contribuyendo así a una mejora en el ámbito de la resolución temporal de la monitorización climática y a su automatización.
     
    In the field of atmospheric physics, one of the most relevant magnitudes is cloud cover, which is defined as the proportion of sky or celestial dome covered by the clouds. Clouds play a fundamental role in regulating the atmospheric energy balance and the hydrological cycle, and they are one of the pillars of atmospheric circulation, modulating parameters such as irradiance and temperature. Therefore an accurate quantification of cloud cover is of great interest in climate and atmospheric studies. Traditionally, cloud cover measurement has been conducted manually by experienced observers, which implies a high personnel cost and a low temporal resolution. Among the technological advances in cloud cover detection, all-sky cameras stand out for their wide field of view thanks to fisheye lenses. The images obtained allow for the automation of cloud cover measurement through image processing algorithms. The main challenge of classical algorithms lies in the detection of thin clouds and in the handling of scenarios with high aerosol concentrations under adverse weather conditions. Recent advances in image processing have enabled the development of new strategies to improve cloud cover quantification. This work proposes an approach based on sky image processing through the use of convolutional neural networks (CNNs). This methodology allows for the identification of additional features, such as textures and edges, which are crucial for a more accurate quantification of cloud cover. For model training and validation, 71,991 images captured by seven all-sky cameras located in the province of Valladolid and the Canary Islands were used. The images were captured using a multi-exposure regime with all-sky cameras equipped with CMOS sensors. Additionally, to enhance model robustness, the dataset was augmented through the generation of synthetic images via diffusion models. Following this methodology, two CNN models were developed, and their results were evaluated on a reserved validation dataset. The performance of both models was tested, and the impact of including synthetic images in their training was analyzed. The ResNet36 model achieved the best accuracy, reaching a level of 71.51 %. Finally, these results were compared with those obtained in previous studies, highlighting improvements both, in accuracy and mean deviation of the measurements. This work presents a new multidisciplinary approach to the quantification of qualitative cloud cover measurements, contributing to advancements in the temporal resolution of climate monitoring and its automation.
    Palabras Clave
    Redes neuronales convolucionales
    Cobertura nubosa
    Física atmosférica
    Departamento
    Departamento de Física Teórica, Atómica y Óptica
    Idioma
    spa
    URI
    https://uvadoc.uva.es/handle/10324/78789
    Derechos
    openAccess
    Aparece en las colecciones
    • Trabajos Fin de Grado UVa [32437]
    Mostrar el registro completo del ítem
    Ficheros en el ítem
    Nombre:
    TFG-G7588.pdf
    Tamaño:
    5.892Mb
    Formato:
    Adobe PDF
    Thumbnail
    Visualizar/Abrir
    Attribution-NonCommercial-NoDerivatives 4.0 InternacionalLa licencia del ítem se describe como Attribution-NonCommercial-NoDerivatives 4.0 Internacional

    Universidad de Valladolid

    Powered by MIT's. DSpace software, Version 5.10