Show simple item record

dc.contributor.advisorRomán Díez, Roberto es
dc.contributor.advisorBuitrago Alonso, Fernando es
dc.contributor.authorLongarela Fuente, Bruno
dc.contributor.editorUniversidad de Valladolid. Facultad de Ciencias es
dc.date.accessioned2025-10-20T06:59:54Z
dc.date.available2025-10-20T06:59:54Z
dc.date.issued2025
dc.identifier.urihttps://uvadoc.uva.es/handle/10324/78789
dc.description.abstractEn el campo de la física atmosférica, una de las magnitudes más relevantes es la cobertura nubosa, que se define como la proporción de cielo o bóveda celeste cubierta por nubes. Las nubes desempeñan un papel fundamental en la regulación del balance energético terrestre y el ciclo hidrológico, además de ser un pilar en la circulación atmosférica, modulando parámetros como la irradiancia y la temperatura. Por ello, la cuantificación precisa de la cobertura nubosa es de gran interés en el estudio del clima y la atmósfera. Tradicionalmente, la medición de la cobertura nubosa se ha realizado de forma manual mediante observadores experimentados, lo que implica un alto coste de personal y una baja resolución temporal. Entre los avances tecnológicos en la medición terrestre de nubes, destacan las cámaras todo cielo, que, gracias a sus lentes ojo de pez, capturan un amplio campo de visión de la bóveda celeste. Las imágenes obtenidas permiten automatizar la medición de la cobertura nubosa a través de algoritmos de procesamiento de imágenes. La principal dificultad de los algoritmos clásicos reside en la detección de nubes finas y en escenarios de alta concentración de aerosoles en condiciones climáticas adversas. Los avances recientes en el procesamiento de imágenes han permitido desarrollar nuevas estrategias para mejorar la cuantificación de la cobertura nubosa. En este trabajo se propone un enfoque basado en el procesamiento de imágenes del cielo mediante redes neuronales convolucionales (CNN). Esta metodología permite extraer características adicionales, como texturas y bordes, que resultan fundamentales para una cuantificación más precisa de la cubierta nubosa. Para el entrenamiento y validación del modelo, se han empleado 71,991 imágenes capturadas mediante siete cámaras todo cielo ubicadas en la provincia de Valladolid y en las Islas Canarias. La captura de las imágenes se ha realizado en un régimen multi-exposición mediante cámaras todo cielo equipadas con sensores CMOS. Además, para dotar de una mayor robustez a los modelos se ha aumentado el conjunto de datos mediante la generación de imágenes sintéticas por difusión. Siguiendo esta metodología, se han desarrollado dos modelos de CNN, cuyos resultados han sido evaluados sobre un conjunto de datos reservado para validación. Se evalúa el rendimiento de ambos modelos y se analiza el impacto de la inclusión de imágenes sintéticas en su entrenamiento. El modelo ResNet36 fue el mejor alcanzando una tasa de acierto del 71.51 %. Finalmente, se comparan estos resultados con los obtenidos en trabajos previos, destacando el avance en la exactitud y en la desviación media de las medidas obtenidas. Este trabajo aporta una nueva aproximación multidisciplinar a la cuantificación de medidas cualitativas de la cubierta nubosa, contribuyendo así a una mejora en el ámbito de la resolución temporal de la monitorización climática y a su automatización.es
dc.description.abstractIn the field of atmospheric physics, one of the most relevant magnitudes is cloud cover, which is defined as the proportion of sky or celestial dome covered by the clouds. Clouds play a fundamental role in regulating the atmospheric energy balance and the hydrological cycle, and they are one of the pillars of atmospheric circulation, modulating parameters such as irradiance and temperature. Therefore an accurate quantification of cloud cover is of great interest in climate and atmospheric studies. Traditionally, cloud cover measurement has been conducted manually by experienced observers, which implies a high personnel cost and a low temporal resolution. Among the technological advances in cloud cover detection, all-sky cameras stand out for their wide field of view thanks to fisheye lenses. The images obtained allow for the automation of cloud cover measurement through image processing algorithms. The main challenge of classical algorithms lies in the detection of thin clouds and in the handling of scenarios with high aerosol concentrations under adverse weather conditions. Recent advances in image processing have enabled the development of new strategies to improve cloud cover quantification. This work proposes an approach based on sky image processing through the use of convolutional neural networks (CNNs). This methodology allows for the identification of additional features, such as textures and edges, which are crucial for a more accurate quantification of cloud cover. For model training and validation, 71,991 images captured by seven all-sky cameras located in the province of Valladolid and the Canary Islands were used. The images were captured using a multi-exposure regime with all-sky cameras equipped with CMOS sensors. Additionally, to enhance model robustness, the dataset was augmented through the generation of synthetic images via diffusion models. Following this methodology, two CNN models were developed, and their results were evaluated on a reserved validation dataset. The performance of both models was tested, and the impact of including synthetic images in their training was analyzed. The ResNet36 model achieved the best accuracy, reaching a level of 71.51 %. Finally, these results were compared with those obtained in previous studies, highlighting improvements both, in accuracy and mean deviation of the measurements. This work presents a new multidisciplinary approach to the quantification of qualitative cloud cover measurements, contributing to advancements in the temporal resolution of climate monitoring and its automation.es
dc.description.sponsorshipDepartamento de Física Teórica, Atómica y Ópticaes
dc.format.mimetypeapplication/pdfes
dc.language.isospaes
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subject.classificationRedes neuronales convolucionaleses
dc.subject.classificationCobertura nubosaes
dc.subject.classificationFísica atmosféricaes
dc.titleRedes neuronales convolucionales para detectar la cubierta de nubes en el cieloes
dc.typeinfo:eu-repo/semantics/bachelorThesises
dc.description.degreeGrado en Físicaes
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record