Mostrar registro simples

dc.contributor.advisorBarrio Tellado, Eustasio del es
dc.contributor.authorBaños Izquierdo, Álvaro
dc.contributor.editorUniversidad de Valladolid. Facultad de Ciencias es
dc.date.accessioned2023-01-12T08:50:30Z
dc.date.available2023-01-12T08:50:30Z
dc.date.issued2022
dc.identifier.urihttps://uvadoc.uva.es/handle/10324/57976
dc.description.abstractEn la actualidad, los modelos generativos basados en el aprendizaje profundo mediante técnicas de machine y deep learning han cobrado gran importancia debido a los resultados y avances que se están consiguiendo con su uso. Estos modelos se basan en tratamientos de grandes cantidades de datos mediante arquitecturas y técnicas de entrenamiento inteligente, teniendo una gran capacidad para generar nuevas distribuciones de datos muy realistas, como imágenes, textos o sonidos. Dentro de estos modelos, uno de los más conocidos son los Autocodificadores Variacionales, conocidos como VAEs, el cual es un autocodificador cuya distribución de codificaciones se regulariza durante el entrenamiento para garantizar que su espacio latente tenga buenas propiedades que nos permitan generar datos nuevos. Este trabajo se centra en el estudio de los fundamentos de estos modelos, partiendo de la técnica de reducción de dimensionalidad más sencilla, como es el Análisis de Componentes Principales, (ACP), hasta llegar a un análisis del estudio empírico de un modelo VAE, analizando y comparando los resultados obtenidos.es
dc.description.abstractCurrently, generative models based on deep learning through machine and deep learning techniques have gained great importance due to the results and advances that are being achieved with their use. These models are based on the processing of large amounts of data through intelligent training architectures and techniques, with a great capacity to generate new and very realistic data distributions, such as images, texts or sounds. Among these models, one of the best known is the Variatonal Auto-Encoders, VAEs, which is an autoencoder whose distribution of encodings is regularised during training to ensure that its latent space has good properties that allow us to generate new data. This paper focuses on the study of the fundamentals of these models, starting from the simplest dimensionality reduction technique, Principal Component Analysis (ACP), to an analysis of the empirical study of a model VAE, analysing and comparing the results obtained.es
dc.description.sponsorshipDepartamento de Estadística e Investigación Operativaes
dc.format.mimetypeapplication/pdfes
dc.language.isospaes
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subject.classificationModelos generativoses
dc.subject.classificationACPes
dc.subject.classificationAutocodificadores variacionaleses
dc.titleModelos generativos profundos: autocodificadores variacionaleses
dc.typeinfo:eu-repo/semantics/bachelorThesises
dc.description.degreeGrado en Matemáticases
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*


Arquivos deste item

Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples