Afficher la notice abrégée

dc.contributor.advisorFuente Aparicio, María Jesús de la es
dc.contributor.authorFernández Fernández, Pablo
dc.contributor.editorUniversidad de Valladolid. Escuela de Ingenierías Industriales es
dc.date.accessioned2026-02-04T10:42:59Z
dc.date.available2026-02-04T10:42:59Z
dc.date.issued2026
dc.identifier.urihttps://uvadoc.uva.es/handle/10324/82544
dc.description.abstractEste estudio examina diversas metodologías de detección de errores fundamentadas en datos, que se utilizan para controlar la calidad en ámbitos industriales. Estos métodos son eficaces para extraer información relevante y mejorar la calidad de los procesos, debido a la enorme cantidad de datos producidos en la industria moderna. El estudio se inicia con el análisis de los componentes principales, un método lineal para disminuir características que posibilita la creación de nuevas variables que pueden agrupar la mayor parte de la información del sistema y disminuir el número de dimensiones. Se pueden detectar fallos potenciales al comparar la conducta normal del proceso con datos atípicos, utilizando estadísticos multivariantes y la distribución de estos datos reducidos. Además, se llevaron a cabo métodos de aprendizaje profundo y automático dirigidos a disminuir la dimensionalidad. En esta línea, los autoencoders posibilitan un aprendizaje sin supervisión de la información de la planta al captar relaciones no lineales entre las variables y dar paso a la identificación de anomalías. Los autoencoders recurrentes son una mejora de los autoencoders convencionales, ya que tienen información de los estados pasados del sistema y por lo tanto permiten una detección de errores más exacta y fiable. Por último, dada la gran dimensionalidad de los datos que se recogen en las industrias actuales se creó una estrategia de detección de fallos distribuida para mejorar los modelos de detección de anomalías. Esta metodología divide las variables de la planta en diferentes bloques de manera automática, identifica anomalías en cada uno de ellos por separado y, a través de inferencia bayesiana, sintetiza la información adquirida. Finalmente comentar, que los datos del proceso que se han usado para probar todas las técnicas desarrolladas has sido los datos del proceso Tennessee Eastman, que se usa mucho en la literatura científica sobre detección de fallos.es
dc.description.abstractThis study examines various data-driven error detection methodologies used for quality control in industrial settings. These methods are effective for extracting relevant information and improving process quality, owing to the enormous amount of data produced in modern industry. The data from the Tennessee Eastman process, which is widely used in the scientific literature on fault detection, were employed for training and evaluating the models. The study begins with principal component analysis, a linear method for reducing features that enables the creation of new variables capable of capturing most of the system’s information and reducing the number of dimensions. Potential faults can be detected by comparing the normal behavior of the process with atypical data, using multivariate statistics and the distribution of these reduced data. Additionally, deep and machine learning methods aimed at reducing dimensionality were employed. In this vein, autoencoders enable unsupervised learning of plant information by capturing nonlinear relationships between variables and paving the way for anomaly detection. Recurrent autoencoders are an improvement over conventional autoencoders, as they have information about the past states of the system so therefore, they enable more robust training and more accurate and reliable error detection. At last, given the large dimensionality of the collected data, a distributed fault detection strategy was developed. This methodology automatically divides the plant’s variables into different blocks, identifies anomalies in each block separately and through Bayesian inference synthesizes the acquired information. Finally, it should be noted that the process data used to test all the developed techniques were from the Tennessee-Eastman process, which is widely used in the scientific literature on fault detection.es
dc.description.sponsorshipDepartamento de Ingeniería de Sistemas y Automáticaes
dc.format.mimetypeapplication/pdfes
dc.language.isospaes
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subject.classificationPCAes
dc.subject.classificationAutoencoderses
dc.subject.classificationLSTMes
dc.subject.classificationMonitorizaciónes
dc.subject.classificationResultadoses
dc.titleMonitorización distribuida de un proceso para mejora de su calidad mediante técnicas de inteligencia computacional/Deep learning: RAEes
dc.typeinfo:eu-repo/semantics/bachelorThesises
dc.description.degreeGrado en Ingeniería en Electrónica Industrial y Automáticaes
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.subject.unesco3307 Tecnología Electrónicaes


Fichier(s) constituant ce document

Thumbnail
Thumbnail

Ce document figure dans la(les) collection(s) suivante(s)

Afficher la notice abrégée