Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/70773
Título
Monitorización distribuida de un proceso para mejora de su calidad mediante técnicas de inteligencia computacional/deep learning: VAE
Autor
Director o Tutor
Año del Documento
2024
Titulación
Grado en Ingeniería en Electrónica Industrial y Automática
Resumen
En este trabajo se estudiarán diferentes técnicas de detección de fallos basadas
en datos para el control de calidad en plantas industriales. Dada la gran cantidad
de datos presentes en la industria moderna, estos métodos pueden ayudar a extraer
conocimiento útil de los mismos, en vistas a mejorar la calidad de los procesos. Se
han usado los datos del proceso Tennessee-Eastman, muy usado en la literatura
de detección de fallos, para entrenar los modelos y probar su rendimiento.
Se empieza por el análisis de componentes principales, un método de extracción
de características lineal, que puede crear nuevas variables que contengan la mayor
cantidad de información posible del proceso, con un menor número de dimensiones.
Analizar la distribución de los datos reducidos mediante estadísticos multivariables
nos permite comparar los de funcionamiento normal con posibles datos anómalos,
detectando así posibles fallos en estos.
También se han usado métodos de aprendizaje automático/aprendizaje profundo para la reducción dimensional de los datos. Los autoencoders permiten un
aprendizaje no supervisado de los datos de la planta, aprendiendo correlaciones
no lineales de las variables del proceso, pudiéndose detectar con ellos anomalías.
Los autoencoders variacionales suponen una mejora respecto de los autoencoders normales, proporcionando un mejor entrenamiento y una detección más
precisa y fiable.
Por último, se ha desarrollado una metodología de detección de fallos distribuida, que divide las variables de la planta en bloques de forma automática, realiza
la detección en cada uno por separado y condensa su información mediante la
inferencia bayesiana. In this work a number of data-driven fault detection techniques are studied, to
ensure quality control in industrial plants. Given the great amount of data present
in modern industry, these methods can help extract knowledge out of them, in
order to improve process quality. The Tennessee-Eastman process dataset, of wide
use in fault detection literature, has been used to train the models and to test
their performance.
It begins by principal component analysis, a linear characteristic extraction
method which can create new variables that contain the process information, reducing its dimensionality while keeping the maximum amount of information. Studying the distribution of the reduced data using multivariable statistical methods,
the fault-free data can be compared with possible faulty data, thus allowing fault
detection.
Machine learning/deep learning methods have also been used for dimensionality reduction. Autoencoders allow unsupervised learning of the process data,
learning non linear correlation of its variables, and being able to detect anomalies.
Variational autoencoders constitute an improvement upon regular autoencoders, allowing a better training and a more precise and reliable fault detection.
Lastly, a distributed fault detection methodology has been developed, dividing
process variables automatically into blocks, performing fault detection in each one
of them separately and condensing the information using bayesian inference.
Materias Unesco
1203.06 Sistemas Automatizados de Control de Calidad
Palabras Clave
Anomalías
Control estadístico
Aprendizaje automático
VAE
Distribuido
Departamento
Departamento de Ingeniería de Sistemas y Automática
Idioma
spa
Derechos
openAccess
Aparece en las colecciones
- Trabajos Fin de Grado UVa [30023]
Ficheros en el ítem
La licencia del ítem se describe como Attribution-NonCommercial-NoDerivatives 4.0 Internacional