Por favor, use este identificador para citar o enlazar este ítem:https://uvadoc.uva.es/handle/10324/75761
Título
Rendimiento, eficiencia y consumo energético de frameworks de entrenamiento para Deep Learning
Autor
Congreso
XXXV Jornadas de Paralelismo
Año del Documento
2025
Editorial
Universidad de Sevilla
Descripción Física
10 p.
Descripción
Producción Científica
Documento Fuente
XXXV Jornadas de Paralelismo (JP2025), Sevilla, Spain.
Resumen
El entrenamiento de modelos de Deep Learning es una tarea computacionalmente exigente, con costes significativos en términos de tiempo, recursos y consumo energético. A medida que estos modelos crecen en complejidad y tamaño, la elección del framework adecuado se vuelve un factor clave para optimizar su eficiencia. Existen múltiples frameworks, como TensorFlow, PyTorch y JAX, además de librerías como Keras, ampliamente utilizadas en la comunidad de Deep Learning. En este análisis comparamos su rendimiento y eficiencia en tres tipos de redes: perceptrones multicapa, convolucionales y de memoria a corto y largo plazo (LSTM). Se evalúan métricas como el tiempo de entrenamiento y prueba, el uso de memoria en GPU y el consumo energético total y por hora. Los resultados muestran que PyTorch sin Keras logra los tiempos de entrenamiento más bajos, especialmente en la red LSTM. JAX mantiene un equilibrio entre rendimiento y consumo energético, destacando con Keras. En general, el uso de Keras tiende a disminuir el consumo por hora, pero aumenta el tiempo de entrenamiento, especialmente en PyTorch. TensorFlow, en general, presenta los tiempos más altos, aunque con un consumo energético por hora menor en MLP y CNN. Estos hallazgos destacan la influencia del framework en la eficiencia del entrenamiento, evidenciando la necesidad de elegir el más adecuado según el tipo de red y los recursos disponibles.
Materias (normalizadas)
Informática
Materias Unesco
1203 Ciencia de Los Ordenadores
3304 Tecnología de Los Ordenadores
Palabras Clave
Deep Learning, framework, Tensor Flow, PyTorch, JAX, Keras, eficiencia, GPU.
Patrocinador
El presente trabajo ha sido financiado en parte por el proyecto NATASHA (PID2022-142292NB-I00), del Ministerio de Ciencia, Innovación y Universidades de España.
Version del Editor
Idioma
spa
Tipo de versión
info:eu-repo/semantics/publishedVersion
Derechos
openAccess
Aparece en las colecciones
Ficheros en el ítem
Nombre:
Tamaño:
1.082Mb
Formato:
Adobe PDF