dc.contributor.author | Cortés Jiménez, Gustavo | |
dc.contributor.author | Castro Caballero, Manuel De | |
dc.contributor.author | Bregón Bregón, Aníbal | |
dc.contributor.author | Martínez Prieto, Miguel Angel | |
dc.contributor.author | Llanos Ferraris, Diego Rafael | |
dc.date.accessioned | 2025-05-16T08:18:51Z | |
dc.date.available | 2025-05-16T08:18:51Z | |
dc.date.issued | 2025 | |
dc.identifier.citation | XXXV Jornadas de Paralelismo (JP2025), Sevilla, Spain. | es |
dc.identifier.uri | https://uvadoc.uva.es/handle/10324/75761 | |
dc.description | Producción Científica | es |
dc.description.abstract | El entrenamiento de modelos de Deep Learning es una tarea computacionalmente exigente, con costes significativos en términos de tiempo, recursos y consumo energético. A medida que estos modelos crecen en complejidad y tamaño, la elección del framework adecuado se vuelve un factor clave para optimizar su eficiencia. Existen múltiples frameworks, como TensorFlow, PyTorch y JAX, además de librerías como Keras, ampliamente utilizadas en la comunidad de Deep Learning. En este análisis comparamos su rendimiento y eficiencia en tres tipos de redes: perceptrones multicapa, convolucionales y de memoria a corto y largo plazo (LSTM). Se evalúan métricas como el tiempo de entrenamiento y prueba, el uso de memoria en GPU y el consumo energético total y por hora. Los resultados muestran que PyTorch sin Keras logra los tiempos de entrenamiento más bajos, especialmente en la red LSTM. JAX mantiene un equilibrio entre rendimiento y consumo energético, destacando con Keras. En general, el uso de Keras tiende a disminuir el consumo por hora, pero aumenta el tiempo de entrenamiento, especialmente en PyTorch. TensorFlow, en general, presenta los tiempos más altos, aunque con un consumo energético por hora menor en MLP y CNN. Estos hallazgos destacan la influencia del framework en la eficiencia del entrenamiento, evidenciando la necesidad de elegir el más adecuado según el tipo de red y los recursos disponibles. | es |
dc.format.extent | 10 p. | es |
dc.format.mimetype | application/pdf | es |
dc.language.iso | spa | es |
dc.publisher | Universidad de Sevilla | es |
dc.rights.accessRights | info:eu-repo/semantics/openAccess | es |
dc.subject | Informática | es |
dc.subject.classification | Deep Learning, framework, Tensor Flow, PyTorch, JAX, Keras, eficiencia, GPU. | es |
dc.title | Rendimiento, eficiencia y consumo energético de frameworks de entrenamiento para Deep Learning | es |
dc.type | info:eu-repo/semantics/conferenceObject | es |
dc.identifier.doi | 10.5281/zenodo.15430231 | es |
dc.relation.publisherversion | https://www.researchgate.net/publication/391783092_Rendimiento_eficiencia_y_consumo_energetico_de_frameworks_de_entrenamiento_para_Deep_Learning | es |
dc.title.event | XXXV Jornadas de Paralelismo | es |
dc.description.project | El presente trabajo ha sido financiado en parte por el proyecto NATASHA (PID2022-142292NB-I00), del Ministerio de Ciencia, Innovación y Universidades de España. | es |
dc.type.hasVersion | info:eu-repo/semantics/publishedVersion | es |
dc.subject.unesco | 1203 Ciencia de Los Ordenadores | es |
dc.subject.unesco | 3304 Tecnología de Los Ordenadores | es |