Mostrar el registro sencillo del ítem

dc.contributor.advisorTorres de la Sierra, Yuri es
dc.contributor.advisorGonzález Escribano, Arturo es
dc.contributor.authorTaboada Rodero, Ismael José
dc.contributor.editorUniversidad de Valladolid. Escuela Técnica Superior de Ingeniería Informática es
dc.date.accessioned2018-12-03T19:28:22Z
dc.date.available2018-12-03T19:28:22Z
dc.date.issued2018
dc.identifier.urihttp://uvadoc.uva.es/handle/10324/33256
dc.description.abstractLa computación paralela ha adquirido importancia significativa en diversos campos de la ciencia y la tecnología, presente en el incremento de trabajos de investigación donde se consigue mejorar el rendimiento del uso de los recursos de los diferentes dispositivos de un sistema. Estos trabajos son, como ejemplo, el entrenamiento de grandes redes neuronales dedicadas al aprendizaje profundo, las simulaciones de fluidos que exigen cada vez más precisión, o la creciente tendencia de uso de algoritmos paralelos para el minado de cripto-monedas. Actualmente, la programación paralela basa sus soluciones sobre todos los tipos de hardware existentes. La construcción de granjas de computación –como las presentes en la lista TOP 500–, la fabricación de unidades de proceso cada vez con mayor número de núcleos, el uso de unidades de computo gráfico –también conocidas como GPU– para cálculos genéricos (General-Purpose Computing on Graphics Processing Units ó GP-GPU) o el diseño de nuevos co-procesadores como Xeon Phi, muestran el amplio abanico de máquinas y dispositivos donde se realizan las ejecuciones de dichos programas. En particular, la diversidad de dispositivos GPU (compatibles con la computación de propósito general) hace que se deba implementar soluciones específicas pensando en los dispositivos donde va a ser ejecutadas. La programación de estos dispositivos necesita de unos conocimientos de alto nivel sobre la arquitectura y las librerías de desarrollo de cada dispositivo, las cuales se renuevan cada poco tiempo. Esta dificultad aumenta cuando se pretende explotar, de forma eficiente, los diferentes recursos hardware de un dispositivo. Este trabajo propone un modelo de programación que permite el solapamiento de operaciones de comunicación y computación en dispositivos GPU mejorando el rendimiento de las aplicaciones. Nuestro estudio experimental muestra que este modelo oculta, de forma automática y transparente para el usuario, el solapamiento de estas operaciones ahorrando esfuerzo de desarrollo al usuario. Con este modelo se obtiene hasta un 50% de mejora de rendimiento comparado con una implementación puramente secuencial.es
dc.format.mimetypeapplication/pdfes
dc.language.isospaes
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subject.classificationComputación de alto rendimiento (HPC)es
dc.subject.classificationTecnología CUDAes
dc.subject.classificationArquitectura GPUes
dc.titleSolapamiento transparente de tareas de comunicación y computación en dispositivos GPU CUDAes
dc.typeinfo:eu-repo/semantics/bachelorThesises
dc.description.degreeGrado en Ingeniería Informáticaes
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 International


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem