<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet type="text/xsl" href="static/style.xsl"?><OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd"><responseDate>2026-05-05T20:26:27Z</responseDate><request verb="GetRecord" identifier="oai:uvadoc.uva.es:10324/29137" metadataPrefix="qdc">https://uvadoc.uva.es/oai/request</request><GetRecord><record><header><identifier>oai:uvadoc.uva.es:10324/29137</identifier><datestamp>2021-06-23T11:18:35Z</datestamp><setSpec>com_10324_1165</setSpec><setSpec>com_10324_931</setSpec><setSpec>com_10324_894</setSpec><setSpec>col_10324_1337</setSpec></header><metadata><qdc:qualifieddc xmlns:qdc="http://dspace.org/qualifieddc/" xmlns:doc="http://www.lyncode.com/xoai" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:dc="http://purl.org/dc/elements/1.1/" xsi:schemaLocation="http://purl.org/dc/elements/1.1/ http://dublincore.org/schemas/xmls/qdc/2006/01/06/dc.xsd http://purl.org/dc/terms/ http://dublincore.org/schemas/xmls/qdc/2006/01/06/dcterms.xsd http://dspace.org/qualifieddc/ http://www.ukoln.ac.uk/metadata/dcmi/xmlschema/qualifieddc.xsd">
<dc:title>Hacia una biblioteca BLAS realmente portable entre diferentes tipos de aceleradores</dc:title>
<dc:creator>Rodríguez Gutiez, Eduardo</dc:creator>
<dc:creator>González Escribano, Arturo</dc:creator>
<dc:creator>Llanos Ferraris, Diego Rafael</dc:creator>
<dcterms:abstract>Las rutinas de álgebra lineal BLAS son ampliamente utilizadas en aplicaciones científicas de&#xd;
todo tipo. Existen implementaciones específicamente optimizadas para diferentes tipos de plataformas de cómputo incluyendo aceleradores. Por ejemplo, la implementación contenida en la biblioteca Intel MKL, aparte de ejecutarse en CPUs, incluye versiones para Xeon Phi, mientras que la biblioteca cuBLAS está especialmente dise~nada para GPUs de NVIDIA.&#xd;
Sin embargo, los mecanismos para gestionar la memoria utilizada por las estructuras de datos sobre las que se realiza el computo son diferentes en cada implementación, así como algunos mecanismos relacionados con las llamadas y el paso de parámetros. En este artículo presentamos una interfaz única para BLAS, integrada en un modelo de programación heterogénea (Controllers) que soporta grupos de núcleos de CPU, aceleradores Xeon Phi o GPUs de NVIDIA de forma transparente para el programador. Con esta propuesta es posible construir programas portables basados en rutinas BLAS, que se ejecutan en diferentes tipos de aceleradores cambiando simplemente un parámetro de inicialización. Nuestra propuesta&#xd;
explota internamente la biblioteca específica para cada tipo de dispositivo. Las diferencias en sus interfaces y en los mecanismos externos para gestionar la memoria de los dispositivos, minimizando transferencias, son transparentes para el programador. Los resultados experimentales muestran que nuestra abstracción no introduce pérdidas de rendimiento significativas.</dcterms:abstract>
<dcterms:dateAccepted>2018-03-17T16:53:18Z</dcterms:dateAccepted>
<dcterms:available>2018-03-17T16:53:18Z</dcterms:available>
<dcterms:created>2018-03-17T16:53:18Z</dcterms:created>
<dcterms:issued>2017</dcterms:issued>
<dc:type>info:eu-repo/semantics/conferenceObject</dc:type>
<dc:identifier>Jornadas SARTECO, XXVIII Jornadas de Paralelismo 2017, Málaga, septiembre 2017</dc:identifier>
<dc:identifier>http://uvadoc.uva.es/handle/10324/29137</dc:identifier>
<dc:language>spa</dc:language>
<dc:rights>info:eu-repo/semantics/openAccess</dc:rights>
<dc:rights>http://creativecommons.org/licenses/by/4.0/</dc:rights>
<dc:rights>Sus autores</dc:rights>
<dc:rights>Attribution 4.0 International</dc:rights>
<dc:publisher>Universidad de Málaga</dc:publisher>
</qdc:qualifieddc></metadata></record></GetRecord></OAI-PMH>