当前位置: 代码迷 >> CUDA >> CUDA跟OpenCL异同点比较
  详细解决方案

CUDA跟OpenCL异同点比较

热度:610   发布时间:2016-04-29 10:44:18.0
CUDA和OpenCL异同点比较

CUDA和OpenCL异同点比较

 

一、概述

    对CUDA和opencl有一定的编程经验,但是细心的人可以发现,OPENCL就是仿照CUDA来做的。既然两个GPU的编程框架如此相像,那么他们究竟有什么不同呢?下面就一一道来。

 

二、数据并行的模型

OpenCL采用的数据并行模型就是采用CUDA的数据并行模型。下面的表格反应了CUDA和opencl并行模型之间的映射关系。

OpenCL

CUDA

Kernel函数

Kernel函数

主机程序

主机程序

N-DRange

网格

工作项

线程

工作组

线程块

 

    说道N-DRange、工作项和工作组,这里CUDA和opencl十分相似,甚至可以说是一样的,在设备端的程序中,CUDA主要是通过预定义的变量进行访问,而OpenCL是通过预定义的API访问。具体的比较如下表:

OPENCL

含义

CUDA

get_global_id(0)

工作项在X维度上的全局索引

blockIdx.x*blockDim.x+threadIdx.x

get_local_id(0)

工作项在工作组中X维度上的局部索引

threadIdx.x

get_global_size(0)

N-DRange中X维度的大小,即线程数量

gridDim.x*blockDim.x

get_local_size(0)

每个工作组X维度上的大小

blockDim.x

 

三、设备体系结构

 

    CUDA和OpenCL类似,都是异构并行计算系统。系统中有一台主机和一个或多个计算设备。关于计算设备,CUDA中叫做多喝流处理器(SM),而OpenCL中叫做计算单元(CU)。另外,在OpenCL中一个CU在CPU中相当于CPU的一个内核。

    另外,CUDA和OpenCL之间在内存模型上有一些相似的地方,也有一些不同的地方,具体见下表:

OpenCL存储器类型

主机访问

设备访问

CUDA存储器类型

全局存储器

动态分配;读写

不能分配;可以被所有的工作项访问,空间大;速度慢

全局存储器

常数存储器

动态分配;读写

静态分配,工作项只读

常数存储器

局部存储器

动态分配;不能访问

静态分配;同一个工作组的工作项访问

局部存储器

私有存储器

不能分配;不能访问

静态分配;每一个工作项可读写自己的部分

寄存器和局部存储器

 

    有几点不同的地方,OpenCL可以再主机端动态的分配常数存储器;OpenCL中的私有存储器对应于CUDA中的自动变量。

 

四、核函数以及启动

    OpenCL中核函数以__kernel开头,对应于CUDA中的__global__。另外,在程序编译方面,CUDA是先编译设备上的代码,然后执行;而OpenCL是在运行时编译。OpenCL启动核函数是通过运行时API调用的,而CUDA是直接通过函数名<<<dimGrid,dimBlock>>>启动的。最后,N-DRange(网格)配置有所不同,CUDA是在函数调用时夹在<<<和>>>之间的参数配置的;OpenCL是用调用clEnqueueNDRangeKernel函数时配置的。

 

五、最后

    CUDA和OpenCL之间十分相似,可以说学好一个之后很容易转到另外一个,推荐先学习CUDA,然后学习OpenCL。另外,还有什么不全的地方也希望大家多多指点!