CUDA
Tutorial
参见此篇教程
Helloworld
|
|
核函数与 c++ 函数的区别:
- 必须加
__global__
限定; - 返回类型必须是空类型
void
。
|
|
调用核函数的方式:
|
|
主机在调用一个核函数时,必须指明在设备中指派多少线程。核函数中的线程常组织为若干线程块:
- 三括号中第一个数字是线程块的个数(number of thread block);
- 三括号中第二个数字是每个线程块中的线程数(number of thread in per block)。
一个核函数的全部线程块构成一个网格(grid),线程块的个数称为网格大小(grid size)。
每个线程块中含有相同数目的线程,该数目称为线程块大小(block size)。
所以,核函数的总的线程数即 网格大小$*$线程块大小:
|
|
调用核函数后,调用 CUDA 运行时 API 函数,同步主机和设备:
|
|
核函数中调用输出函数,输出流是先存放在缓冲区的,而缓冲区不会自动刷新。
CUDA线程组织
核函数的总线程数必须至少等于计算核心数时才有可能充分利用 GPU 的全部计算资源。
|
|
网格大小是2,线程块大小是4,总线程数即8。核函数中代码的执行方式是 “单指令-多线程”,
即每个线程执行同一串代码。
从开普勒架构开始,最大允许的线程块大小是 2^10 (1024),最大允许的网格大小是 2^31 - 1(一维网格)。
线程总数可以由两个参数确定:
- gridDim.x, 即网格大小;
- blockDim.x, 即线程块大小;
每个线程的身份可以由两个参数确定:
- blockIdx.x, 即一个线程在一个网格中的线程块索引,[0, gridDm.x);
- threadIdx.x, 即一个线程在一个线程块中的线程索引,[0, blockDim.x);
网格和线程块都可以拓展为三维结构(各轴默认为 1):
- 三维网格 grid_size(gridDim.x, gridDim.y, gridDim.z);
- 三维线程块 block_size(blockDim.x, blockDim.y, blockDim.z);
相应的,每个线程的身份参数:
- 线程块ID (blockIdx.x, blockIdx.y, blockIdx.z);
- 线程ID (threadIdx.x, threadIdx.y, threadIdx.z);
多维网格线程在线程块上的 ID;
|
|
多维网格线程块在网格上的 ID:
|
|
一个线程块中的线程还可以细分为不同的 线程束(thread warp),即同一个线程块中
相邻的 warp_size 个线程(一般为 32)。
对于从开普勒架构到图灵架构的 GPU,网格大小在 x, y, z 方向的最大允许值为 (2^31 - 1, 2^16 - 1, 2^16 -1);
线程块大小在 x, y, z 方向的最大允许值为 (1024, 1024, 64),同时要求一个线程块最多有 1024 个线程。
NVCC编译
nvcc 会先将全部源代码分离为 主机代码 和 设备代码;主机代码完整的支持 C++ 语法,而设备代码只部分支持C。
nvcc 会先将设备代码编译为 PTX(parrallel thread execution)伪汇编代码,再将其编译为二进制 cubin目标代码。
在编译为 PTX 代码时,需要选项 -arch=compute_XY
指定一个虚拟架构的计算能力;在编译为 cubin 代码时,
需要选项 -code=sm_ZW
指定一个真实架构的计算能力,以确定可执行文件能够使用的 GPU。
真实架构的计算能力必须大于等于虚拟架构的计算能力,例如:
|
|
CUDA程序框架
单源文件 CUDA 程序基本框架
对于单源文件的 cuda 程序,基本框架为:
|
|
CUDA 核函数的要求:
- 返回类型必须是
void
,但是函数中可以使用return
(但不可以返回任何值); - 必须使用限定符
__glolbal__
,也可以加上 c++ 限定符; - 核函数支持 c++ 的重载机制;
- 核函数不支持可变数量的参数列表,即参数个数必须确定;
- 一般情况下,传给核函数的数组(指针)必须指向设备内存(“统一内存编程机制”除外);
- 核函数不可成为一个类的成员(一般以包装函数调用核函数,将包装函数定义为类成员);
- 在计算能力3.5之前,核函数之间不能相互调用;之后,通过“动态并行”机制可以调用;
- 无论从主机调用还是从设备调用,核函数都在设备中执行(“«<,»>”指定执行配置)。
自定义设备函数
核函数可以调用不带执行配置的自定义函数,即 设备函数。
设备函数在设备中执行、在设备中被调用;而核函数在设备中执行、在主机中被调用。
__global__
修饰的函数称为核函数,一般由主机调用、在设备中执行;__device__
修饰的函数称为设备函数,只能被核函数或其他设备函数调用、在设备中执行;__host__
修饰主机段的普通 c++ 函数,在主机中被调用、在主机中执行,一般可以省略;- 可以同时用
__host__
和__device__
修饰函数,从而减少代码冗余,此时编译器将 分别在主机和设备上编译该函数; - 不能同时用
__global__
和__device__
修饰函数; - 不能同时用
__global__
和__host__
修饰函数; - 可以通过
__noinline__
建议编译器不要将一个设备函数当作内联函数; - 可以通过
__forceinline__
建议编译器将一个设备函数当作内联函数。
设备函数可以有返回值。
错误检测
Runtime
定义检查 cuda 运行时 API 返回值 cudaError_t
的宏函数。
|
|
因为核函数没有返回值,所以无法直接检查核函数错误。间接的方法是,在调用核函数后执行:
|
|
Memory
CUDA 提供了 CUDA-MEMCHECK 的工具集,包括 memcheck, racecheck, initcheck, synccheck.
|
|
对于 memcheck 工具,可以简化为:
|
|
计时
|
|
影响GPT加速的关键因素
- 减少主机与设备之间的数据传输所花时间的占比
- 提高并行计算占比
- 核函数的并行规模
CUDA math library
https://docs.nvidia.com/cuda/cuda-math-api/index.html
Memory
CUDA 中的内存类型有:全局内存、常量内存、纹理内存、寄存器、局部内存、共享内存。 CUDA 的内存,即设备内存,主机无法直接访问。
非数组对象复制不需要取址
全局内存
核函数所有线程可以访问的内存,可读可写,由主机端分配释放
cudaMalloc
动态分配/释放
静态全局内存变量:
|
|
- 核函数中可以直接访问静态全局内存变量,不必以参数形式传给核函数;
- 主机中不可以直接访问静态全局内存变量,可以通过
cudaMemcpyToSymbol()
和cudaMemcpyFromSymbol()
调用。
全局内存访问速度最低,是性能瓶颈
合并与非合并访问
合并度,即线程束请求的字节数与由此导致的所有内存事务中所传输的字节数之比。 如果所有数据传输处理的数据都是线程束所需要的,则合并度为 100%,即 合并访问; 否则,即为 非合并访问。
常量内存
64KB
,具有缓存,可读不可写,使用常量内存的方法:一是在核函数外定义常量内存变量;二是向核函数传递常量参数
纹理内存(texture memory)
可以将某些只读的全局内存数据用__ldg()
函数通过只读数据缓存读取
寄存器
一个寄存器占 32b(4字节),一个双精度浮点数占 2个寄存器
局部内存
每个线程512kb
,是全局内存的一部分
共享内存
__shared__
位于片上,读写速度快,对于整个线程块可见,目的是减少对全局内存的访问
共享内存是一种可以被程序员直接操作的缓存,主要作用有两个:
- 减少核函数中对全局内存的访问次数,实现高效的线程块内部的通信;
- 提高全局内存访问的合并度。
通过 __syncthreads()
实现一个线程块中所有线程按照代码出现的顺序执行指令
利用共享内存进行线程块之间的合作(通信)之前,都要进行同步,以确保共享内存变量中数据对于所有线程块内的
所有线程都是准备好的。
共享内存在物理上被分为32个同样宽度(开普勒架构为 8 字节,其他为 4 字节)、能被同时访问的列向内存bank。
SM
一个 GPU 由多个 SM(流多处理器)构成,一个 SM 包含如下资源:
- 一定数量的寄存器;
- 一定数量的共享内存;
- 常量内存的缓存;
- 纹理内存的缓存;
- L1 缓存;
- 两个或四个线程束调度器,用于在不同线程上下文间迅速切换,及为准备就绪的线程束发出执行指令;
- 执行核心。
一般来说,要尽量让 SM 的占有率不小于某值(如 25%),才有可能获得较高的性能。
- 一个 SM 中最多拥有的线程块个数 Nb=16(开普勒和图灵架构)或 Nb=32(麦克斯韦、帕斯卡和伏特架构);
- 一个 SM 中最多拥有的线程格式为 Nt=1028(图灵架构)或 Nt=2048(开普勒到伏特架构)。
在线程块中,每 32 个连续线程为一个 线程束。 SM 中线程的执行是以线程束为单位的,所以最好将线程块大小取为线程束大小(32个线程)的整数倍(如 128).