CUDA 编译相关
nvcc 编译过程
nvcc 编译分为两个阶段
首先将 .cu
编译为面向 虚拟架构 的 .ptx
代码 (stage1)
然后将 .ptx
编译为面向 实际架构 的 二进制代码 (stage2)
nvcc 编译分为两个阶段
首先将 .cu
编译为面向 虚拟架构 的 .ptx
代码 (stage1)
然后将 .ptx
编译为面向 实际架构 的 二进制代码 (stage2)
cupti : CUDA profiling tools interface
搭建面向 CUDA 应用的 profiling 和 tracing 工具
CUDA dynamic parallelism : CDP
CUPTI 提供四种 API :
CUPTI 在第一次调用 CUPTI 函数时懒惰初始化cuptiSubscribe()
: 最先调用,防止多个 CUPTI client 互相干扰
目前理解:CUPTI 分为 用户端 和 服务端, 服务端记录 CUDA 设备和 CPU 上产生的事件 CUpti_Activity
,储存在 用户端提供的 Activity Buffer 上
CUPTI 不保证 activity 在 activity buffer 中的顺序
用户端 调用 cuptiActivityFlushPeriod
和 cuptiActivityFlushAll
CUPTI 创建一个 worker thread,以减少对 application thread 的干扰
activate record : 记录事件,使用基类 CUpti_Activity
activity buffer : 将 activity record 从 CUPTI 转移到 client
使用 cuptiActivityEnable
或 cuptiActivityEnableContext
初始化
activity kind
一篇关于 GPU 虚拟化 的 survey 文章,发表于 ACM Computing Surveys
Background 里面一段比较有意思的话:
On the contrary, the design of conventional processors is optimized
for reducing the execution time of sequential code on each core, thus adding complexity
to each core at the cost of offering fewer cores in the processor package. Conventional
processors typically use sophisticated control logic and large cache memories to efficiently
deal with conditional branches, pipeline stalls, and poor data locality.
传统处理器的目标是尽可能加速每个核心的串行执行时间,因此每个核心有大量处理分支预测,流水线延迟,data locality 相关的资源。代价是核心数量较少
linux 将外设抽象为 /dev
下的文件,通过统一的文件读写接口访问外设
linux与外设通信:
managed memory : 使用 linux heterogeneous memory management (HMM), device 和 host 端可以以相同指针访问同一块内存
coherent memory : 可以在 kernel 运行时执行对 host 和其他 peer 可见的原子操作,通过不 cache 内存实现
non-coherent memory : device 端 cache 的内存,修改不实时可见
direct dispatch : runtime 直接将操作发送至 AQL 队列
device side malloc
HIP 支持两种 static lib: