模型本身的类型也会对模型加速的潜力有影响,一个非常不严谨的大致印象是:加速潜力上卷积神经网络(CNN)> 循环神经网络(RNN)> 强化学习(RL)。CNN 由于每一层的卷积核(神经元)都可以并行计算,相对比较容易利用 GPU 的并行计算能力来加速,可以达到非常明显的加速效果。RNN 因为存在时间依赖的序列结构,很多运算必须顺序进行,因此 GPU 并行计算带来的性能提升相对较少。RL 不仅存在时间依赖的序列结构,还要频繁和环境交互(环境往往是基于 CPU 的模拟器),GPU 带来的提升就更为有限。由于 CPU 和 GPU 之间的切换本身需要耗费资源,有些时候使用 GPU 进行强化学习反而在性能上明显不如 CPU,尤其是一些模型本身较小而交互又特别频繁的场景(比如多智能体强化学习)。
详细解决方案
相关解决方案