CUDA 20年来最大更新 芯片大神Jim Keller:NVIDIA在拆护城河
1 周前

2025年12月,NVIDIA推出CUDA 13.1,官方称其为自2006年CUDA平台问世以来最大、最全面的升级。此次更新引入革命性的CUDA Tile编程模型,将GPU编程提升至更高抽象层级。传统GPU编程基于SIMT模式,开发者需关注线程、内存和同步等底层细节,而CUDA Tile模型允许开发者专注于将数据组织成块(Tile)并执行计算,底层复杂工作由编译器和运行时自动处理。为支持Tile编程,CUDA 13.1引入虚拟指令集Tile IR,并发布cuTile工具,支持开发者使用Python编写基于Tile的GPU内核,极大降低了GPU编程门槛,使不熟悉传统CUDA C/C++或SIMT模型的数据科学家和研究者也能编写GPU加速代码。Tile编程并非取代SIMT,而是提供并存的可选路径,开发者可根据应用场景灵活选择。CUDA 13.1的意义不仅在于新增功能或优化性能,更在于为构建新一代高层、跨架构的GPU计算库和框架奠定基础。通过引入Tile IR和高层抽象,NVIDIA在硬件和软件之间增加中间层,使竞争对手依赖兼容层进行CUDA代码转译的难度增加,需构建同样智能的编译器处理Tile IR,这客观上提升了CUDA生态系统的粘性和用户锁定度。然而,芯片架构师Jim Keller认为,CUDA Tile编程模型可能打破NVIDIA长期构建的软件“护城河”。他指出,图块化方法在业内已广泛应用,如OpenAI支持的Triton框架,CUDA代码经此更新后更易移植到Triton,进而适配AMD等非NVIDIA硬件,为竞争对手提供潜在机会。不过,也有分析认为,虽然编程简化,但Tile IR仍深度绑定NVIDIA硬件语义,底层技术黑箱可能进一步强化其对开发生态的控制力,未必真正动摇其主导地位。