摩尔线程公司近期正式揭晓了其面向PyTorch深度学习框架的MUSA扩展库新版本——Torch-MUSA v2.0.0。此次发布标志着摩尔线程在AI计算领域迈出了重要一步。
该新版本基于MUSA Compute Capability 3.1计算架构,带来了多项突破性升级。其中,最引人注目的是原生支持FP8数据类型。FP8作为一种前沿的低精度格式,对于大语言模型(LLM)的训练至关重要。在支持FP8的GPU上,采用FP8混合精度可以显著提升GPU的算力,并大幅降低显存占用。
摩尔线程的全功能GPU,凭借新一代MUSA Compute Capability 3.1计算架构,原生支持FP8计算。这一底层架构的优势为Torch-MUSA v2.0.0提供了坚实的基础,使其能够充分发挥FP8的计算效能,在大语言模型的训练和推理中展现出更高的效率。
除了对FP8的支持外,Torch-MUSA v2.0.0还引入了多项创新功能,以进一步提升深度学习任务的执行效率。其中包括新增的虚拟内存管理支持,该技术能够有效缓解GPU内存碎片化问题,并降低模型训练过程中的峰值内存占用。这对于FSDP、DeepSpeed和Megatron-LM等主流大模型训练框架来说,无疑是一个巨大的福音。
Torch-MUSA v2.0.0还新增了MUSA Graph支持。MUSA Graph技术将多个MUSA内核整合到一个图中,通过单次CPU调度大幅减少了启动开销,提升了计算效率。同时,该技术还与CUDA Graph接口高效兼容,为开发者提供了更多的选择和便利。
在性能优化方面,Torch-MUSA v2.0.0也取得了显著进展。通过多项针对MUSA计算平台的性能优化,该版本进一步提升了对AI模型和大规模数据处理的支持能力。这使得开发者能够在基于MUSA Compute Capability 3.1计算架构的全功能GPU上,无缝运行新版本的PyTorch,并享受更高效的性能表现。
Torch-MUSA v2.0.0不仅支持PyTorch 2.2.0,还新增了对PyTorch 2.5.0的支持。这意味着开发者可以更加灵活地选择适合自己项目的PyTorch版本,无需担心兼容性问题。
最后,Torch-MUSA v2.0.0已完全开源,开发者可以通过访问GitHub获取源代码。这一举措无疑将吸引更多的开发者参与到Torch-MUSA的生态建设中来,共同推动AI计算领域的发展。