PyTorch 2.9通过AMD ROCm、Intel XPU和Arm改进扩展硬件支持,为AI开发者提供更好的多GPU编程和性能优化。
PyTorch 2.9 增强了对 AMD ROCm、Intel XPU 和 Arm 的硬件支持,改进了 AI 模型在多样化生态系统中的部署。
PyTorch 2.9 引入了对 AMD ROCm、Intel XPU 和 NVIDIA CUDA 13 的 wheel 支持,提供了稳定的 ABI 用于扩展和用于多 GPU 编程的对称内存。开发者受益于 AI API 和 SDK 的集成。
FlexAttention 支持 Intel GPU,flash decoding 优化了 CPU 后端,torch.compile 提供了更好的错误处理。对于 性能分析 工作流很有用。
PyTorch 2.9 通过支持 AMD ROCm、Intel XPU 和 Arm,使 ML 硬件民主化,增强了 AI 模型托管 和部署灵活性。
PyTorch 2.9全面支持AMD ROCm、Intel XPU和NVIDIA CUDA 13,并增强Arm处理器优化以实现更广泛的硬件兼容性。
对称内存通过支持跨NVLink和远程直接内存访问网络的高效编程,简化了多GPU内核开发,以获得更好的性能。
此次更新在Intel GPU上提供FlexAttention支持,CPU的闪存解码优化,以及torch.compile中增强的错误处理,以改善开发工作流程。
稳定的libtorch ABI确保第三方C++和CUDA扩展具有更好的兼容性,使集成和维护自定义扩展更加容易。
通过FlexAttention的闪存解码增强了CPU后端上键值序列处理的并行性,提高了某些模型的效率。