PyTorch 2.9 étend la prise en charge matérielle avec AMD ROCm, Intel XPU et des améliorations Arm, offrant une meilleure programmation multi-GPU et des optimisations de performances pour les développeurs d'IA.
PyTorch 2.9 améliore la prise en charge matérielle pour AMD ROCm, Intel XPU et Arm, améliorant le déploiement des modèles d'IA dans divers écosystèmes.
PyTorch 2.9 introduit la prise en charge des wheels pour AMD ROCm, Intel XPU et NVIDIA CUDA 13, avec une ABI stable pour les extensions et une mémoire symétrique pour la programmation multi-GPU. Les développeurs bénéficient de l'intégration des API et SDK d'IA.
FlexAttention prend en charge les GPU Intel, le décodage flash optimise les backends CPU, et torch.compile offre une meilleure gestion des erreurs. Utile pour les flux de travail de profilage de performance.
PyTorch 2.9 démocratise le matériel pour le ML avec le support d'AMD ROCm, Intel XPU et Arm, améliorant l'hébergement de modèles d'IA et la flexibilité du déploiement.
PyTorch 2.9 ajoute une prise en charge complète pour AMD ROCm, Intel XPU et NVIDIA CUDA 13, plus des optimisations améliorées pour les processeurs Arm pour une compatibilité matérielle élargie.
La Mémoire Symétrique simplifie le développement de noyaux multi-GPU en permettant une programmation efficace sur les NVLinks et les réseaux d'accès direct à la mémoire distante pour de meilleures performances.
La mise à jour apporte la prise en charge de FlexAttention sur les GPU Intel, l'optimisation du décodage flash pour les CPU et une gestion des erreurs améliorée dans torch.compile pour de meilleurs flux de travail de développement.
L'ABI stable de libtorch assure une meilleure compatibilité pour les extensions C++ et CUDA tierces, facilitant l'intégration et la maintenance des extensions personnalisées.
Le décodage flash avec FlexAttention améliore le parallélisme pour le traitement des séquences clé-valeur sur les backends CPU, augmentant l'efficacité pour certains modèles.