PyTorch 2.9 amplía el soporte de hardware con AMD ROCm, Intel XPU y mejoras en Arm, ofreciendo mejor programación multi-GPU y optimizaciones de rendimiento para desarrolladores de IA.
PyTorch 2.9 mejora el soporte de hardware para AMD ROCm, Intel XPU y Arm, mejorando el despliegue de modelos de IA en diversos ecosistemas.
PyTorch 2.9 introduce soporte de wheel para AMD ROCm, Intel XPU y NVIDIA CUDA 13, con ABI estable para extensiones y Memoria Simétrica para programación multi-GPU. Los desarrolladores se benefician de la integración de APIs y SDKs de IA.
FlexAttention soporta GPUs Intel, la decodificación flash optimiza los backends de CPU, y torch.compile ofrece un mejor manejo de errores. Útil para flujos de trabajo de perfilado de rendimiento.
PyTorch 2.9 democratiza el hardware para ML con soporte para AMD ROCm, Intel XPU y Arm, mejorando la hospedaje de modelos de IA y la flexibilidad de despliegue.
PyTorch 2.9 añade soporte integral para AMD ROCm, Intel XPU y NVIDIA CUDA 13, además de optimizaciones mejoradas para procesadores Arm para una mayor compatibilidad de hardware.
La Memoria Simétrica simplifica el desarrollo de núcleos multi-GPU al permitir una programación eficiente a través de NVLinks y redes de acceso directo a memoria remota para un mejor rendimiento.
La actualización trae soporte para FlexAttention en GPU Intel, optimización de decodificación flash para CPU y manejo de errores mejorado en torch.compile para mejores flujos de trabajo de desarrollo.
La ABI estable de libtorch garantiza una mejor compatibilidad para extensiones de C++ y CUDA de terceros, facilitando la integración y el mantenimiento de extensiones personalizadas.
La decodificación flash con FlexAttention mejora el paralelismo para el procesamiento de secuencias clave-valor en backends de CPU, aumentando la eficiencia para ciertos modelos.