Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124

La nueva Radeon AI PRO R9700 de AMD ofrece 2x más rendimiento en IA y 4x más TOPS que la W7800. Ideal para modelos avanzados y cargas locales.
La inteligencia artificial sigue ampliando horizontes, y con ella crecen las demandas de cálculo que enfrentamos. Ante este contexto, exploramos a fondo la Radeon AI PRO R9700 de AMD, un modelo diseñado para responder a las necesidades de cargas locales exigentes.
Esta GPU se basa en la arquitectura RDNA 4 y emplea un nodo de 4 nm. Incorpora 64 unidades de cómputo, 4096 procesadores stream y 128 aceleradores de IA. Dispone de 32 GB de VRAM GDDR6 y un ancho de banda de 640 GB/s, lo que permite ejecutar modelos como DeepSeek R1 32B o Mistral 24B sin limitar la velocidad de proceso.
En tareas de IA, AMD comunica que esta tarjeta alcanza 191,4 TFLOPs en FP16 y 1531 TOPS en INT4 con sparsity. Esto supone el doble de rendimiento respecto a la Radeon PRO W7800 y hasta cinco veces más velocidad frente a la RTX 5080 en modelos que requieren más de 16 GB de VRAM. Según AMD, esta diferencia tiene impacto directo en resultados como generación de imágenes o tareas de razonamiento con modelos de gran tamaño.

La GPU admite configuraciones multi-GPU con plataformas PCIe 5.0, lo cual permite escalar hasta 128 GB de memoria efectiva. Esto amplía las posibilidades al trabajar con modelos como Mistral 123B o DeepSeek R1 70B, que superan los 112 GB de consumo de VRAM.
El soporte para instrucciones WMMA y sparsity estructurada optimiza las operaciones matriciales, claves en cargas de inferencia. Además, la integración con ROCm 7 refuerza la compatibilidad con entornos profesionales.
Se espera que la Radeon AI PRO R9700 esté disponible a partir de julio a través de distribuidores como ASUS, ASRock o Sapphire, en diseño de doble ranura con refrigeración tipo blower.
Desde nuestra perspectiva, esta tarjeta representa un avance técnico relevante para entornos de trabajo que exigen fiabilidad y rendimiento continuo. Observamos con atención su lanzamiento y futuras pruebas. ¿Estaremos ante un nuevo estándar para la IA local?