El CES 2026 dejó claro que la IA se llevó cada mirada porque el sector entró en una fase donde la computación deja de ser un soporte y pasa a ser el motor central de cualquier avance. Observamos un cambio profundo: el foco ya no está en entrenar modelos gigantes, sino en desplegarlos en entornos físicos, agentes autónomos y sistemas capaces de razonar. Este giro exige infraestructuras más potentes, flexibles y escalables, y por eso las presentaciones de NVIDIA y AMD marcaron el ritmo del evento.
La plataforma Vera Rubin de NVIDIA simbolizó el salto más ambicioso. El Rubin GPU, con cientos de miles de millones de transistores, mostró un nivel de integración que supera cualquier generación previa. El Vera CPU acompañó este avance con una arquitectura diseñada para cargas intensivas de inferencia y coordinación entre nodos. La presencia del NVLINK 6 Switch reforzó la idea de un ecosistema cohesionado, capaz de mover datos a velocidades que permiten entrenar modelos avanzados sin cuellos de botella. La IA se llevó la conversación porque esta plataforma multiplica por cinco el rendimiento de Blackwell en NVFP4 y aumenta la producción de tokens en entornos MoE hasta diez veces respecto a GB200. Este salto no solo impresiona por cifras, sino por la rapidez con la que la arquitectura alcanzó producción completa. La empresa logró un ciclo de nueve meses desde diseño hasta validación, algo que altera la dinámica competitiva del sector.
NVIDIA reforzó su presencia con un mensaje claro: la infraestructura define el futuro. La compañía mostró cómo el rack NVL72 basado en Rubin reduce el número de GPUs necesarias para entrenar modelos avanzados y aumenta la eficiencia energética. La idea de un sistema que funciona como una unidad única, optimizada para cargas masivas, marcó una diferencia respecto a propuestas más modulares. La IA se llevó también este debate porque la empresa presentó un camino donde la integración total permite acelerar despliegues y reducir complejidad operativa.
AMD respondió con Helios, un rack que busca resolver problemas reales de escalabilidad y compatibilidad. La estructura basada en el estándar Open Rack Wide introduce una anchura interna de 21 pulgadas que permite colocar bandejas Instinct MI455X sin restricciones. El diseño de doble marco crea un flujo de aire laminar que mejora la refrigeración y permite densidades mayores sin comprometer estabilidad. El busbar vertical de 48V simplifica la alimentación de nodos y reduce la complejidad del cableado. Este enfoque modular facilita que grandes operadores integren Helios en centros de datos existentes sin rediseñar instalaciones. La IA se llevó esta parte del evento porque Helios ofrece una alternativa que combina potencia, flexibilidad y compatibilidad con sistemas en funcionamiento.
El corazón de Helios reside en su capacidad de escalar. Con 2.9 exaflops de rendimiento, 31 TB de memoria HBM4 y más de cuatro mil núcleos Zen 6, el rack se posiciona como una opción sólida para cargas de entrenamiento y despliegue. La integración con UALink permite conectar nodos con baja latencia y alta capacidad, lo que refuerza su atractivo para quienes buscan infraestructuras abiertas. La sensación general fue que AMD presentó un sistema que compite de forma directa con soluciones monolíticas, pero con una filosofía más adaptable.
NVIDIA amplió su presencia con Alpamayo, una propuesta que abre la autonomía vehicular mediante modelos, simuladores y conjuntos de datos accesibles. La idea de permitir que vehículos razonen con criterios similares a los humanos, con transparencia y trazabilidad, marca un cambio profundo. Alpamayo impulsa el desarrollo hacia niveles avanzados de conducción automatizada y facilita la validación regulatoria gracias a su carácter abierto. La IA se llevó este segmento porque convierte la autonomía en un campo más colaborativo y menos dependiente de sistemas cerrados.
AMD cerró su participación con Ryzen AI Halo, un dispositivo de borde que busca democratizar la computación avanzada. El equipo integra CPU Zen 5, GPU RDNA 3.5 y NPU XDNA 2, lo que permite ejecutar modelos complejos sin depender de grandes servidores. La compatibilidad con ROCm y aplicaciones populares refuerza su utilidad en flujos de trabajo reales. La incógnita del precio sigue abierta, pero la expectativa apunta a una cifra inferior a la de alternativas previas, lo que ampliaría su alcance.
El CES 2026 dejó claro que la IA se llevó el liderazgo absoluto en innovación. Las presentaciones mostraron un sector que avanza hacia infraestructuras más rápidas, racks más inteligentes y sistemas abiertos que transforman industrias enteras. La sensación final es que entramos en una etapa donde la computación se convierte en el motor de cada avance y donde la competencia entre gigantes impulsa un ritmo que redefine lo posible





