OpenAI ha firmado un acuerdo estratégico con Broadcom para desarrollar chips personalizados destinados a acelerar sus modelos de lenguaje de nueva generación. Esta colaboración marca un cambio importante en la estrategia tecnológica de la compañía. Hasta ahora, el enfoque se centraba en el software, pero ahora se avanza hacia el control del hardware. El objetivo es reducir la dependencia de Nvidia y AMD, mejorar la eficiencia energética y escalar el rendimiento de sus sistemas de inteligencia artificial.
El desarrollo conjunto con Broadcom permitirá diseñar procesadores optimizados para cargas de trabajo masivas. Estos chips estarán preparados para entrenar modelos cada vez más complejos sin disparar el consumo eléctrico. La arquitectura incluirá enlaces ópticos avanzados y sistemas de red de alto rendimiento. Broadcom aportará su experiencia en infraestructura, mientras OpenAI mantendrá el control sobre el diseño y la integración con sus algoritmos.
El primer despliegue de estos sistemas está previsto para 2026, con una expansión progresiva hasta 2029. Esta hoja de ruta coincide con las declaraciones recientes de Sam Altman, quien sugirió que las grandes tecnológicas deberían apoyarse en TSMC para ampliar la capacidad de fabricación de semiconductores. La elección de Broadcom como socio responde a la necesidad de acelerar el desarrollo sin asumir los costes y riesgos de construir desde cero.
A diferencia de Google, Amazon, Microsoft o Meta, que ya fabrican sus propios chips, OpenAI ha optado por una vía intermedia. El acuerdo con Broadcom permite ahorrar tiempo y recursos, sin renunciar al control sobre el rendimiento. Esta estrategia busca garantizar que el hardware se adapte a las necesidades específicas de sus modelos, integrando directamente lo aprendido en el desarrollo de productos anteriores.
El impacto de este movimiento será notable. Se espera una menor dependencia de las GPU de Nvidia y AMD, lo que aliviará cuellos de botella en la cadena de suministro. También se prevé una mejora en la eficiencia energética, lo que reducirá los costes de entrenamiento. Además, se facilitará la escalabilidad, permitiendo entrenar modelos más grandes y gestionar mayores volúmenes de datos.
Diseñar chips personalizados no es tarea sencilla. Requiere años de investigación, inversiones millonarias y una coordinación estrecha entre equipos de hardware y software. La integración debe ser perfecta para que los nuevos procesadores funcionen con los modelos actuales y futuros. OpenAI afirma que esta iniciativa permitirá desplegar hasta 10 gigavatios de aceleradores de IA propios, lo que representa una infraestructura sin precedentes en el sector, similar al acuerdo con NVIDIA de hace unos meses o el más reciente de 6 gigavatios con AMD de hace apenas una semana.
El acuerdo con Broadcom también refuerza la sostenibilidad a largo plazo. Al controlar su base tecnológica, OpenAI podrá innovar con mayor agilidad y adaptar sus sistemas a las exigencias del mercado. Según la compañía, esta colaboración desbloqueará nuevas capacidades y niveles de inteligencia que no serían posibles con soluciones genéricas.
La noticia llega en un momento clave, cuando la competencia por el liderazgo en inteligencia artificial se intensifica. El desarrollo de chips específicos se ha convertido en un factor diferencial. Este paso posiciona a OpenAI en una trayectoria más independiente, con una infraestructura diseñada a medida para sus ambiciones.





