


El futuro de la computación pasa por la inferencia local en móviles y portátiles, reduciendo la dependencia de centros de datos y mejorando la eficiencia. La IA en el borde puede ser parte importante de la gran revolución que vivimos.
Nos encontramos en un punto de inflexión en el desarrollo de la inteligencia artificial. La estrategia de AMD se centra en llevar la inferencia directamente a dispositivos personales como teléfonos y ordenadores, disminuyendo la necesidad de procesar datos en grandes centros. Este cambio responde a la evolución del mercado y a la demanda de soluciones más eficientes.
Mark Papermaster, director de tecnología de AMD, sostiene que el coste creciente del procesamiento en la nube está acelerando la migración de cargas de trabajo hacia la IA en el borde. Empresas como Microsoft, Meta y Google ya están reconsiderando sus modelos de negocio y buscan opciones para descentralizar el procesamiento de IA.
La clave de esta transformación radica en los procesadores avanzados capaces de ejecutar modelos de inteligencia artificial directamente en dispositivos personales. AMD ha desarrollado soluciones como Strix Point y Strix Halo, diseñadas para maximizar la inferencia local y ofrecer rendimiento sin comprometer el consumo energético. Estas tecnologías permiten ejecutar modelos sofisticados sin depender de infraestructuras externas.
Papermaster explica que la precisión y eficiencia de los modelos de IA están mejorando progresivamente, facilitando que dispositivos personales puedan asumir tareas avanzadas. A medida que las aplicaciones evolucionan, el uso de inferencia en el borde se convertirá en un estándar del sector.
El dominio de NVIDIA en el entrenamiento de modelos no se traduce en una ventaja definitiva en el futuro de la inteligencia artificial. AMD apuesta por la inferencia en dispositivos personales como una alternativa viable, ofreciendo una solución eficiente y accesible. Con este enfoque, la compañía busca redefinir el mercado y desafiar el liderazgo de sus competidores.