Akamai implementa a escala global una red de inteligencia artificial distribuida en más de 4.400 puntos

Akamai implementa a escala global una red de inteligencia artificial distribuida en más de 4.400 puntos
Akamai implementa a escala global una red de inteligencia artificial distribuida en más de 4.400 puntos

En un movimiento que busca redefinir cómo se procesa la inteligencia artificial en el mundo, Akamai Technologies ha anunciado la implementación global de su plataforma AI Grid Intelligent Orchestration. Esta iniciativa representa la primera puesta en marcha a gran escala del diseño de referencia NVIDIA® AI Grid y tiene como objetivo distribuir las cargas de trabajo de IA de manera inteligente a través de su vasta red de más de 4.400 ubicaciones edge en todo el planeta.

La solución, llamada Akamai Inference Cloud, funciona orquestando las tareas de inferencia de IA entre infraestructuras regionales y centrales en el edge. Su principal innovación radica en su capacidad para equilibrar automáticamente tres variables críticas: la latencia, el costo y el rendimiento. Según la compañía, el verdadero desafío no reside en construir más centros de datos masivos y aislados para IA, sino en llevar el poder de procesamiento hasta el último punto de contacto con el usuario final, replicando la arquitectura descentralizada que en su momento revolucionó la entrega de contenido web.

“Los centros de IA se han diseñado específicamente para el entrenamiento de modelos, y esa infraestructura centralizada seguirá siendo crucial para esos casos de uso”, explicó Adam Karon, director de operaciones de Akamai. “Sin embargo, para la inferencia —el momento en que el modelo ya entrenado responde a una petición del usuario—, la proximidad es clave. Estamos transitando de fábricas de IA aisladas hacia una red unificada y distribuida, similar a una utilidad pública”.

La plataforma ya está demostrando su eficacia en sectores donde cada milisegundo cuenta. En la industria del gaming, por ejemplo, ha logrado tiempos de inferencia por debajo de los 50 milisegundos, un factor esencial para experiencias interactivas en tiempo real. Otros campos que ya se benefician incluyen servicios financieros, medios de comunicación, streaming de video y comercio minorista, donde la capacidad de procesar datos de IA cerca del cliente mejora la personalización y la velocidad de respuesta.

El respaldo tecnológico de esta red distribuida son miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, que Akamai está desplegando en sus nodos. Este hardware de última generación permite a las empresas ejecutar aplicaciones de IA complejas, incluyendo agentes inteligentes y simulaciones con física, combinando la capacidad de respuesta de la computación local con la escala masiva de la web global.

La apuesta de Akamai por este nuevo paradigma viene respaldada por un contrato inicial de 200 millones de dólares a cuatro años con uno de los principales proveedores de tecnología a nivel mundial, lo que señala la confianza del mercado en este modelo. La implementación de AI Grid marca un hito en la evolución de la infraestructura de IA, sugiriendo que el futuro no estará concentrado en unos cuantos ‘hiperescaladores’, sino diseminado de manera inteligente en una red global al borde de la red, más cerca que nunca del usuario final.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.