Akamai Technologies anunció la implementación a escala mundial del diseño de referencia NVIDIA AI Grid.
Tiene el objetivo de habilitar una infraestructura de IA distribuida que optimiza la ejecución de inferencias en tiempo real. Mediante un equilibrio entre latencia, costo y rendimiento.
La compañía informó que esta iniciativa forma parte de la evolución de Akamai Inference Cloud. La plataforma integra infraestructura de NVIDIA basada en GPU RTX PRO 6000 Blackwell Server Edition.
Y se apoya en una red global distribuida que permite procesar cargas de trabajo tanto en el núcleo como en el Edge. Acercando la computación al punto de interacción con el usuario.
El modelo se sustenta en una arquitectura unificada que combina capacidad de cómputo centralizada y procesamiento periférico.
A través de un coordinador inteligente, la plataforma gestiona en tiempo real asignación de recursos, optimizando la denominada ‘tokenómica’. Esta incluye variables como costo por token, tiempo de respuesta y rendimiento operativo.
Este enfoque permite dirigir cada carga de trabajo al entorno más adecuado según su demanda computacional.
“Los centros de IA se han diseñado específicamente para la formación y las cargas de trabajo de modelos de vanguardia, y la infraestructura centralizada seguirá ofreciendo los mejores resultados en términos de tokenómica para esos casos de uso. Sin embargo, el video en tiempo real, la IA física y las experiencias personalizadas altamente concurrentes exigen inferencia en el punto de contacto”, señaló Adam Karon, director de Operaciones y director general del Cloud Technology Group de Akamai.
Akamai y NVIDIA, una fórmula pura de IA
La infraestructura distribuida permite reducir costos mediante asignación dinámica de recursos. Así como mejorar la capacidad de respuesta en aplicaciones que requieren procesamiento inmediato.
Entre los casos de uso se encuentran interacciones en videojuegos impulsadas por inteligencia artificial, sistemas de detección de fraude en servicios financieros y procesos de transcodificación y doblaje en medios digitales.
En el núcleo de la plataforma de la firma, los clústeres de GPU proporcionan la potencia necesaria para cargas de trabajo de alta densidad. Como modelos de lenguaje y procesamiento multimodal.
Este entorno centralizado se complementa con una red global de edge computing que permite ejecutar inferencias cercanas al usuario. Evitando retrasos asociados a arquitecturas tradicionales.
Dicha solución se desarrolla sobre NVIDIA AI Enterprise y utiliza la arquitectura Blackwell junto con DPU NVIDIA BlueField para redes y seguridad aceleradas.
“Las nuevas aplicaciones nativas de IA exigen una latencia predecible y una mayor rentabilidad a escala global”. También indicó: “Al poner en funcionamiento NVIDIA AI Grid, Akamai está creando el tejido conectivo para la IA generativa, agencial y física”, añadió Chris Penrose, vicepresidente global de Desarrollo Empresarial y Telco en NVIDIA.
La adopción inicial de la plataforma se ha registrado en sectores con alta demanda de procesamiento y baja latencia. Mientras que la Akamai confirmó acuerdos comerciales para el despliegue de infraestructura de GPU a gran escala, lo que respalda el interés empresarial en este modelo.
Por Carlos Ortíz/NotiPress









Argentina



Chile



Colombia



LATAM



Reseller MX

















