Menu

Se anunció la implementación de las Funciones de Red Nativas de la Nube (CNF) BIG-IP Next de F5 en las DPU NVIDIA BlueField-3

Nueva solución F5 / NVIDIA disminuye latencia de apps

¿A qué se debe que el reciente anuncio conjunto entre F5 y NVIDIA haya sido tan bien recibido por la comunidad de proveedores de servicios?

Durante el Mobile World Congress de Barcelona, se dio a conocer la implementación de las Funciones de Red Nativas de la Nube (CNF) BIG-IP Next de F5 en las DPU NVIDIA BlueField-3.

Esto significa la posibilidad de ofrecer un rendimiento optimizado en entornos Kubernetes y soporte a los nuevos casos de uso de Inteligencia Artificial (IA) perimetral. Sin embargo, la solución conjunta recién anunciada es mucho más que eso. ¿Qué ventajas ofrece? En términos prácticos y concretos, aquí lo explicamos.

Nueva solución F5 / NVIDIA disminuye latencia de apps
El objetivo es optimizar la gestión y seguridad de los datos, al tiempo que se habilitan innovaciones en Inteligencia Artificial en el edge.

Los componentes

Por principio de cuentas, conviene definir y entender lo que aportan tanto F5 como NVIDIA a esta solución.

Bastaría decir que ahora F5 ofrece capacidades de infraestructura de red –que incluye un firewall perimetral, la protección de la infraestructura del Sistema de Nombres de Dominio (DNS) contra ciberataques, así como seguridad anti DDoS (Denegación de Servicio Distribuido)–, como funciones ligeras nativas de la nube aceleradas con las DPU NVIDIA BlueField-3.

Por lo que respecta a NVIDIA, esta empresa ha introducido al mercado las Unidades de Procesamiento de Datos (DPUs) que son aceleradores de hardware diseñados para manejar tareas informáticas, de red y de almacenamiento en centros de datos, que se unen a las CPU (Unidades Centrales de Procesamiento) y a las GPU (Unidades de Procesamiento Gráfico), ya conocidas y empleadas por años.

El aporte de NVIDIA se distingue porque su reciente DPU BlueField-3 es una plataforma de computación de infraestructura de 400 gigabits por segundo (Gbps) con procesamiento de velocidad de línea de redes, almacenamiento y ciberseguridad definidos por software. 

Y es que lograr una baja latencia sigue siendo esencial para el desarrollo de aplicaciones y capacidades de IA enfocadas a la toma de decisiones inmediata, tales como el apoyo a vehículos autónomos, la detección de fraudes, la interacción del usuario en tiempo real para experiencias de Realidad Aumentada o Realidad Virtual, o bien, para aplicaciones de monitoreo y respuesta continua que requieren los dispositivos de salud, por ejemplo.

¿Y por qué es importante el anuncio de esta solución?

Los proveedores de servicios reconocen la dificultad que tienen para escalar las aplicaciones de IA en entornos distribuidos, especialmente porque las infraestructuras heredadas en el núcleo de sus redes a menudo carecen de la potencia de procesamiento necesaria para que la inferencia de IA sea práctica.

La buena noticia es que las CNF de F5 que se ejecutan en las DPU de NVIDIA ahora pueden integrarse en infraestructuras de borde y borde remoto para optimizar los recursos informáticos, reducir el consumo de energía por Gbps y limitar los gastos operativos generales.

Dicho en términos prácticos, la implementación de CNF puede mejorar la experiencia del usuario y reducir los costos de energía, espacio y refrigeración en los centros de datos.

“Los proveedores de servicios consideran el edge como un área de creciente interés, ya que la ingesta y la inferencia de datos ya no tienen que realizarse en una ubicación centralizada o en un entorno de nube, lo que abre un sinfín de opciones para añadir inteligencia y capacidades de automatización a las redes, a la vez que se mejora el rendimiento para los usuarios”, explicó Ahmed Guetari, Vicepresidente y Gerente General de Service Provider en F5.

“A medida que la demanda de inferencia de IA en el borde aumenta su protagonismo, construir una infraestructura distribuida preparada para IA es una oportunidad clave para que los proveedores de telecomunicaciones generen valor para sus clientes”, afirmó Ash Bhalgat, Director Senior de Soluciones de Redes y Seguridad de IA, Ecosistema y Marketing en NVIDIA.

De esta manera, las funciones nativas de la nube de F5, aceleradas con las DPU BlueField-3 de NVIDIA crean una solución para acercar la IA a los usuarios, a la vez que ofrecen rendimiento, seguridad y eficiencia a los proveedores de servicios.

Se prevé que las funciones de red nativas de la nube F5 BIG-IP Next implementadas en las DPU NVIDIA BlueField-3 estén disponibles de forma general en junio de 2025.