Unidad de procesamiento de datos - Enciclopedia
Una unidad de procesamiento de datos (DPU) es un procesador de computadora programable que integra de manera estricta un CPU de propósito general con hardware de interfaz de red. A veces se les llama "IPUs" (por "unidad de procesamiento de infraestructura") o "SmartNICs". Pueden utilizarse en lugar de los tradicionales NICs para aliviar al CPU de responsabilidades de red complejas y otras tareas "infraestructurales"; aunque sus características varían, pueden utilizarse para realizar cifrado/descifrado, actuar como cortafuegos, manejar TCP/IP, procesar solicitudes HTTP o incluso funcionar como hipervisor o controlador de almacenamiento. Estos dispositivos pueden ser atractivos para los proveedores de servicios de computación en la nube cuyos servidores podrían gastar una cantidad significativa de tiempo del CPU en estas tareas, reduciendo los ciclos que pueden proporcionar a los invitados.
Las fábricas de IA son un caso de uso emergente para las DPUs. En estos entornos, se deben mover grandes cantidades de datos rápidamente entre CPUs, GPUs y sistemas de almacenamiento para manejar cargas de trabajo de IA complejas. Al desviar tareas como el procesamiento de paquetes, el cifrado y la gestión del tráfico, las DPUs ayudan a reducir la latencia y mejorar la eficiencia energética, permitiendo que estas fábricas de IA mantengan el alto rendimiento y escalabilidad necesarios para las operaciones de aprendizaje automático avanzado.
Junto con su papel en la aceleración de las funciones de red y almacenamiento, las DPUs se ven cada vez más como el "tercer pilar de la computación", complementando tanto a los CPUs como a los GPUs. A diferencia de los procesadores tradicionales, una DPU generalmente reside en una tarjeta de interfaz de red, permitiendo que los datos se procesen a la velocidad de línea de la red antes de alcanzar al CPU. Este enfoque desvia tareas críticas pero de nivel inferior del sistema, como la seguridad, el equilibrio de carga y la routed de datos, del procesador central, liberando así a los CPUs y GPUs para concentrarse en la lógica de la aplicación y las operaciones específicas de IA.
Ejemplos de DPUs
= Azure Boost DPU =
En 2024, Microsoft introdujo el Azure Boost DPU, una unidad de procesamiento de datos diseñada a medida destinada a optimizar la eficiencia de red e infraestructura en su plataforma de nube Azure. Esta DPU desvía tareas relacionadas con la red como el procesamiento de paquetes, la aplicación de seguridad y la gestión del tráfico de los CPUs centrales, permitiendo un mejor rendimiento para las cargas de trabajo de aplicaciones.
Características Clave
Optimización de Red: El Azure Boost DPU mejora el rendimiento de la red y reduce la latencia al procesar paquetes de datos y desviar estas tareas de los CPUs tradicionales.
Capacidades de Seguridad: Integra técnicas avanzadas de aislamiento para proteger entornos de múltiples inquilinos, protegiendo cargas de trabajo sensibles.
Adaptabilidad a Escala Hiperescalar: Diseñada para grandes centros de datos, la DPU admite la infraestructura hiperescalar de Azure, asegurando la escalabilidad para las aplicaciones modernas en la nube.
Contexto Industrial
El Azure Boost DPU se alinea con la tendencia del desarrollo de silicio personalizado en entornos de nube a gran escala. Al igual que el sistema Nitro de AWS y los DPUs BlueField de NVIDIA, el DPU de Microsoft se enfoca en mejorar la eficiencia de la nube mientras responde a las crecientes demandas de energía y seguridad. Esta innovación sitúa a Microsoft a la par de otros líderes en la nube que utilizan DPUs para optimizar las operaciones del centro de datos y proporcionar soluciones de alta performance y costo efectivo para los clientes.
Impacto en la Computación en la Nube
La introducción de DPUs como el Azure Boost refleja un cambio más amplio en la industria de la computación en la nube hacia la desviación de funciones específicas de los procesadores de propósito general a hardware especializado. El DPU Azure Boost representa la estrategia de Microsoft para reducir costos, mejorar la seguridad y alcanzar objetivos de sostenibilidad, mientras mejora la eficiencia de la infraestructura.
Véase también
Compute Express Link (CXL)
Referencias