www.movilfonia.com
Innovaciones de NVIDIA en IA y redes destacan en la conferencia Hot Chips

Innovaciones de NVIDIA en IA y redes destacan en la conferencia Hot Chips

miércoles 27 de agosto de 2025, 18:00h

NVIDIA presentará innovaciones clave en la conferencia Hot Chips, que se llevará a cabo del 24 al 26 de agosto en Palo Alto, California. Expertos de NVIDIA discutirán cómo las tecnologías NVLink y Spectrum-X Ethernet, junto con la arquitectura Blackwell y CUDA, están acelerando la inferencia para millones de flujos de trabajo de inteligencia artificial a nivel global. La conferencia reunirá a líderes de la industria como Google y Microsoft para explorar el diseño de arquitecturas de rack para centros de datos. Temas destacados incluirán avances en renderizado neural y el rendimiento del nuevo GPU GeForce RTX 5090. Estas innovaciones son fundamentales para impulsar la eficiencia y el rendimiento en los centros de datos que alimentan las cargas de trabajo de IA actuales. Para más detalles, visita el enlace: https://biblioteca.cibeles.net/hot-topics-at-hot-chips-inference-networking-ai-innovation-at-every-scale-all-built-on-nvidia/.

La próxima semana, los asistentes a la conferencia Hot Chips en Palo Alto, California, centrarán su atención en el razonamiento y la inferencia de inteligencia artificial (IA) y las innovaciones en redes. Este evento, que se llevará a cabo del 24 al 26 de agosto en la Universidad de Stanford, es un foro clave para arquitectos de procesadores y sistemas tanto de la industria como del ámbito académico. Hot Chips presenta las últimas innovaciones que prometen avanzar las fábricas de IA y generar ingresos en el mercado de computación en centros de datos, valorado en billones de dólares.

NVIDIA estará presente junto a líderes del sector como Google y Microsoft en una sesión tutorial programada para el domingo 24 de agosto, donde se discutirá el diseño de arquitecturas a escala de rack para centros de datos.

Además, expertos de NVIDIA participarán en cuatro sesiones y una tutorial que abordará cómo:

  • Las tecnologías de red de NVIDIA, incluido el NVIDIA ConnectX-8 SuperNIC, proporcionan razonamiento IA a nivel de rack y centro de datos. (Presentado por Idan Burstein, arquitecto principal de adaptadores de red y sistemas-on-a-chip en NVIDIA)
  • Los avances en renderizado neuronal y los enormes saltos en inferencia — impulsados por la arquitectura NVIDIA Blackwell, que incluye la NVIDIA GeForce RTX 5090 GPU — ofrecen capacidades gráficas y de simulación sin precedentes. (Presentado por Marc Blackstein, director senior de arquitectura en NVIDIA)
  • Los interruptores ópticos empaquetados (CPO) con fotónica integrada — construidos con fibra a velocidad de luz para transmitir información más rápidamente y consumir menos energía — permiten fábricas AI eficientes y escalables. La charla también destacará el NVIDIA Spectrum-XGS Ethernet, una nueva tecnología para unificar centros de datos distribuidos en super fábricas AI. (Presentado por Gilad Shainer, vicepresidente senior de redes en NVIDIA)
  • El Superchip NVIDIA GB10 actúa como motor dentro del NVIDIA DGX Spark, superordenador desktop. (Presentado por Andi Skende, ingeniero distinguido senior en NVIDIA)

NVIDIA Networking Impulsa la Innovación AI a Gran Escala

El razonamiento AI, que permite a los sistemas analizar y resolver problemas complejos mediante múltiples pasadas de inferencia AI, requiere un rendimiento a escala rack para ofrecer experiencias óptimas al usuario.

En los centros de datos que alimentan las cargas laborales actuales de IA, la red actúa como el sistema nervioso central, conectando todos los componentes —servidores, dispositivos de almacenamiento y otro hardware— en una unidad computacional cohesiva y poderosa.

NVIDIA ConnectX-8 SuperNIC

La sesión sobre Hot Chips presentada por Burstein profundizará en cómo las tecnologías de red de NVIDIA —en particular los SuperNICs ConnectX-8— permiten una comunicación multi-GPU rápida y con baja latencia para ofrecer un rendimiento líder del mercado en razonamiento AI a gran escala.

Como parte del ecosistema de networking de NVIDIA, NVLink, NVLink Switch y NVLink Fusion proporcionan conectividad escalable al vincular GPUs y elementos computacionales dentro y entre servidores para un intercambio rápido y eficiente de datos.

NVIDIA Blackwell y CUDA Llevan AI a Millones de Desarrolladores

El sistema NVIDIA GB200 NVL72, considerado una computadora exascale dentro de un solo rack, cuenta con 36 Superchips NVIDIA GB200, cada uno conteniendo dos GPUs B200 y una CPU Grace interconectadas por el dominio NVLink más grande jamás ofrecido. Esto permite comunicaciones GPU con 130 terabytes por segundo para cargas laborales AI y computación científica avanzada.

NVIDIA GeForce RTX 5090 GPU

La GPU GeForce RTX 5090 —también impulsada por Blackwell— duplica el rendimiento en juegos actuales gracias a la tecnología NVIDIA DLSS 4. Además, puede añadir características avanzadas para renderizado neuronal que mejoran significativamente el realismo gráfico.

NVIDIA CUDA, la infraestructura computacional más ampliamente disponible del mundo, permite a los usuarios desplegar modelos AI utilizando Blackwell desde cualquier lugar.

Colaboraciones Open Source Impulsan Innovaciones en Inferencia

NVIDIA acelera varias bibliotecas open-source para optimizar cargas laborales AI dirigidas a modelos lingüísticos grandes (LLMs) e inferencias distribuidas. Estas incluyen NVIDIA TensorRT-LLM, NVIDIA Dynamo, TileIR, Cutlass y la Biblioteca Colectiva de Comunicación NVIDIA.

A través del trabajo conjunto con proveedores destacados, NVIDIA ofrece optimizaciones para FlashInfer, PyTorch entre otros frameworks populares. Además,
los microservicios NIM están disponibles para modelos abiertos como gpt-oss y Llama 4.

Para conocer más sobre los últimos avances en inferencia e informática acelerada, acompáñenos NVIDIA en Hot Chips.

La noticia en cifras

Cifra Descripción
130 TB/s Velocidad de comunicación entre GPUs con NVLink Switch.
36 Número de NVIDIA GB200 Superchips en el sistema GB200 NVL72.
10x Aumento del rendimiento gracias a DLSS 4.
Giga-scale AI factories Tipo de infraestructura para inteligencia artificial que se está desarrollando.
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios