NVIDIA presentará innovaciones clave en la conferencia Hot Chips, que se llevará a cabo del 24 al 26 de agosto en Palo Alto, California. Expertos de NVIDIA discutirán cómo las tecnologías NVLink y Spectrum-X Ethernet, junto con la arquitectura Blackwell y CUDA, están acelerando la inferencia para millones de flujos de trabajo de inteligencia artificial a nivel global. La conferencia reunirá a líderes de la industria como Google y Microsoft para explorar el diseño de arquitecturas de rack para centros de datos. Temas destacados incluirán avances en renderizado neural y el rendimiento del nuevo GPU GeForce RTX 5090. Estas innovaciones son fundamentales para impulsar la eficiencia y el rendimiento en los centros de datos que alimentan las cargas de trabajo de IA actuales. Para más detalles, visita el enlace: https://biblioteca.cibeles.net/hot-topics-at-hot-chips-inference-networking-ai-innovation-at-every-scale-all-built-on-nvidia/.
La próxima semana, los asistentes a la conferencia Hot Chips en Palo Alto, California, centrarán su atención en el razonamiento y la inferencia de inteligencia artificial (IA) y las innovaciones en redes. Este evento, que se llevará a cabo del 24 al 26 de agosto en la Universidad de Stanford, es un foro clave para arquitectos de procesadores y sistemas tanto de la industria como del ámbito académico. Hot Chips presenta las últimas innovaciones que prometen avanzar las fábricas de IA y generar ingresos en el mercado de computación en centros de datos, valorado en billones de dólares.
NVIDIA estará presente junto a líderes del sector como Google y Microsoft en una sesión tutorial programada para el domingo 24 de agosto, donde se discutirá el diseño de arquitecturas a escala de rack para centros de datos.
Además, expertos de NVIDIA participarán en cuatro sesiones y una tutorial que abordará cómo:
El razonamiento AI, que permite a los sistemas analizar y resolver problemas complejos mediante múltiples pasadas de inferencia AI, requiere un rendimiento a escala rack para ofrecer experiencias óptimas al usuario.
En los centros de datos que alimentan las cargas laborales actuales de IA, la red actúa como el sistema nervioso central, conectando todos los componentes —servidores, dispositivos de almacenamiento y otro hardware— en una unidad computacional cohesiva y poderosa.
NVIDIA ConnectX-8 SuperNICLa sesión sobre Hot Chips presentada por Burstein profundizará en cómo las tecnologías de red de NVIDIA —en particular los SuperNICs ConnectX-8— permiten una comunicación multi-GPU rápida y con baja latencia para ofrecer un rendimiento líder del mercado en razonamiento AI a gran escala.
Como parte del ecosistema de networking de NVIDIA, NVLink, NVLink Switch y NVLink Fusion proporcionan conectividad escalable al vincular GPUs y elementos computacionales dentro y entre servidores para un intercambio rápido y eficiente de datos.
El sistema NVIDIA GB200 NVL72, considerado una computadora exascale dentro de un solo rack, cuenta con 36 Superchips NVIDIA GB200, cada uno conteniendo dos GPUs B200 y una CPU Grace interconectadas por el dominio NVLink más grande jamás ofrecido. Esto permite comunicaciones GPU con 130 terabytes por segundo para cargas laborales AI y computación científica avanzada.
NVIDIA GeForce RTX 5090 GPULa GPU GeForce RTX 5090 —también impulsada por Blackwell— duplica el rendimiento en juegos actuales gracias a la tecnología NVIDIA DLSS 4. Además, puede añadir características avanzadas para renderizado neuronal que mejoran significativamente el realismo gráfico.
NVIDIA CUDA, la infraestructura computacional más ampliamente disponible del mundo, permite a los usuarios desplegar modelos AI utilizando Blackwell desde cualquier lugar.
NVIDIA acelera varias bibliotecas open-source para optimizar cargas laborales AI dirigidas a modelos lingüísticos grandes (LLMs) e inferencias distribuidas. Estas incluyen NVIDIA TensorRT-LLM, NVIDIA Dynamo, TileIR, Cutlass y la Biblioteca Colectiva de Comunicación NVIDIA.
A través del trabajo conjunto con proveedores destacados, NVIDIA ofrece optimizaciones para FlashInfer, PyTorch entre otros frameworks populares. Además,
los microservicios NIM están disponibles para modelos abiertos como gpt-oss y Llama 4.
Para conocer más sobre los últimos avances en inferencia e informática acelerada, acompáñenos NVIDIA en Hot Chips.
Cifra | Descripción |
---|---|
130 TB/s | Velocidad de comunicación entre GPUs con NVLink Switch. |
36 | Número de NVIDIA GB200 Superchips en el sistema GB200 NVL72. |
10x | Aumento del rendimiento gracias a DLSS 4. |
Giga-scale AI factories | Tipo de infraestructura para inteligencia artificial que se está desarrollando. |