La plataforma NVIDIA Blackwell llega para impulsar una nueva era de computación

NVIDIA Blackwell impulsa una nueva era de la computación, permitiendo a organizaciones de todo el mundo crear y ejecutar IA generativa en tiempo real sobre grandes modelos de lenguaje (LLM) con billones de parámetros
0
444

NVIDIA, impulsora de una nueva era de la computación, acaba de anunciar la llegada de la plataforma NVIDIA Blackwell, que permitirá a organizaciones de todo el mundo crear y ejecutar IA generativa en tiempo real sobre grandes modelos de lenguaje (LLM) de billones de parámetros con hasta 25 veces menos coste y consumo de energía que su predecesora.

La arquitectura de GPU Blackwell incorpora seis tecnologías de aceleración computacional que contribuirán a abrir nuevos caminos en el procesamiento de datos, la simulación en ingeniería, la automatización del diseño electrónico, el diseño de fármacos asistido por ordenador, la computación cuántica y la IA generativa, todas ellas oportunidades emergentes para NVIDIA.

“Llevamos tres décadas persiguiendo la aceleración computacional con el objetivo de posibilitar avances transformadores como el aprendizaje profundo y la IA”, dijo Jensen Huang, fundador y CEO de NVIDIA. “La IA generativa es la tecnología que define nuestro tiempo. Blackwell es el motor de esta nueva revolución industrial. Trabajando con las empresas más dinámicas del mundo, haremos realidad la promesa de la IA para todas las industrias”.

Entre las muchas organizaciones que se espera que adopten Blackwell se encuentran Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla y xAI.

Sundar Pichai, CEO de Alphabet y Google: “Escalar servicios como Search y Gmail a miles de millones de usuarios nos ha enseñado mucho sobre la gestión de la infraestructura informática. A medida que nos adentramos en el cambio de plataforma de IA, seguimos invirtiendo profundamente en infraestructura para nuestros propios productos y servicios, y para nuestros clientes Cloud. Tenemos la suerte de contar con una larga colaboración con NVIDIA y estamos deseando poner la extraordinaria capacidad de la GPU Blackwell al servicio de nuestros clientes y equipos de Google Cloud, incluida Google DeepMind, para acelerar futuros descubrimientos.”

Andy Jassy, presidente y CEO de Amazon: “Nuestra profunda colaboración con NVIDIA se remonta a hace más de 13 años, cuando lanzamos la primera instancia de GPU en la nube en AWS. Hoy ofrecemos la gama más amplia de soluciones de GPU disponible en cualquier lugar de la nube, con soporte para las cargas de trabajo aceleradas tecnológicamente más avanzadas del mundo. Esta es la razón por la que la nueva GPU NVIDIA Blackwell funcionará tan bien en AWS y la razón por la que NVIDIA eligió AWS para desarrollar conjuntamente el Proyecto Ceiba, que combina la nueva generación de superchips Grace Blackwell de NVIDIA con la virtualización avanzada y la red ultrarrápida Elastic Fabric Adapter del sistema Nitro de AWS, para la investigación y el desarrollo de la IA de la propia NVIDIA. Gracias a este esfuerzo conjunto de los ingenieros de AWS y NVIDIA, seguimos innovando juntos para hacer de AWS el mejor lugar para ejecutar las GPU NVIDIA en la nube”.

Michael Dell, fundador y CEO de Dell Technologies: “La IA generativa es clave para crear sistemas más inteligentes, confiables y eficientes. Dell Technologies y NVIDIA colaboran para dar forma al futuro de la tecnología. Con el lanzamiento de Blackwell, seguiremos ofreciendo a nuestros clientes la próxima generación de productos y servicios acelerados, proporcionándoles las herramientas que necesitan para impulsar la innovación en todos los sectores.”

Demis Hassabis, cofundador y CEO de Google DeepMind: “El potencial transformador de la IA es increíble y nos ayudará a resolver algunos de los problemas científicos más importantes del mundo. Las innovadoras capacidades tecnológicas de Blackwell proporcionarán la computación crítica necesaria para ayudar a las mentes más brillantes del mundo a trazar nuevos avances científicos.”

Mark Zuckerberg, fundador y consejero delegado de Meta: “La IA ya lo es todo, desde nuestros grandes modelos de lenguaje (LLM) hasta nuestras recomendaciones de contenidos, anuncios y sistemas de seguridad, y su importancia no hará sino aumentar en el futuro. Estamos deseando utilizar los recursos de NVIDIA Blackwell para entrenar nuestros modelos Llama de código abierto y construir la próxima generación de productos de consumo y de IA de Meta.”

Satya Nadella, presidente ejecutivo y CEO de Microsoft: “Estamos comprometidos a proporcionar a nuestros clientes la infraestructura más avanzada para impulsar sus cargas de trabajo de IA. Al llevar el procesador GB200 Grace Blackwell a nuestros centros de datos de todo el mundo, estamos aprovechando nuestra larga trayectoria de optimización de las GPU NVIDIA para nuestra nube a medida que hacemos realidad la promesa de la IA para organizaciones de todo el mundo.”

Sam Altman, Consejero delegado de OpenAI: “Blackwell ofrece enormes saltos de rendimiento y acelerará nuestra capacidad para ofrecer modelado de vanguardia. Estamos encantados de seguir trabajando con NVIDIA para mejorar la computación de IA.”

Larry Ellison, presidente y director de tecnología de Oracle: “La estrecha colaboración de Oracle con NVIDIA posibilitará avances cualitativos y cuantitativos en IA, aprendizaje automático y análisis de datos. Para que los clientes descubran más información procesable, necesitan un motor aún más potente como Blackwell, creado específicamente para la computación acelerada y la IA generativa.”

Elon Musk, CEO de Tesla y xAI: “Actualmente no hay nada mejor que el hardware de NVIDIA para la IA.”

Nombrado con el nombre de David Harold Blackwell – matemático especializado en teoría de juegos y estadística y primer académico negro admitido en la Academia Nacional de Ciencias – la nueva arquitectura sucede a la arquitectura NVIDIA Hopper, lanzada hace dos años.

Innovaciones de Blackwell para impulsar la computación acelerada y la IA generativa

Las seis tecnologías revolucionarias de Blackwell, que juntas permiten el entrenamiento de la IA en tiempo real y la inferencia LLM para modelos que escalan hasta 10 billones de parámetros, incluyen:

  • El chip más potente del mundo – Equipadas con 208,000 millones de transistores, las GPU de arquitectura Blackwell se fabrican mediante un proceso TSMC 4NP personalizado, con dos chips de GPU conectados por un enlace chip a chip de 10 TB/segundo delimitado por dos retículos, formando una única GPU unificada. 
  • Motor Transformer de segunda generación: impulsado por el nuevo soporte de escalado de microtensores y los algoritmos avanzados de gestión del rango dinámico de NVIDIA integrados en los frameworks NVIDIA TensorRT – LLM y NeMo Megatron, Blackwell admitirá el doble de tamaños de computación y modelos con nuevas funciones de inferencia de IA en coma flotante de 4 bits. 
  • NVLink de quinta generación: para acelerar el rendimiento de los modelos de IA con varios billones de parámetros y una mezcla de expertos, la última iteración de NVIDIA NVLink® ofrece una innovadora tasa de transferencia bidireccional de 1,8 TB/s por GPU, lo que garantiza una comunicación continua a alta velocidad entre hasta 576 GPU para los LLM más complejos. 
  • Motor RAS: las GPU con tecnología Blackwell incluyen un motor dedicado que proporciona fiabilidad, disponibilidad y facilidad de mantenimiento. Además, la arquitectura Blackwell añade funciones a nivel de chip para utilizar el mantenimiento preventivo basado en IA para ejecutar diagnósticos y predecir problemas de fiabilidad. Esto maximiza el tiempo de actividad del sistema y mejora la capacidad de recuperación para que las implantaciones de IA a gran escala funcionen sin interrupciones durante semanas o incluso meses seguidos y reduzcan los costes operativos. 
  • IA segura: las funciones avanzadas de computación confidencial protegen los modelos de IA y los datos de los clientes sin comprometer el rendimiento, con compatibilidad con los nuevos protocolos de cifrado de interfaz nativa, esenciales para sectores sensibles a la privacidad como la sanidad y los servicios financieros. 
  • Motor de descompresión: Un motor de descompresión dedicado admite los formatos más recientes, lo que acelera las consultas a bases de datos para ofrecer el máximo rendimiento en análisis de datos y ciencia de datos. En los próximos años, el procesamiento de datos, en el que las empresas gastan decenas de miles de millones de dólares al año, se acelerará cada vez más gracias a la GPU.

“NVIDIA ha ido actualizándose progresivamente y el lanzamiento de esta nueva arquitectura demuestra claramente cómo la compañía refuerza continuamente su posición para afrontar los retos del futuro. No sólo seguimos, sino que lideramos el ritmo de las demandas del mercado, garantizando así su relevancia e influencia en el panorama tecnológico”, subraya Marcio Aguiar, director de la división Enterprise de NVIDIA para Latinoamérica.

Un superchip enorme

El superchip NVIDIA GB200 Grace Blackwell conecta dos GPU NVIDIA B200 Tensor Core a la CPU NVIDIA Grace a través de una interconexión chip a chip NVLink a 900 GB/s de muy bajo consumo.

Para obtener el máximo rendimiento de la IA, los sistemas GB200 pueden conectarse a las también anunciadas plataformas NVIDIA Quantum-X800 InfiniBand y Spectrum-X800 Ethernet, que ofrecen redes avanzadas a velocidades de hasta 800 Gb/s.

El GB200 es un componente clave del NVIDIA GB200 NVL72, un sistema multinodo a escala de rack con refrigeración líquida para las cargas de trabajo más exigentes. Combina 36 Grace Blackwell Superchips, que incluyen 72 GPU Blackwell y 36 CPU Grace interconectadas mediante NVLink de quinta generación. Además, el GB200 NVL72 incluye unidades de procesamiento de datos NVIDIA BlueField®-3 para permitir la aceleración de la red en la nube, el almacenamiento combinable, la seguridad de confianza cero y la elasticidad del cálculo en la GPU en nubes de IA a hiperescala. La GB200 NVL72 ofrece un aumento del rendimiento de hasta 30 veces en comparación con el mismo número de GPU NVIDIA H100 Tensor Core para cargas de trabajo de inferencia LLM y reduce el coste y el consumo de energía hasta 25 veces.

La plataforma actúa como una única GPU con 1.4 exaflops de rendimiento de IA y 30 TB de memoria rápida, y es la base del último DGX SuperPOD.

NVIDIA ofrece la HGX B200, una placa de servidor que conecta ocho GPU B200 a través de NVLink para dar soporte a plataformas de IA generativa basadas en x86. La HGX B200 admite velocidades de red de hasta 400 Gb/s a través de las plataformas de red NVIDIA Quantum-2 InfiniBand y Spectrum-X Ethernet.

Red mundial de socios de Blackwell

Los productos basados en Blackwell estarán disponibles a través de los partners a partir de fin de este año.

AWSGoogle CloudMicrosoft Azure y Oracle Cloud Infrastructure serán algunos de los primeros proveedores de servicios en la nube en ofrecer instancias con tecnología Blackwell, al igual que NVIDIA.

Las empresas del programa Cloud Partner Applied Digital, CoreWeave, Crusoe, IBM Cloud y Lambda. También ofrecerán servicios e infraestructuras en la nube basados en Blackwell empresas como Indosat Ooredoo Hutchinson, Nebius,, Nexgen Cloud, Oracle EU Sovereign Cloud, Oracle US, UK and Australian Government Clouds, Scaleway, Singtel, Taiga Cloud de Northern Data Group, Shakti Cloud de Yotta Data Services y YTL Power International.

El GB200 también estará disponible en NVIDIA DGX Cloud, una plataforma de IA diseñada en colaboración con los principales proveedores de servicios en la nube que ofrece a los desarrolladores empresariales acceso dedicado a la infraestructura y el software necesarios para crear e implantar modelos generativos avanzados de IA. AWS, Google Cloud y Oracle Cloud Infrastructure tienen previsto alojar nuevas instancias basadas en NVIDIA Grace Blackwell a finales de este año.

Se espera que Cisco, Dell, Hewlett Packard EnterpriseLenovo y Supermicro suministren una amplia gama de servidores basados en productos Blackwell, al igual que Aivres, ASRock RackvASUS, Eviden, FoxconnGIGABYTEInventec, Pegatron, QCT, Wistron, Wiwynn y ZT Systems.

Además, una creciente red de fabricantes de software, entre ellos Ansys, Cadence y Synopsys – líderes mundiales en simulación de ingeniería – utilizarán procesadores basados en Blackwell para acelerar su software de diseño y simulación de sistemas y piezas eléctricas, mecánicas y de fabricación. Sus clientes podrán utilizar la IA generativa y la aceleración computacional para sacar productos al mercado más rápidamente, a menor coste y con mayor eficiencia energética.

Soporte de software NVIDIA

La cartera de productos Blackwell está respaldada por NVIDIA AI Enterprise, el sistema operativo integral para la IA de nivel de producción. NVIDIA AI Enterprise incluye los microservicios de inferencia NVIDIA NIM – también anunciados – así como frameworks, librerías y herramientas de IA que las empresas pueden implantar en nubes, centros de datos y estaciones de trabajo acelerados por NVIDIA.

Para obtener más información sobre la plataforma NVIDIA Blackwell, vea la keynote de el GTC e inscríbase para asistir a las sesiones de NVIDIA y los líderes del sector en la GTC, que se celebran hasta el 21 de marzo.

Comments are closed.