HardwaReviews

La nueva GPU de NVIDIA Ampere Data Center en plena producción.

NVIDIA Enterprise anunció que la primera GPU basada en la arquitectura de Ampere de NVIDIA: NVIDIA A100, se está fabricando y enviando a los clientes de todo el mundo, después de recibir la mayor cantidad de pedidos previos a un lanzamiento en toda la historia de la compañía.

La A100 se basa en los avances de diseño de la arquitectura NVIDIA Ampere, que ofrece el mayor salto de rendimiento de la compañía hasta la fecha dentro de sus ocho generaciones de GPUs, para unificar el entrenamiento y la inferencia de IA y aumentar el rendimiento de hasta 20 veces más que los modelos precedentes. La A100 es un acelerador de carga de trabajo universal, que también está diseñado para el análisis de datos, la computación científica y los gráficos en la nube.

«Las poderosas tendencias de la computación en la nube y la IA están impulsando un cambio tectónico en los diseños de los centros de datos, de modo que lo que una vez fué un mar de servidores sólo de CPUs, ahora es la computación acelerada por el GPU», dijo Jensen Huang, fundador y CEO de NVIDIA. “La GPU NVIDIA A100 es un salto cuántico en el rendimiento de IA de 20 veces y un acelerador del aprendizaje automático de principio a fín, desde el análisis de datos hasta la capacitación y la inferencia. Por primera vez, las cargas de trabajo de ampliación y escalabilidad pueden acelerarse en una sola plataforma. NVIDIA A100 aumentará simultáneamente el rendimiento y reducirá el costo de los centros de datos».

Las nuevas tecnologías elásticas de cómputo integradas en A100 permiten aportar la cantidad adecuada de potencia de procesamiento a cada trabajo. La capacidad de GPU de múltiples instancias permite que cada GPU A100 se divida en hasta siete instancias independientes de «mini-GPUs» para realizar tareas de inferencia más pequeñas, mientras que la tecnología de interconexión NVIDIA NVLink® interconnect technology de tercera generación, permite que múltiples GPUs A100 funcionen como una GPU gigante, para cumplir con las tareas de entrenamiento cada vez más grandes.

Los principales fabricantes de sistemas y proveedores de servicios en la nube del mundo, que, planean incorporar las GPUs A100 a sus nuevas ofertas de productos y servicios de HPC, Ciencia de Datos e IA  son: Alibaba Cloud, Amazon Web Services (AWS), Atos, Baidu Cloud, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Google Cloud, H3C, Hewlett Packard Enterprise (HPE), Inspur, Lenovo, Microsoft Azure, Oracle, Quanta/QCT, Supermicro and Tencent Cloud.

Adopción inmediata en todo el mundo.

Entre las primeras empresas en aprovechar la potencia de las GPUs NVIDIA A100 está Microsoft, que aprovechará el rendimiento y la escalabilidad de la A100.

“Microsoft entrenó Turing Natural Language Generation, el modelo de idiomas más grande del mundo, para usar la generación actual de GPUs de NVIDIA”, dijo Mikhail Parakhin, Vice Presidente Corporativo, Microsoft Corp. “Azure planea entrenar modelos de IA mucho más grandes utilizando miles de GPUs NVIDIA A100 a escala para impulsar lo último en lenguaje, habla, visión y multimodalidad”.

DoorDash, es una plataforma de alimentos bajo pedido que ha servido como salvavidas para los restaurantes durante la pandemia, señala la importancia de tener una infraestructura flexible de Inteligencia Artificial.

“Las modernas y complejas cargas de trabajo de la inferencia y el entrenamiento en IA requieren una gran cantidad de datos que pueden beneficiarse de la tecnología de vanguardia como las GPUs NVIDIA A100, que ayudan a reducir el tiempo de entrenamiento del modelo y acelerar el proceso de desarrollo del aprendizaje automátizado». Gary Ren, ingeniero de aprendizaje automático en DoorDash, dijo: «Además, el uso de clústeres de GPUs basados en la nube nos brinda una nueva flexibilidad para ampliar o reducir según sea necesario, lo que ayuda a mejorar la eficiencia, simplificar nuestras operaciones y ahorrar costos».

Otros de los primeros adoptadores incluyen laboratorios nacionales y algunas de las instituciones de educación superior e investigación más importantes del mundo, cada una de las cuales usa A100 para potenciar sus supercomputadoras de próxima generación. Entre ellas se incluyen:

Cinco avances de A100.

La GPU NVIDIA A100 marca una revolución en el diseño técnico gracias a cinco innovaciones clave:

Juntas, estas nuevas características hacen que la NVIDIA A100 sea ideal para cargas de trabajo diversas y exigentes, que incluyen entrenamiento e inferencia de IA, así como simulación científica, IA conversacional, sistemas de recomendación, genómica, análisis de datos de alto rendimiento, modelos sísmicos y pronósticos financieros.

El modelo NVIDIA A100 está disponible en nuevos sistemas, y pronto llegará a la nube.

El NVIDIA DGX A100 system, que también se presentó hoy, cuenta con ocho GPU NVIDIA A100 interconectadas con NVIDIA NVLink. Ya está disponible mediante NVIDIA y socios autorizados.

Alibaba Cloud, AWS, Baidu Cloud, Google Cloud, Oracle and Tencent Cloud están planeando ofrecer los servicios basados en la A100.

Además, se lanzará una amplia variedad de servidores con A100 mediante los principales fabricantes de sistemas del mundo, como: , including Atos, Dell Technologies, Fujitsu, GIGABYTE, H3C, HPE, Inspur, Lenovo, Quanta/QCT and Supermicro.

Para ayudar a acelerar el desarrollo de servidores de sus socios, NVIDIA ha creado HGX A100, un componente fundamental de servidores en la forma de bloques de construcción, en la forma de zócalos integrados en múltiples configuraciones de GPUs.

La HGX A100 de cuatro GPUs ofrece una interconexión completa entre las GPUs con NVLink, mientras que la configuración de ocho GPUs ofrece un ancho de banda completo de GPU a GPU, a través de NVIDIA NVSwitch. HGX A100, con la nueva tecnología MIG y su arquitectura de GPU de múltiples instancias, se puede configurar como 56 GPUs pequeñas, cada una más rápida que NVIDIA T4, hasta un servidor gigante de ocho GPUs con 10 petaflops de rendimiento de inteligencia artificial.

Optimizaciones de software de NVIDIA para A100.

NVIDIA también anunció varias actualizaciones de su paquete de software que permiten a los desarrolladores de aplicaciones aprovechar las innovaciones de la GPU A100. Esto incluye nuevas versiones de más de 50 bibliotecas CUDA-X que se usan para acelerar los gráficos, la simulación y IA; CUDA 11; NVIDIA Jarvis un marco de servicios de IA conversacional multimodal; NVIDIA Merlin, un marco de aplicación de recomendación profunda; y el and the NVIDIA HPC SDK, que incluye compiladores, bibliotecas y herramientas que ayudan a los desarrolladores de HPC a depurar y optimizar su código para A100.

Salir de la versión móvil