NVIDIA Amplía su Liderazgo en Rendimiento de Inferencias de IA, con Resultados de Debut en Servidores Basados en Arm, según MLPerf.
Los últimos puntos de referencia de MLPerf muestran que NVIDIA ha extendido sus altas marcas de agua en rendimiento y eficiencia energética para la inferencia de inteligencia artificial para Arm, así como para computadoras x86.
Es la tercera vez consecutiva que NVIDIA establece récords en rendimiento y eficiencia energética en las pruebas de inferencia de MLPerf, un grupo de evaluación comparativa de la industria formado en mayo de 2018.
Y es la primera vez que las pruebas de la categoría del data center se ejecutan en un sistema basado en Arm, lo que brinda a los usuarios más opciones para implementar la IA, la tecnología más transformadora de nuestro tiempo.
Cuento de la Cinta.
NVIDIA ganó las siete pruebas de rendimiento de la inferencia de IA en la última ronda. Y NVIDIA es la única empresa que informa los resultados de todas las pruebas de MLPerf en esta y todas las rondas hasta la fecha.
La inferencia es lo que sucede cuando una computadora ejecuta un software de inteligencia artificial para reconocer un objeto o hacer una predicción. Es un proceso que utiliza un modelo de deep learning para filtrar datos y encontrar resultados que ningún ser humano podría capturar.
Los puntos de referencia de inferencia de MLPerf se basan en las cargas de trabajo y los escenarios de IA más populares de la actualidad, que abarcan la visión por computadora, las imágenes médicas, el procesamiento del lenguaje natural, los sistemas de recomendación, el aprendizaje por refuerzo y más. Por lo tanto, independientemente de las aplicaciones de inteligencia artificial que implementen, los usuarios pueden establecer sus propios registros con NVIDIA.
¿Por qué es importante el Rendimiento?
Los modelos y conjuntos de datos de IA continúan creciendo a medida que los casos de uso de IA se expanden desde el data center hasta el edge y más allá. Es por eso que los usuarios necesitan un rendimiento que sea confiable y flexible de implementar.
MLPerf brinda a los usuarios la confianza para tomar decisiones de compra informadas. Cuenta con el respaldo de docenas de líderes de la industria, incluidos: Alibaba, Arm, Baidu, Google, Intel y NVIDIA, por lo que las pruebas son transparentes y objetivas.
Además del rendimiento, NVIDIA mostró su liderazgo en eficiencia energética, gracias a las pruebas realizadas en su cartera de GPUs: NVIDIA A100 Tensor Core, A30 y Jetson AGX Xavier.
Flexionando Arm para la IA Empresarial.
La arquitectura Arm está comenzando a abrirse paso en los data centers de todo el mundo, en parte gracias a su eficiencia energética. Los últimos puntos de referencia muestran que, como plataforma acelerada por GPU, los servidores basados en Arm pueden ofrecer el mismo rendimiento que los servidores basados en x86 configurados de manera similar para trabajos de inferencia de IA.
De hecho, el servidor basado en Arm que usamos, con una CPU Ampere Altra de Ampere Computing, fue incluso más rápido que un sistema x86 similar en una de las pruebas.
NVIDIA tiene una larga tradición de compatibilidad con todas las arquitecturas de CPU, por lo que estamos orgullosos de haber ayudado a Arm a demostrar su destreza en inteligencia artificial en un punto de referencia de la industria revisado por sus pares.
Los Socios Muestran Sus Poderes de IA.
La tecnología de IA de NVIDIA está respaldada por un ecosistema grande y en continuo crecimiento.
Siete fabricantes de equipos originales presentaron un total de 22 plataformas aceleradas por GPUs en los últimos puntos de referencia. La mayoría de estos modelos de servidor están certificados por NVIDIA y están validados para ejecutar una amplia gama de cargas de trabajo aceleradas. Y muchos de ellos son compatibles con NVIDIA AI Enterprise, software lanzado oficialmente el mes pasado.
Nuestros socios que participaron en esta ronda fueron Dell Technologies, Fujitsu, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix y Supermicro, así como el proveedor de servicios en el cloud Alibaba.
El Poder del Software.
Un ingrediente clave del éxito de la IA de NVIDIA en todos los casos de éxito es nuestra batería de software completa.
Para la inferencia, eso incluye modelos de IA previamente entrenados para una amplia variedad de casos de éxito. El Kit de Herramientas NVIDIA TAO personaliza esos modelos para aplicaciones específicas mediante el aprendizaje por transferencia.
Nuestro software NVIDIA TensorRT optimiza los modelos de IA para que utilicen menos memoria y se ejecuten más rápido. Lo usamos habitualmente para las pruebas de MLPerf y está disponible tanto para sistemas x86 como para los basados en Arm.
También empleamos nuestro software para el Servidor de Inferencia NVIDIA Triton y la capacidad de GPU de Instancias Múltiples (MIG) en estos puntos de referencia. Ofrecen a cualquier usuario el tipo de rendimiento que normalmente requiere de codificadores expertos.
Gracias a las mejoras continuas en esta bateríaa de software, NVIDIA logró ganancias de hasta un 20 por ciento en rendimiento y un 15 por ciento en eficiencia energética con respecto a los anteriores puntos de referencia de inferencia de MLPerf hace solo cuatro meses.
Todo el software que usamos en las últimas pruebas está disponible en el repositorio MLPerf, por lo que cualquiera puede reproducir nuestros resultados de referencia. Continuamente agregamos este código a nuestros frameworks y contenedores de deep learning disponibles en NGC, nuestro centro de software para aplicaciones de GPUs.
Es parte de una oferta de IA de batería completa, compatible con todas las arquitecturas de un procesador, probada en los últimos puntos de referencia de la industria y disponible para abordar trabajos reales de IA en la actualidad.