• Noticias
  • Negocios Noticias
  • Los chips Blackwell de Nvidia duplican la velocidad de entrenamiento en IA, según benchmark de MLCommons

Los chips Blackwell de Nvidia duplican la velocidad de entrenamiento en IA, según benchmark de MLCommons

Los chips Blackwell de Nvidia han demostrado un avance significativo en la eficiencia del entrenamiento en inteligencia artificial, reduciendo considerablemente la cantidad de chips necesarios para modelos de lenguaje masivos como Llama 3.1 405B. Los benchmarks revelan que los chips Blackwell son más del doble de rápidos que la generación anterior, Hopper, consolidando así el dominio continuo de Nvidia en el entrenamiento de IA.
Los chips Blackwell de Nvidia duplican la velocidad de entrenamiento en IA, según benchmark de MLCommons
Los nuevos chips Blackwell de Nvidia han marcado un importante avance en el entrenamiento de grandes sistemas de inteligencia artificial, reduciendo drásticamente la cantidad de chips necesarios para entrenar modelos de lenguaje masivos, según datos publicados este miércoles. Los resultados, difundidos por MLCommons, una organización sin fines de lucro que publica benchmarks de rendimiento para sistemas de IA, destacan mejoras significativas en los chips de Nvidia y también de AMD, entre otros, según reportó Reuters. Los benchmarks se enfocan en la fase de entrenamiento —cuando los sistemas aprenden a partir de vastos conjuntos de datos—, un campo que sigue siendo clave en la competencia tecnológica, a pesar del creciente interés del mercado por la inferencia de IA, es decir, la capacidad de responder a consultas de los usuarios. Uno de los hallazgos más relevantes fue que Nvidia y sus socios fueron los únicos en presentar datos de entrenamiento para un modelo a gran escala como Llama 3.1 405B, un sistema de IA de código abierto desarrollado por Meta Platforms con billones de parámetros. Este tipo de modelo es lo suficientemente complejo como para poner a prueba los chips más avanzados. Según los datos, los nuevos chips Blackwell de Nvidia son más del doble de rápidos por unidad en comparación con la generación anterior, los chips Hopper. En el resultado más veloz, un clúster de 2.496 chips Blackwell completó la tarea de entrenamiento en solo 27 minutos. En comparación, se necesitaban más del triple de chips Hopper para igualar o superar ese rendimiento. Durante una rueda de prensa, Chetan Kapoor, director de producto de CoreWeave —empresa que colaboró con Nvidia en las pruebas—, subrayó una tendencia generalizada en el sector: Los resultados de los benchmarks refuerzan el dominio de Nvidia en el campo del entrenamiento de IA, incluso mientras competidores como la china DeepSeek afirman ofrecer rendimientos similares utilizando menos chips. A medida que la carrera por alimentar sistemas de IA cada vez más grandes se intensifica, la eficiencia de los chips en tareas de entrenamiento sigue siendo un factor crítico.