El CEO de Amazon, Andy Jassy, presentó el nuevo sistema interno de enfriamiento de chips de inteligencia artificial (IA) de la compañía, llamado In-Row Heat Exchanger (IRHX). Esta solución permite que los racks enfriados por líquido y por aire funcionen juntos en los centros de datos actuales, aumentando la eficiencia energética en un 20% y reduciendo el uso de agua en un 9%. Amazon tiene como objetivo que más del 20% de su capacidad de aprendizaje automático utilice refrigeración líquida para el año 2026.
Andy Jassy ofreció una actualización detallada sobre la solución de hardware de la empresa para manejar el calor intenso que generan los chips de IA. Este sistema es especialmente útil en los centros de datos que albergan potentes GPU, como las de Nvidia. En una publicación reciente en la red social X (anteriormente Twitter), Jassy explicó que todos los proveedores de servicios en la nube enfrentan el mismo reto: colocar los chips muy cerca para obtener velocidad, mientras se satisfacen las altas demandas de enfriamiento.
Después de la publicación detallada de Jassy sobre la invención, Elon Musk respondió: “Interesante.” La respuesta del CEO de Tesla resalta su interés continuo en el hardware de IA a gran escala, especialmente mientras su empresa xAI construye sus propios superordenadores. Jassy comentó que, como no era posible esperar la construcción de nuevas instalaciones especializadas con refrigeración líquida, Amazon “inventó su propia solución”.
En julio, la compañía anunció que había diseñado y entregado su sistema In-Row Heat Exchanger (IRHX), que utiliza un enfoque directo al chip con una “placa fría”. Este sistema permite que Amazon instale racks enfriados por aire y por líquido en las mismas instalaciones existentes.
Jassy también señaló que la solución IRHX ofrece ventajas importantes, como el uso de un 9% menos de agua que los sitios enfriados completamente por aire y una mejora del 20% en la eficiencia energética comparado con las soluciones disponibles en el mercado.
Amazon prevé que su capacidad de enfriamiento líquido crecerá hasta representar más del 20% de su capacidad de aprendizaje automático para 2026.
Lo que dijo el CEO Andy Jassy sobre el sistema de enfriamiento de chips de IA creado por Amazon
En su extensa publicación en X, Jassy escribió:
“Todos los proveedores de la nube enfrentan el mismo desafío de infraestructura de IA: los chips deben colocarse muy cerca para intercambiar datos rápidamente, pero generan un calor intenso que crea exigencias de enfriamiento sin precedentes. Necesitábamos una solución estratégica que nos permitiera usar nuestros centros de datos enfriados por aire existentes para realizar enfriamiento líquido sin tener que esperar nuevas construcciones. Además, debía implementarse rápidamente para poder ofrecer a los clientes estas potentes capacidades de IA mientras hacemos la transición hacia centros completamente refrigerados por líquido.
Piensa en una casa donde solo una habitación soleada necesita aire acondicionado mientras el resto permanece naturalmente fresca. Eso es lo que queríamos lograr: poder usar tanto racks enfriados por líquido como por aire en las mismas instalaciones con total flexibilidad.
Las opciones disponibles no eran buenas. Podíamos esperar a construir centros especializados con refrigeración líquida o adoptar soluciones del mercado que no eran escalables ni se adaptaban a nuestras necesidades. Ninguna funcionaba para nuestros clientes, así que hicimos lo que normalmente hacemos en Amazon… inventamos nuestra propia solución.
Nuestros equipos diseñaron y entregaron nuestro In-Row Heat Exchanger (IRHX), que utiliza un enfoque directo al chip con una “placa fría”. El líquido circula por esta placa sellada en un sistema cerrado, eliminando continuamente el calor sin aumentar el consumo de agua. Esto nos permite mantener cargas de trabajo tradicionales y aplicaciones exigentes de IA en las mismas instalaciones.
Para 2026, nuestra capacidad de enfriamiento líquido crecerá hasta superar el 20% de nuestra capacidad de aprendizaje automático, que hoy está a escala de varios gigavatios. Aunque la tecnología de enfriamiento líquido no es única, nuestro enfoque sí lo fue. Crear algo tan eficaz que pudiera desplegarse en nuestras 120 zonas de disponibilidad en 38 regiones fue significativo. Como esta solución no existía en el mercado, desarrollamos un sistema que permite una mayor capacidad de enfriamiento líquido con un espacio físico menor, manteniendo la flexibilidad y la eficiencia.
Nuestro IRHX puede soportar una amplia gama de racks que requieren enfriamiento líquido, usa un 9% menos de agua que los sitios totalmente enfriados por aire y ofrece una mejora del 20% en la eficiencia energética comparado con las soluciones disponibles. Y como lo inventamos internamente, podemos implementarlo en pocos meses en cualquiera de nuestros centros de datos, creando una base flexible que servirá a nuestros clientes durante décadas.
Reimaginar e innovar a gran escala es algo que Amazon ha hecho durante mucho tiempo y una de las razones por las que hemos sido líderes en infraestructura tecnológica, invención de centros de datos, sostenibilidad y resistencia. No hemos terminado... aún hay mucho más por inventar para los clientes.”
Mientras tanto, Google lanzó recientemente su chip de IA personalizado más potente, llamado Ironwood, con el objetivo de competir con Nvidia. Según la empresa, la séptima generación de su Tensor Processing Unit es más de cuatro veces más rápida que su predecesora.
El fin del Artículo