
Nota publicada: 2025-07-16
Nueva York. Gracias a nuevas técnicas de refrigeración, chips más potentes y avances en programación, el sector de la inteligencia artificial (IA) trata de limitar su consumo de energía en un contexto de crecimiento frenético.
Las infraestructuras de IA se basan en centros de datos que, según las previsiones de la Agencia Internacional de la Energía (AIE), representarán 3 por ciento de las necesidades mundiales de electricidad de aquí a 2030, el doble de la proporción actual.
El presidente estadunidense, Donald Trump, anunció acuerdos para el desarrollo de infraestructura y producción de energía por valor de 92 mil millones de dólares que apuntan a satisfacer la creciente demanda de la inteligencia artificial.
Trump asistió a la Cumbre de Energía e Innovación de Pensilvania en la Universidad Carnegie Mellon, y gran parte de su mensaje estuvo enfocado en vencer a China en la carrera global de la IA.
Los compromisos de hoy aseguran que el futuro se creará (...) aquí mismo en Pensilvania y aquí mismo en Pittsburgh, y tengo que decir, aquí mismo en Estados Unidos, dijo Trump en el evento.
La consultora McKinsey habla de una carrera con el fin de construir suficientes centros para hacer frente a la aceleración masiva en el uso de la IA, al tiempo que advierte que se avecinan tiempos de escasez.
Hay varias formas de resolver el problema, adelantó Mosharaf Chowdhury, profesor asociado de la Universidad de Michigan.
Una es crear más fuentes de energía, una vía en la que también están embarcados los pesos pesados de la IA; otra es reducir la demanda de electricidad a una capacidad equivalente, explicó.
Refrigeración por agua
Para el profesor, las soluciones inteligentes pueden encontrarse en todos los niveles de la cadena de la IA, desde los equipos físicos hasta los algoritmos.
Según Gareth Williams, de la consultora Arup, la energía necesaria para mantener un centro de datos representa hoy 10 por ciento de lo que consumen los propios servidores, frente a 100 por ciento de hace 20 años.
Esta reducción se puede atribuir al uso generalizado de la refrigeración líquida o por agua en vez de la ventilación convencional, que hace circular fluidos directamente por el interior de los servidores.
Todos los grandes están buscando usar la refrigeración por agua, consideró Williams, pues se está en un punto en el que no tienes opción de no hacerlo.
Los nuevos chips de Nvidia han multiplicado por más de 100 el consumo de energía de un abanico de servidores en comparación con hace 20 años.
Como consecuencia, el líquido puede alcanzar temperaturas mucho más altas que antes, indicó Williams, pero paradójicamente esto facilita su enfriamiento al estar en contacto con el aire exterior, dada la diferencia de temperatura.
A principios de julio, Amazon presentó un nuevo sistema de refrigeración líquida llamado IRHX, que puede instalarse en un centro de datos sin necesidad de integrarlo en la arquitectura inicial.
Otro avance es que los centros de datos están ahora equipados con sensores que pueden ser utilizados por la IA para controlar la temperatura no a escala de todo el centro, sino por zonas muy pequeñas y optimizar el consumo de agua y electricidad por adelantado, según Pankaj Sachdeva, de McKinsey.
El laboratorio de Mosharaf Chowdhury ha desarrollado algoritmos para evaluar con precisión la cantidad de electricidad que necesita cada chip para funcionar, con un ahorro potencial de 20 a 30 por ciento.
Asimismo, se ha avanzado en los propios microprocesadores.
Con cada generación de chips y diseño de las GPU (unidades de procesamiento gráfico) a un nivel de semiconductores, estás comenzando a ser más eficiente en cuanto a poder, recordó Sachdeva.
El equipo dirigido por Yi Ding, profesor de la Universidad Purdue, en Indiana, demostró que es posible alargar la vida de los chips de IA más potentes, las GPU o tarjetas gráficas, sin sacrificar el desempeño, indicó a Afp.
En enero, DeepSeek presentó su modelo R1 de IA generativa, cuyo rendimiento es similar al de los principales actores estadunidenses, aunque está desarrollado con GPU menos potentes.
Los ingenieros de la empresa china lo consiguieron al programar las tarjetas gráficas con mayor precisión. También se saltaron prácticamente una etapa de entrenamiento en el modelo, antes considerada indispensable.
Sin embargo, pese a estos avances tecnológicos, no hay manera de reducir el consumo de energía debido a algo llamado la paradoja de Jevons, señaló Ding.