Las redes eléctricas crujen a medida que aumentan las demandas de IA
Chris Baraniuk,reportero de tecnología
Hay un gran problema con la IA generativa, dice Sasha Luccioni de Hugging Face, una empresa de aprendizaje automático. La IA generativa consume mucha energía.
«Cada vez que consulta el modelo, todo se activa, por lo que es tremendamente ineficiente desde una perspectiva computacional», dice.
Tomemos como ejemplo los modelos de lenguajes grandes (LLM, por sus siglas en inglés) que son el núcleo de muchos sistemas de IA generativa. Han sido capacitados en vastos almacenes de información escrita, lo que les ayuda a producir texto en respuesta a prácticamente cualquier consulta.
«Cuando se utiliza la IA generativa… se genera contenido desde cero, se trata esencialmente de inventar respuestas», explica el Dr. Luccioni. Eso significa que la computadora tiene que trabajar bastante duro.
Un sistema de IA generativa podría utilizar alrededor de 33 veces más energía que las máquinas que ejecutan software para tareas específicas. de acuerdo con un estudio reciente por el Dr. Luccioni y colegas. El trabajo ha sido revisado por pares pero aún no se ha publicado en una revista.
Sin embargo, no es su computadora personal la que usa toda esta energía. O tu teléfono inteligente. Los cálculos en los que dependemos cada vez más ocurren en centros de datos gigantes que, para la mayoría de las personas, están fuera de la vista y fuera de la mente.
«La nube», dice el Dr. Luccioni. «No piensas en estas enormes cajas de metal que se calientan y consumen tanta energía».
Los centros de datos del mundo están usando cada vez más electricidad. En 2022, consumieron 460 teravatios hora de electricidad, y el La Agencia Internacional de Energía (AIE) espera esto se duplicará en sólo cuatro años. Los centros de datos podrían utilizar un total de 1.000 teravatios hora al año para 2026. «Esta demanda es aproximadamente equivalente al consumo de electricidad de Japón», dice la AIE. Japón tiene una población de 125 millones de personas.
En los centros de datos se almacenan enormes volúmenes de información para su recuperación en cualquier parte del mundo: desde correos electrónicos hasta películas de Hollywood. Las computadoras en esos edificios sin rostro también impulsan la inteligencia artificial y las criptomonedas. Son la base de la vida tal como la conocemos.
Pero algunos países saben muy bien el consumo energético de estas instalaciones. Actualmente existe una moratoria impedir la construcción de nuevos centros de datos en Dublín. Casi una quinta parte de la electricidad de Irlanda se utiliza en los centros de datos y se espera que esta cifra crezca significativamente en los próximos años; mientras tanto, los hogares irlandeses están reduciendo su consumo.
El jefe de National Grid dijo en un discurso en marzo que la demanda de electricidad de los centros de datos en el Reino Unido se multiplicará por seis en sólo 10 añosimpulsado en gran medida por el auge de la IA. Sin embargo, National Grid espera que la energía necesaria para electrificar el transporte y la calefacción sea mucho mayor en total.
Las empresas de servicios públicos en Estados Unidos están empezando a sentir la presión, dice Chris Seiple de Wood Mackenzie, una firma de investigación.
«Se están viendo afectados por las demandas de los centros de datos exactamente al mismo tiempo que se está produciendo un renacimiento (gracias a la política gubernamental) en la fabricación nacional», explica. Los legisladores de algunos estados ahora están reconsiderando las exenciones fiscales ofrecidas a los desarrolladores de centros de datos debido a la gran presión que estas instalaciones están ejerciendo sobre la infraestructura energética local. según informes en EE.UU..
Seiple dice que se está produciendo una «apropiación de tierras» para las ubicaciones de los centros de datos cerca de centrales eléctricas o centros de energía renovable: «Iowa es un foco de desarrollo de centros de datos, hay mucha generación eólica allí».
Algunos centros de datos pueden darse el lujo de ir a ubicaciones más remotas hoy en día porque la latencia (el retraso, generalmente medido en milisegundos, entre el envío de información desde un centro de datos y el usuario que la recibe) no es una preocupación importante para los cada vez más populares sistemas de IA generativa. En el pasado, los centros de datos que manejaban comunicaciones de emergencia o algoritmos de comercio financiero, por ejemplo, se ubicaban dentro o muy cerca de grandes centros de población, para obtener los mejores tiempos de respuesta.
No hay duda de que la demanda de energía de los centros de datos aumentará en los próximos años, pero existe una enorme incertidumbre sobre en qué medida, subraya Seiple.
Parte de esa incertidumbre se debe al hecho de que el hardware detrás de la IA generativa evoluciona todo el tiempo.
Tony Grayson es gerente general de Compass Quantum, una empresa de centros de datos, y señala los chips de supercomputadora Grace Blackwell lanzados recientemente por Nvidia (que llevan el nombre de un científico informático y un matemático), que están diseñados específicamente para impulsar procesos de alta gama, incluida la IA generativa. , computación cuántica y diseño de fármacos asistido por computadora.
Nvidia dice que, en el futuro, una empresa podría entrenar IA varias veces más grandes que las disponibles actualmente en 90 días. Se necesitarían 8.000 chips Nvidia de la generación anterior y un suministro de electricidad de 15 megavatios.
Pero el se podría realizar el mismo trabajo al mismo tiempo con sólo 2.000 chips Grace Blackwell, y necesitarían un suministro de cuatro megavatios, según Nvidia.
Eso todavía equivale a 8,6 gigavatios hora de electricidad consumidos, aproximadamente la misma cantidad que utiliza toda la ciudad de Belfast en una semana.
«El rendimiento está aumentando tanto que el ahorro total de energía es grande», afirma Grayson. Pero está de acuerdo en que las demandas de energía están determinando dónde ubican sus instalaciones los operadores de centros de datos: «La gente va a donde hay energía barata».
El Dr. Luccioni señala que la energía y los recursos necesarios para fabricar los últimos chips informáticos son importantes.
Aún así, es cierto que los centros de datos se han vuelto más eficientes energéticamente con el tiempo, sostiene Dale Sartor, consultor y afiliado del Laboratorio Nacional Lawrence Berkeley en Estados Unidos. Su eficiencia a menudo se mide en términos de efectividad en el uso de energía o PUE. Cuanto menor sea el número, mejor. Los centros de datos de última generación tienen un PUE de alrededor de 1,1, señala.
Estas instalaciones todavía generan cantidades significativas de calor residual y Europa está por delante de Estados Unidos en la búsqueda de formas de utilizar ese calor residual, como por ejemplo calentar piscinas – dice el señor Sartor.
Bruce Owen, director general de Equinix, una empresa de centros de datos en el Reino Unido, dice: «Sigo pensando que la demanda crecerá más que el aumento de eficiencia que vemos». Predice que se construirán más centros de datos con instalaciones de generación de energía en el sitio incluidas. Equinix fue permiso de construcción denegado para un centro de datos a gas en Dublín el año pasado.
Sartor añade que los costos pueden determinar en última instancia si la IA generativa vale la pena para ciertas aplicaciones: «Si la forma antigua es más barata y más fácil, entonces no habrá mucho mercado para la nueva forma».
El Dr. Luccioni destaca, sin embargo, que las personas necesitarán comprender claramente en qué se diferencian las opciones que tienen ante sí en términos de eficiencia energética. Está trabajando en un proyecto para desarrollar clasificaciones energéticas para la IA.
«En lugar de elegir este modelo derivado de GPT que es muy torpe y consume mucha energía, puedes elegir este modelo Energy Star A+ que será mucho más liviano y eficiente», dice.