Cómo el consumo masivo de energía de la IA generativa está sobrecargando nuestra red

Cómo el consumo masivo de energía de la IA generativa está sobrecargando nuestra red

Gracias al auge de la inteligencia artificial, los nuevos centros de datos están surgiendo con la misma rapidez con la que las empresas pueden construirlos, lo que se ha traducido en una enorme demanda de energía para hacer funcionar y refrigerar los servidores que se encuentran en su interior. Ahora, aumentan las preocupaciones sobre si Estados Unidos puede generar suficiente electricidad para la adopción generalizada de la IA y si nuestra red eléctrica, que está envejeciendo, podrá soportar la carga.

«Si no empezamos a pensar en este problema de la energía de forma diferente ahora, nunca vamos a ver este sueño que tenemos», dijo Dipti Vachani, directora de automoción en Arm. Los procesadores de bajo consumo de la empresa de chips se han vuelto cada vez más populares entre los hiperescaladores como Google, Microsoft , Oráculo y Amazonas — precisamente porque pueden reducir el consumo de energía hasta en un 15% en centros de datos.

NvidiaLo último de Chip de inteligencia artificialGrace Blackwell incorpora CPU basadas en Arm que, según dice, pueden ejecutar modelos de IA generativos con 25 veces menos energía que la generación anterior.

«Ahorrar hasta el último bit de energía requerirá un diseño fundamentalmente diferente a cuando se intenta maximizar el rendimiento», dijo Vachani.

Esta estrategia de reducir el consumo de energía mejorando la eficiencia computacional, a menudo denominada «más trabajo por vatio», es una respuesta a la crisis energética de la IA, pero no es suficiente.

Una consulta de ChatGPT utiliza casi 10 veces más energía que una búsqueda típica de Google, según un informe por Goldman Sachs. La generación de una imagen de IA puede utilizar tanta potencia como cargar tu teléfono inteligente.

Este problema no es nuevo. Las estimaciones de 2019 encontraron que entrenar un modelo de lenguaje grande produjo tanto CO2 como toda la vida útil de cinco automóviles propulsados ​​por gasolina.

Las empresas hiperescaladoras que construyen centros de datos para dar cabida a este enorme consumo de energía también están viendo cómo se disparan las emisiones. La última actualización medioambiental de Google informe mostró las emisiones de gases de efecto invernadero aumentó casi el 50% de 2019 a 2023 en parte debido al consumo de energía del centro de datos, aunque también dijo que sus centros de datos son 1,8 veces más eficientes energéticamente que un centro de datos típico. Las emisiones de Microsoft rosa casi el 30% de 2020 a 2024, también debido en parte a los centros de datos.

Y en Kansas City, donde Meta está construyendo un centro de datos centrado en IA, las necesidades de energía son tan altas que Los planes para cerrar una central eléctrica de carbón se suspenden.

Cientos de cables Ethernet conectan racks de servidores en un centro de datos Vantage en Santa Clara, California, el 8 de julio de 2024.

Katie Tarasov

Persiguiendo el poder

Hay mas que 8.000 centros de datos en todo el mundocon la mayor concentración en EE.UU. Y, gracias a la IA, habrá muchos más para finales de la década. Boston Consulting Group estimados La demanda de centros de datos aumentará entre un 15% y un 20% cada año hasta 2030, cuando se espera que representen el 16% del consumo total de energía de EE. UU. Eso es un aumento desde solo el 2,5% antes del lanzamiento de ChatGPT de OpenAI en 2022, y es equivalente a la energía utilizada por aproximadamente dos tercios del total de viviendas en EE.UU..

CNBC visitó un centro de datos en Silicon Valley para descubrir cómo la industria puede manejar este rápido crecimiento y dónde encontrará suficiente energía para hacerlo posible.

«Sospechamos que la cantidad de demanda que veremos de aplicaciones específicas de IA será tanta o mayor que la que hemos visto históricamente de la computación en la nube», dijo Jeff Tench, vicepresidente ejecutivo de Vantage Data Center para América del Norte y APAC.

Muchas grandes empresas tecnológicas contratan a empresas como Vantage para alojar sus servidores. Tench dijo que los centros de datos de Vantage suelen tener capacidad para utilizar más de 64 megavatios de energía, o tanta energía como decenas de miles de hogares.

«Muchos de ellos están siendo utilizados por clientes individuales, que tendrán la totalidad del espacio alquilado a su nombre. Y si pensamos en las aplicaciones de IA, esas cifras pueden crecer significativamente más allá de eso, hasta llegar a cientos de megavatios», dijo Tench.

Santa Clara, California, donde CNBC visitó Vantage, ha sido durante mucho tiempo uno de los puntos calientes del país para grupos de centros de datos cerca de clientes ávidos de datos. La sede de Nvidia era visible desde el techo. Tench dijo que hay una «desaceleración» en el norte de California debido a una «falta de disponibilidad de energía de las empresas de servicios públicos aquí en esta área».

Vantage está construyendo nuevos campus en Ohio, Texas y Georgia.

«La propia industria está buscando lugares donde haya un acceso cercano a energías renovables, ya sea eólica o solar, y otra infraestructura que se pueda aprovechar, ya sea como parte de un programa de incentivos para convertir lo que habría sido una planta de carbón en gas natural, o buscando cada vez más formas de obtener energía de las instalaciones nucleares», dijo Tench.

Vantage Data Centers está ampliando un campus en las afueras de Phoenix, Arizona, para ofrecer 176 megavatios de capacidad

Centros de datos Vantage

Endurecimiento de la red

La red eléctrica obsoleta suele estar mal equipada para manejar la carga incluso en lugares donde se puede generar suficiente energía. El cuello de botella se produce al transportar la energía desde el sitio de generación hasta el lugar donde se consume. Una solución es agregar cientos o miles de kilómetros de líneas de transmisión.

«Eso es muy costoso y consume mucho tiempo, y a veces el costo simplemente se traslada a los residentes en un aumento en la factura de los servicios públicos», dijo Shaolei Ren, profesor asociado de ingeniería eléctrica e informática en la Universidad de California, Riverside.

Un esfuerzo de 5.200 millones de dólares para ampliar las líneas a un área de Virginia conocida como «el callejón de los centros de datos» fue se encontró con oposición de los contribuyentes locales que no quieren ver aumentar sus facturas para financiar el proyecto.

Otra solución es utilizar software predictivo para reducir los fallos en uno de los puntos más débiles de la red: el transformador.

«Toda la electricidad generada debe pasar por un transformador», dijo Tecnologías VIE El director ejecutivo Rahul Chaturvedi agregó que hay entre 60 y 80 millones de ellos en los EE. UU.

El transformador promedio también tiene 38 años, por lo que es una causa común de cortes de energía. Reemplazarlos es costoso y lento. VIE fabrica un pequeño sensor que se adhiere a los transformadores para predecir fallas y determinar cuáles pueden soportar más carga para poder alejarlos de aquellos que corren riesgo de fallar.

Chaturvedi dijo que el negocio se ha triplicado desde que se lanzó ChatGPT en 2022 y está previsto que se duplique o triplique nuevamente el próximo año.

El director ejecutivo de VIE Technologies, Rahul Chaturvedi, sostiene un sensor el 25 de junio de 2024 en San Diego. VIE los instala en transformadores antiguos para ayudar a predecir y reducir las fallas de la red.

Tecnologías VIE

Enfriando servidores

Los centros de datos de IA generativa también requerirán entre 4.200 y 6.600 millones de metros cúbicos de extracción de agua para 2027 para mantenerse frescos, según La investigación de RenEso es más que la extracción anual total de agua de la mitad del Reino Unido.

«Todo el mundo está preocupado por el alto consumo de energía que supone la IA. Podemos solucionarlo cuando nos pongamos las pilas y dejemos de ser tan idiotas con la energía nuclear, ¿no? Eso tiene solución. El agua es el factor limitante fundamental de lo que está por venir en términos de IA», dijo Tom Ferguson, socio gerente de Burnt Island Ventures.

El equipo de investigación de Ren descubrió que cada 10 a 50 mensajes de ChatGPT pueden agotarse aproximadamente lo que encontrarías en una botella de agua estándar de 16 onzas.

Gran parte de esa agua se utiliza para refrigeración por evaporación, pero el centro de datos de Vantage en Santa Clara tiene grandes unidades de aire acondicionado que enfrían el edificio sin necesidad de extraer agua.

Otra solución es utilizar líquido para enfriar directamente el chip.

«Para muchos centros de datos, eso requiere una enorme cantidad de modernización. En nuestro caso en Vantage, hace unos seis años, implementamos un diseño que nos permitía aprovechar ese circuito de agua fría aquí en el piso de la sala de datos», dijo Tench de Vantage.

A empresas les gusta ManzanaSamsung y Qualcomm han promocionado los beneficios de la IA en el dispositivo, manteniendo las consultas que consumen mucha energía fuera de la nube y de los centros de datos con escasez de energía.

«Tendremos tanta inteligencia artificial como admitan esos centros de datos, y puede que sea menos de lo que la gente aspira a tener, pero en definitiva, hay mucha gente trabajando para encontrar formas de aliviar algunas de esas limitaciones de suministro», dijo Tench.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *