Según las nuevas proyecciones publicadas por el Laboratorio Nacional Lawrence Berkeley en diciembre, para 2028 más de la mitad de la electricidad destinada a los centros de datos se utilizará para la IA. En ese momento, la IA por sí sola podría consumir anualmente tanta electricidad como el 22% de todos los hogares estadounidenses.
La integración de la IA en nuestras vidas es el cambio más significativo en la vida online en más de una década. Cientos de millones de personas recurren ahora habitualmente a los chatbots para que les ayuden con los deberes, la investigación, la programación o la creación de imágenes y vídeos. Pero ¿qué impulsa todo esto?
Un nuevo análisis de MIT Technology Review ofrece una visión sin precedentes y completa del consumo energético de la industria de la IA, hasta el nivel de una sola consulta, para rastrear cuál es su huella de carbono actual y hacia dónde se dirige, a medida que la IA avanza hacia miles de millones de usuarios diarios.
Hablamos con dos docenas de expertos que miden la demanda energética de la IA, evaluamos diferentes modelos y comandos de IA, analizamos cientos de páginas de proyecciones e informes y preguntamos a los principales creadores de modelos de IA sobre sus planes. En última instancia, descubrimos que el conocimiento general sobre el consumo energético de la IA está lleno de lagunas.
Empezamos por lo pequeño, ya que la cuestión de cuánto cuesta una sola consulta es de vital importancia para comprender el panorama general. Esto se debe a que esas consultas se están incorporando a cada vez más aplicaciones, más allá de los chatbots independientes: desde búsquedas hasta agentes, pasando por las aplicaciones cotidianas que utilizamos para controlar nuestro estado físico, comprar online o reservar un vuelo. Los recursos energéticos necesarios para impulsar esta revolución de la inteligencia artificial son asombrosos, y las mayores empresas tecnológicas del mundo se han marcado como prioridad máxima aprovechar cada vez más esa energía, con el objetivo de remodelar nuestras redes energéticas en el proceso.
Meta y Microsoft están trabajando para poner en marcha nuevas centrales nucleares. OpenAI y el presidente Donald Trump anunciaron la iniciativa Stargate, cuyo objetivo es invertir (431.000 millones de euros)—más que el programa espacial Apolo— para construir hasta 10 centros de datos (cada uno de los cuales podría necesitar cinco gigavatios, más que la demanda total de energía del estado de New Hampshire (EE UU. Apple ha anunciado planes para invertiren fabricación y centros de datos en Estados Unidos durante los próximos cuatro años. Google prevé gastar 75.000 millones de dólares (unos 64.650 millones de euros) solo en infraestructura de IA en 2025.
Esto no es simplemente la norma en un mundo digital. Es algo exclusivo de la IA y supone un cambio notable con respecto al apetito energético de las grandes tecnológicas en el pasado reciente. Entre 2005 y 2017, la cantidad de electricidad destinada a los centros de datos se mantuvo bastante estable gracias al aumento de la eficiencia, a pesar de la construcción de un gran número de nuevos centros de datos para dar servicio al auge de los servicios online basados en la nube, desde Facebook hasta Netflix. En 2017, la IA comenzó a cambiarlo todo. Se empezaron a construir centros de datos con hardware de alto consumo energético diseñado para la IA, lo que llevó a duplicar su consumo de electricidad para 2023. Los últimos informes muestran que el 4,4% de toda la energía de Estados Unidos se destina ahora a los centros de datos.
La intensidad de carbono de la electricidad utilizada por los centros de datos era un 48 % superior a la media de Estados Unidos.
Dada la dirección que está tomando la IA —más personalizada, capaz de razonar y resolver problemas complejos en nuestro nombre, y presente en todas partes—, es probable que la huella energética de IA actual sea la más pequeña que vaya a existir. Según las nuevas proyecciones publicadas por el Laboratorio Nacional Lawrence Berkeley en diciembre, para 2028 más de la mitad de la electricidad destinada a los centros de datos se utilizará para la IA. En ese momento, la IA por sí sola podría consumir anualmente tanta electricidad como el 22% de todos los hogares estadounidenses.
Mientras tanto, se espera que los centros de datos sigan tendiendo a utilizar formas de energía de alto impacto y con mayor intensidad de CO2 (como el gas) para satisfacer las necesidades inmediatas, dejando a su paso nubes de emisiones. Y todo este crecimiento es para una nueva tecnología que aún está encontrando su lugar y que, en muchas aplicaciones (educación, asesoramiento médico, análisis jurídico), podría ser la herramienta equivocada para el trabajo o, al menos, tener una alternativa menos intensiva en energía.
Los cálculos del consumo energético de la IA a menudo cortocircuitan el debate, ya sea reprendiendo el comportamiento individual o provocando comparaciones con los mayores contaminantes climáticos. Ambas reacciones eluden la cuestión: la IA es inevitable y, aunque una sola consulta tenga un impacto reducido, los gobiernos y las empresas están configurando un futuro energético mucho más amplio en torno a las necesidades de la IA.
Estamos adoptando un enfoque diferente con una contabilidad destinada a informar las numerosas decisiones que aún quedan por tomar: dónde se ubicarán los centros de datos, qué los alimentará y cómo hacer visible y responsable el creciente impacto de la IA.
Se estima que ChatGPT es actualmente el quinto sitio web más visitado del mundo, solo por detrás de Instagram y por delante de X.
Esto se debe a que, a pesar de la ambiciosa visión de la IA planteada por las empresas tecnológicas, los proveedores de servicios públicos y el gobierno federal, los detalles sobre cómo se materializará este futuro son confusos. Científicos, centros de investigación financiados con fondos federales, activistas y empresas energéticas sostienen que las principales empresas de IA y los operadores de centros de datos revelan muy poca información sobre sus actividades. Las empresas que crean y utilizan modelos de IA guardan silencio en gran medida a la hora de responder a una pregunta fundamental: ¿cuánta energía consume la interacción con uno de estos modelos? ¿Y qué tipo de fuentes de energía alimentarán el futuro de la IA?
Esto obliga incluso a aquellos cuyo trabajo consiste en predecir la demanda de energía a armar un rompecabezas con innumerables piezas que faltan, lo que hace casi imposible planificar el impacto futuro de la IA en las redes eléctricas y las emisiones. Peor aún, los acuerdos que las empresas de servicios públicos firman con los centros de datos probablemente transferirán los costes de la revolución de la IA al resto de nosotros, en forma de facturas de electricidad más altas.
Es mucho que asimilar. Para describir el panorama general de cómo será ese futuro, tenemos que empezar por el principio.
Primera parte: creación del modelo
Antes de poder pedirle a un modelo de IA que te ayude con tus planes de viaje o que genere un vídeo, el modelo nace en un centro de datos.
Los racks de servidores funcionan sin descanso durante meses, ingiriendo datos de entrenamiento, procesando números y realizando cálculos. Se trata de un proceso largo y costoso: se estima que el entrenamiento del GPT-4 de OpenAI costó más de 100 millones de dólares (unos 86 millones de euros) y consumió 50 gigavatios-hora de energía, suficiente para abastecer a San Francisco durante tres días. Solo después de este entrenamiento, cuando los consumidores o clientes «inferencian» los modelos de IA para obtener respuestas o generar resultados, los creadores de los modelos esperan recuperar sus enormes costes y, finalmente, obtener beneficios.
«Para que cualquier empresa gane dinero con un modelo, eso solo ocurre con la inferencia», afirma Esha Choukse, investigadora de Microsoft Azure que ha estudiado cómo hacer más eficiente la inferencia de la IA.
Como han dejado claro las conversaciones con expertos y empresas de IA, la inferencia, y no el entrenamiento, representa una parte cada vez mayor de la demanda energética de la IA y seguirá siendo así en un futuro próximo. Se estima que entre el 80% y el 90% de la potencia informática de la IA se utiliza para la inferencia.
Todo esto ocurre en los centros de datos. En Estados Unidos hay aproximadamente 3.000 edificios de este tipo que albergan servidores y sistemas de refrigeración y que están gestionados por proveedores de servicios en la nube y gigantes tecnológicos como Amazon o Microsoft, pero que también utilizan las empresas emergentes de IA. Un número cada vez mayor, aunque no se sabe exactamente cuántos, ya que la información sobre estas instalaciones está muy protegida, se han creado para la inferencia de IA.
Si has visto algunos gráficos que estiman el impacto energético de plantear una pregunta a un modelo de IA, podrías pensar que es como medir el consumo de combustible de un coche o la clasificación energética de un lavavajillas: un valor conocido con una metodología común para calcularlo. Se equivoca.
En realidad, el tipo y el tamaño del modelo, el tipo de resultado que se genera y un sinfín de variables que escapan a tu control, como la red eléctrica a la que está conectado el centro de datos al que se envía tu solicitud y la hora del día en que se procesa, pueden hacer que una consulta consuma miles de veces más energía y produzca más emisiones que otra.
Cuando consultas la mayoría de los modelos de IA, ya sea en tu teléfono desde una aplicación como Instagram o en la interfaz web de ChatGPT, gran parte de lo que ocurre después de que tu pregunta se envíe a un centro de datos sigue siendo un secreto. Factores como qué centro de datos del mundo procesa tu solicitud, cuánta energía se necesita para hacerlo y cuán intensas en carbono son las fuentes de energía utilizadas suelen ser conocidos solo por las empresas que gestionan los modelos.
Esto es así en la mayoría de los modelos de marcas conocidas a los que estás acostumbrado, como ChatGPT de OpenAI, Gemini de Google y Claude de Anthropic, que se denominan «cerrados». Los detalles clave están en poder de las empresas que los crean, que los protegen porque los consideran secretos comerciales (y también porque podrían dar lugar a mala publicidad). Estas empresas tienen pocos incentivos para divulgar esta información y, hasta ahora, no lo han hecho.
«Los proveedores de modelos de IA cerrados ofrecen una caja negra total», afirma Boris Gamazaychikov, responsable de sostenibilidad de la IA en Salesforce, que ha liderado los esfuerzos con investigadores de Hugging Face, un proveedor de herramientas, modelos y bibliotecas de IA para particulares y empresas, para hacer más transparentes las necesidades energéticas de la IA. Sin una mayor divulgación por parte de las empresas, no solo carecemos de buenas estimaciones, sino que tenemos muy poca información en la que basarnos.
Sin más información por parte de las empresas, no solo carecemos de estimaciones fiables, sino que apenas tenemos datos en los que basarnos.
Entonces, ¿dónde podemos obtener estimaciones? Los investigadores pueden descargar y modificar los denominados modelos de código abierto, y acceder a herramientas especiales para medir cuánta energía necesita la GPU H100 para una tarea determinada. Estos modelos también son increíblemente populares: Meta anunció en abril que sus modelos Llama se han descargado más de 1.200 millones de veces, y muchas empresas utilizan modelos de código abierto cuando quieren tener más control sobre los resultados que el que pueden obtener con algo como ChatGPT.
Pero incluso si los investigadores pueden medir la potencia consumida por la GPU, eso deja fuera la potencia consumida por las CPU, los ventiladores y otros equipos. Un artículo de Microsoft de 2024 analizó la eficiencia energética de la inferencia de grandes modelos de lenguaje y descubrió que duplicar la cantidad de energía utilizada por la GPU da una estimación aproximada de la demanda energética de toda la operación.
Así que, por ahora, medir los principales modelos de código abierto (y añadir estimaciones para todas estas otras piezas) nos da la mejor imagen que tenemos de cuánta energía se utiliza para una sola consulta de IA. Sin embargo, hay que tener en cuenta que las formas en que la gente utiliza la IA hoy en día —para escribir una lista de la compra o crear un vídeo surrealista— son mucho más sencillas que las que utilizaremos en el futuro autónomo y agentivo hacia el que nos lanzan las empresas de IA. Más adelante hablaremos de ello.
Esto es lo que hemos descubierto.
Modelos de texto
Empecemos con los modelos en los que se escribe una pregunta y se recibe una respuesta en forma de palabras. Uno de los principales grupos que evalúa las necesidades energéticas de la IA se encuentra en la Universidad de Michigan (EE UU), en el estudio dirigido por el doctorando Jae-Won Chung y el profesor asociado Mosharaf Chowdhury, que publican mediciones de energía en su clasificación ML.Energy de . Hemos trabajado con el equipo para centrarnos en las necesidades energéticas de uno de los modelos de código abierto más utilizados, Llama, de Meta.
El modelo más pequeño de nuestra cohorte Llama, Llama 3.1 8B, tiene 8.000 millones de parámetros, que son básicamente los «botones» ajustables de un modelo de IA que le permiten hacer predicciones. Cuando se probó con diferentes comandos de generación de texto, como crear un itinerario de viaje para Estambul o explicar la computación cuántica, el modelo requirió unos 57 julios por respuesta, o unos 114 julios si se tiene en cuenta la refrigeración, otros cálculos y otras demandas. Se trata de una cantidad ínfima, equivalente a la energía necesaria para recorrer dos metros en una bicicleta eléctrica o para hacer funcionar un microondas durante una décima de segundo.
El mayor de nuestro grupo de generación de texto, Llama 3.1 405B, tiene 50 veces más parámetros. Por lo general, cuantos más parámetros, mejores respuestas, pero también se necesita más energía para cada respuesta. De media, este modelo necesitaba 3.353 julios, o un total estimado de 6.706 julios, por cada respuesta. Eso es suficiente para transportar a una persona unos 120 metros en una bicicleta eléctrica o para hacer funcionar el microondas durante ocho segundos.
Por lo tanto, el tamaño del modelo es un factor determinante de la demanda de energía. Una de las razones es que, una vez que un modelo alcanza un determinado tamaño, debe ejecutarse en más chips, cada uno de los cuales aumenta la energía necesaria. El modelo más grande que hemos probado tiene 405.000 millones de parámetros, pero otros, como DeepSeek, han ido mucho más allá, con más de 600.000 millones de parámetros. El número de parámetros de los modelos de código cerrado no se divulga públicamente y solo puede estimarse. Se calcula que GPT-4 tiene más de un billón de parámetros.
Pero en todos estos casos, la propia indicación también fue un factor muy importante. Las indicaciones sencillas, como pedir que se contaran unos chistes, consumían con frecuencia nueve veces menos energía que las indicaciones más complicadas para escribir historias creativas o ideas de recetas.
Generación de imágenes
Los modelos de IA que generan imágenes y vídeos funcionan con una arquitectura diferente, llamada difusión. En lugar de predecir y generar palabras, aprenden a transformar una imagen de ruido enuna foto de un elefante, por ejemplo. Lo hacen aprendiendo los contornos y patrones de las imágenes de sus datos de entrenamiento y almacenando esta información en millones o miles de millones de parámetros. Los modelos generadores de vídeo aprenden a hacerlo también en la dimensión del tiempo.
La energía que necesita un modelo de difusión determinado no depende de tu indicación: generar una imagen de un esquiador en las dunas de arena requiere la misma cantidad de energía que generar una de un astronauta cultivando en Marte. En cambio, la energía necesaria depende del tamaño del modelo, la resolución de la imagen y el número de «pasos» que requiere el proceso de difusión (cuantos más pasos, mayor es la calidad, pero se necesita más energía).
Generar una imagen de calidad estándar (1024 x 1024 píxeles) con Stable Diffusion 3 Medium, el generador de imágenes de código abierto líder, con 2000 millones de parámetros, requiere aproximadamente 1.141 julios de energía de la GPU. Con los modelos de difusión, a diferencia de los grandes modelos de lenguaje, no hay estimaciones de cuánto contribuyen las GPU al consumo total de energía, pero los expertos sugieren que sigamos con el enfoque de «duplicar» que hemos utilizado hasta ahora, ya que las diferencias probablemente sean sutiles. Eso significa un total estimado de 2.282 julios. Mejorar la calidad de la imagen duplicando el número de pasos de difusión a 50 casi duplica la energía necesaria, hasta unos 4.402 julios. Eso equivale a unos 76 metros en una bicicleta eléctrica o a unos cinco segundos y medio de funcionamiento de un microondas. Sigue siendo menos que el modelo de texto más grande.
Esto puede resultar sorprendente si se piensa que generar imágenes requiere más energía que generar texto. «Los modelos de texto grandes tienen muchos parámetros», afirma Chung, que realizó las mediciones en generadores de texto e imágenes de código abierto que aparecen en este artículo. «Aunque generan texto, realizan mucho trabajo». Por otro lado, los generadores de imágenes suelen trabajar con menos parámetros.
Creación de un vídeo
El año pasado, OpenAI presentó Sora, su deslumbrante herramienta para crear vídeos de alta definición con IA. También han aparecido otros modelos de vídeo de código cerrado, como Google Veo2 y Firefly de Adobe.
Dada la enorme cantidad de capital y contenido que se necesita para entrenar estos modelos, no es de extrañar que los modelos de código abierto y de uso gratuito suelan estar por detrás en cuanto a calidad. Aun así, según los investigadores de Hugging Face, uno de los mejores es CogVideoX, creado por una startup china de IA llamada Zhipu AI y por investigadores de la Universidad de Tsinghua en Pekín (China).
Sasha Luccioni, investigador de IA y Clima en Hugging Face, probó la energía necesaria para generar vídeos con el modelo utilizando una herramienta llamada Code Carbon.
Una versión anterior del modelo, lanzada en agosto, creaba vídeos a solo ocho fotogramas por segundo con una resolución granulada, más parecida a un GIF que a un vídeo. Cada uno requería unos 109.000 julios para su producción. Pero tres meses después, la empresa lanzó un modelo más grande y de mayor calidad que produce vídeos de cinco segundos a 16 fotogramas por segundo (esta velocidad de fotogramas aún no es de alta definición; es la que se utilizaba en la época del cine mudo de Hollywood hasta finales de la década de 1920). El nuevo modelo consume más de 30 veces más energía por cada vídeo de 5 segundos: unos 3,4 millones de julios, más de 700 veces la energía necesaria para generar una imagen de alta calidad, esto equivale a recorrer 38 millas en una bicicleta eléctrica o a hacer funcionar un microondas durante más de una hora.
Es justo decir que los principales generadores de vídeo con IA, que crean vídeos deslumbrantes e hiperrealistas de hasta 30 segundos de duración, consumirán mucha más energía. A medida que estos generadores se hacen más grandes, también añaden funciones que permiten modificar elementos concretos de los vídeos y unir varias tomas para crear escenas, lo que aumenta su consumo energético. Una nota: las empresas de IA han defendido estas cifras argumentando que los vídeos generativos tienen una huella menor que los rodajes y los viajes que conlleva la producción típica de un vídeo. Esa afirmación es difícil de comprobar y no tiene en cuenta el aumento de la generación de vídeos que podría producirse si los vídeos de IA se abarataran.
Todo en un solo día
Entonces, ¿cuál sería el consumo energético diario de una persona con hábitos de IA?
Hay una salvedad importante en este cálculo. Estas cifras no pueden servir como referencia para calcular la energía necesaria para alimentar algo como ChatGPT 4o. No sabemos cuántos parámetros hay en los últimos modelos de OpenAI, cuántos de esos parámetros se utilizan para diferentes arquitecturas de modelos, ni qué centros de datos se utilizan y cómo OpenAI puede distribuir las solicitudes entre todos estos sistemas. Se pueden hacer conjeturas, como han hecho muchos, pero son tan aproximadas que pueden distraer más que ayudar.
«Deberíamos dejar de intentar hacer ingeniería inversa con cifras basadas en rumores», afirma Luccioni, que añade: «Hay que presionar más a estas empresas para que compartan las cifras reales». Luccioni ha creado el AI Energy Score, una forma de calificar los modelos en función de su eficiencia energética. Pero las empresas de código cerrado tienen que optar por participar. Según Luccioni, pocas lo han hecho.
Tercera parte: Combustible y emisiones
Ahora que tenemos una estimación de la energía total necesaria para ejecutar un modelo de IA para producir texto, imágenes y vídeos, podemos calcular lo que eso significa en términos de emisiones que provocan el cambio climático.
En primer lugar, que un centro de datos esté en funcionamiento no es necesariamente algo malo. Si todos los centros de datos estuvieran conectados a paneles solares y solo funcionaran cuando brillara el sol, se hablaría mucho menos del consumo energético de la IA. Pero no es así. La mayoría de las redes eléctricas de todo el mundo siguen dependiendo en gran medida de los combustibles fósiles. Por lo tanto, el consumo de electricidad tiene un coste climático.
«Los centros de datos de IA necesitan energía constante, las 24 horas del día, los 7 días de la semana, los 365 días del año», afirma Rahul Mewawalla, director ejecutivo de Mawson Infrastructure Group, que construye y mantiene centros de datos de alta energía que dan soporte a la IA.
Esto significa que los centros de datos no pueden depender de tecnologías intermitentes como la energía eólica y solar y, por término medio, tienden a utilizar electricidad más contaminante. Un estudio preliminar de la Escuela de Salud Pública T.H. Chan de Harvard (EE UU) reveló que la intensidad de CO2 de la electricidad utilizada por los centros de datos era un 48 % superior a la media de Estados Unidos. Parte de la razón es que, actualmente, los centros de datos se concentran en lugares que tienen redes eléctricas más contaminantes en promedio, como la red eléctrica con alto consumo de carbón de la región del Atlántico medio, que incluye Virginia, Virginia Occidental y Pensilvania (EE UU). Además, funcionan constantemente, incluso cuando no se dispone de fuentes más limpias.
Los centros de datos no pueden depender de tecnologías intermitentes como la energía eólica y solar y, por término medio, tienden a utilizar electricidad más contaminante.
Empresas tecnológicas como Meta, Amazon y Google han respondido a este problema de los combustibles fósiles anunciando objetivos para utilizar más energía nuclear. Las tres se han sumado al compromiso de triplicar la capacidad nuclear mundial para 2050. Sin embargo, en la actualidad, la energía nuclear solo representa el 20% del suministro eléctrico en Estados Unidos y alimenta una pequeña parte de los centros de datos de IA. El gas natural representa más de la mitad de la electricidad generada en Virginia, que cuenta con más centros de datos que cualquier otro estado de Estados Unidos, por ejemplo. Además, las nuevas operaciones nucleares tardarán años, quizás décadas, en materializarse.
En 2024, los combustibles fósiles, incluidos el gas natural y el carbón, representaban algo menos del 60 % del suministro eléctrico en Estados Unidos. La energía nuclear representaba alrededor del 20 %, y una combinación de energías renovables representaba la mayor parte del 20 % restante.
Las deficiencias en el suministro eléctrico, junto con la prisa por construir centros de datos para alimentar la IA, suelen traducirse en planes energéticos miopes. En abril, se descubrió mediante imágenes de satélite que el centro de supercomputación X de Elon Musk, cerca de Memphis (Tennesse, EE UU), utilizaba docenas de generadores de gas metano que, según el Southern Environmental Law Center, están no aprobados por los reguladores energéticos para complementar la red eléctrica y violan la Ley de Aire Limpio.
La métrica clave utilizada para cuantificar las emisiones de estos centros de datos se denomina intensidad de carbono: cuántos gramos de emisiones de CO2 se producen por cada kilovatio-hora de electricidad consumida. Para determinar la intensidad de carbono de una red determinada es necesario conocer las emisiones producidas por cada central eléctrica en funcionamiento, así como la cantidad de energía que cada una de ellas aporta a la red en un momento dado. Las empresas de servicios públicos, los organismos gubernamentales y los investigadores utilizan estimaciones de las emisiones medias, así como mediciones en tiempo real, para realizar un seguimiento de la contaminación procedente de las centrales eléctricas.
Esta intensidad varía mucho de una región a otra. La red eléctrica de Estados Unidos está fragmentada y la combinación de carbón, gas, energías renovables o nucleares varía mucho. La red de California es mucho más limpia que la de Virginia Occidental, por ejemplo.
La hora del día también es importante. Por ejemplo, los datos de abril de 2024 muestran que la red de California puede pasar de menos de 70 gramos por kilovatio-hora por la tarde, cuando hay mucha energía solar disponible, a más de 300 gramos por kilovatio-hora en mitad de la noche.
Esta variabilidad significa que una misma actividad puede tener un impacto climático muy diferente, dependiendo de la ubicación y la hora en que se realice la solicitud. Tomemos como ejemplo al corredor de maratón benéfico. Las respuestas de texto, imagen y vídeo que solicitó suman 2,9 kilovatios-hora de electricidad. En California, generar esa cantidad de electricidad produciría una media de 650 gramos de contaminación por CO2. Pero generar esa electricidad en Virginia Occidental podría inflar el total a más de 1150 gramos.
La IA está a la vuelta de la esquina
Lo que hemos visto hasta ahora es que la energía necesaria para responder a una consulta puede ser relativamente pequeña, pero puede variar mucho, dependiendo del tipo de consulta y del modelo utilizado. Las emisiones asociadas a esa cantidad de electricidad también dependerán del lugar y el momento en que se gestione la consulta. Pero ¿qué significa todo esto?
Se estima que ChatGPT es actualmente el quinto sitio web más visitado del mundo, solo por detrás de Instagram y por delante de X. En diciembre, OpenAI afirmó que ChatGPT recibe 1.000 millones de mensajes al día y, tras el lanzamiento de un nuevo generador de imágenes en marzo, la empresa declaró que los usuarios lo utilizaban para generar 78 millones de imágenes al día, desde retratos al estilo del Studio Ghibli hasta fotos de ellos mismos convertidos en muñecos Barbie.
Dada la dirección que está tomando la IA —más personalizada, capaz de razonar y resolver problemas complejos en nuestro nombre, y presente en todas partes—, es probable que nuestra huella de IA actual sea la más pequeña que jamás haya existido.
Se puede hacer un cálculo muy aproximado para estimar el impacto energético. En febrero, la empresa de investigación en IA Epoch AI publicó una estimación de la energía que se utiliza para una sola consulta en ChatGPT, una estimación que, como se ha comentado, parte de muchas hipótesis que no se pueden verificar. Aun así, calcularon unos 0,3 vatios-hora, o 1.080 julios, por mensaje. Esta cifra se sitúa entre nuestras estimaciones para los modelos Meta Llama más pequeños y grandes (y los expertos a los que hemos consultado afirman que, en todo caso, la cifra real es probablemente más alta, no más baja).
Mil millones de estos al día durante un año supondrían más de 109 gigavatios-hora de electricidad, suficiente para abastecer de energía a 10.400 hogares estadounidenses durante un año. Si añadimos imágenes e imaginamos que generar cada una de ellas requiere tanta energía como nuestros modelos de imágenes de alta calidad, eso supondría 35 gigavatios-hora adicionales, suficientes para abastecer a otros 3.300 hogares durante un año. Esto se suma a la demanda energética de otros productos de OpenAI, como los generadores de vídeo, y a la de todas las demás empresas y startups de IA.
Pero aquí está el problema: estas estimaciones no reflejan el futuro próximo del uso de la IA. En ese futuro, no nos limitaremos a enviar a los modelos de IA una o dos preguntas al día, ni a pedirles que generen una foto. En cambio, los principales laboratorios compiten por llevarnos a un mundo en el que los «agentes» de IA realizarán tareas por nosotros sin que tengamos que supervisar cada uno de sus movimientos. Hablaremos con modelos en modo de voz, charlaremos con compañeros durante dos horas al día y apuntaremos con las cámaras de nuestros teléfonos a nuestro entorno en modo de vídeo. Asignaremos tareas complejas a los denominados «modelos de razonamiento», que resuelven las tareas de forma lógica, pero que requieren 43 veces más energía para problemas sencillos, o a modelos de «investigación profunda», que pasan horas creando informes para nosotros. Tendremos modelos de IA «personalizados» gracias al entrenamiento con nuestros datos y preferencias.
Este futuro está a la vuelta de la esquina: según se informa, OpenAI ofrecerá agentes por 20 000 dólares al mes y utilizará capacidades de razonamiento en todos sus modelos en el futuro, y DeepSeek catapultó el razonamiento de «cadena de pensamiento» a la corriente principal con un modelo que a menudo genera nueve páginas de texto por cada respuesta. Se están añadiendo modelos de IA a todo, desde las líneas telefónicas de atención al cliente hasta las consultas médicas, lo que aumenta rápidamente la cuota de la IA en el consumo energético nacional.
«Las pocas cifras de las que disponemos pueden arrojar un poco de luz sobre nuestra situación actual, pero todo es una incógnita para los próximos años», afirma Luccioni.
Todos los investigadores con los que hablamos afirmaron que no podemos comprender las demandas energéticas de este futuro simplemente extrapolando el consumo energético actual de las consultas de IA. De hecho, las medidas adoptadas por las principales empresas de IA para poner en marcha centrales nucleares y crear centros de datos a una escala sin precedentes sugieren que su visión del futuro consumiría mucha más energía que incluso un gran número de estas consultas individuales.
«Las pocas cifras de las que disponemos pueden arrojar un pequeño rayo de luz sobre nuestra situación actual, pero todo es una incógnita para los próximos años«, afirma Luccioni, y añade: «Las herramientas de IA generativa se nos están imponiendo y cada vez es más difícil renunciar a ellas o tomar decisiones informadas en materia de energía y clima».
Para comprender cuánta energía necesitará esta revolución de la IA y de dónde provendrá, tenemos que leer entre líneas.
Cuarta parte: El futuro que nos espera
Un informe publicado en diciembre por el Laboratorio Nacional Lawrence Berkeley, financiado por el Departamento de Energía y que ha producido 16 premios Nobel, intentó medir lo que la proliferación de la IA podría significar para la demanda de energía.
Tras analizar datos públicos y privados sobre los centros de datos en su conjunto, así como las necesidades específicas de la IA, los investigadores llegaron a una conclusión clara. Los centros de datos de EE UU consumieron alrededor de 200 teravatios-hora de electricidad en 2024, aproximadamente lo que se necesita para abastecer de energía a Tailandia durante un año. Se estima que los servidores específicos de IA en estos centros de datos consumieron entre 53 y 76 teravatios-hora de electricidad. En el extremo superior, esto es suficiente para abastecer de energía a más de 7,2 millones de hogares estadounidenses durante un año.
Si imaginamos que la mayor parte se utilizó para la inferencia, significa que el año pasado se utilizó suficiente electricidad en IA en Estados Unidos como para que cada persona del planeta hubiera intercambiado más de 4.000 mensajes con chatbots. En realidad, por supuesto, los usuarios individuales medios no son responsables de toda esta demanda de energía. Es probable que gran parte de ella se destine a start-ups y gigantes tecnológicos que prueban sus modelos, a usuarios avanzados que exploran todas las nuevas funciones y a tareas que consumen mucha energía, como la generación de vídeos o avatares.
Los centros de datos de EE. UU. consumieron alrededor de 200 teravatios-hora de electricidad en 2024, aproximadamente lo que se necesita para abastecer de energía a Tailandia durante un año. [MULTIMEDIA]
Los investigadores estiman que, para 2028, la energía destinada a fines específicos de la IA aumentará hasta entre 165 y 326 teravatios-hora al año. Eso es más que toda la electricidad que consumen actualmente los centros de datos de EE UU para todos los fines; es suficiente para abastecer al 22% de los hogares estadounidenses cada año. Eso podría generar las mismas emisiones que conducir más de 482.000 millones de kilómetros, más de 1.600 viajes de ida y vuelta de la Tierra al Sol.
Los investigadores dejaron claro que la adopción de la IA y las tecnologías de servidores acelerados que la alimentan han sido la principal fuerza que ha provocado que la demanda de electricidad de los centros de datos se disparara tras permanecer estancada durante más de una década. Entre 2024 y 2028, la proporción de electricidad de EE UU destinada a los centros de datos podría triplicarse, pasando del 4,4 % actual al 12 %.
Este aumento sin precedentes de la demanda de energía para la IA está en línea con lo que anuncian las empresas líderes. SoftBank, OpenAI, Oracle y la empresa de inversión emiratí MGX tienen la intención de invertir 500.000 millones de dólares (431.000 millones de euros) en los próximos cuatro años en nuevos centros de datos en Estados Unidos. El primero ha comenzado a construirse en Abilene, Texas, e incluye ocho edificios del tamaño de un estadio de béisbol cada uno. En respuesta a una solicitud de información de la Casa Blanca, Anthropic sugirió que Estados Unidos construyera 50 gigavatios adicionales de energía dedicada para 2027.
Las empresas de IA también están planeando construcciones de varios gigavatios en el extranjero, entre ellas en Malasia, que se está convirtiendo en el centro de datos del sudeste asiático. En mayo, OpenAI anunció un plan para apoyar la construcción de centros de datos en el extranjero como parte de una apuesta por «difundir la IA democrática». Las empresas están adoptando un enfoque disperso para lograrlo: firmando acuerdos para nuevas centrales nucleares, poniendo en marcha antiguas centrales y cerrando acuerdos masivos con empresas de servicios públicos.
MIT Technology Review solicitó entrevistas a Google, OpenAI y Microsoft sobre sus planes para este futuro y sobre cifras concretas sobre la energía necesaria para inferir los principales modelos de IA. OpenAI se negó a facilitar cifras o a que nadie estuviera disponible para una entrevista, pero emitió un comunicado en el que afirmaba que da prioridad al uso eficiente de los recursos informáticos y colabora con sus socios para apoyar los objetivos de sostenibilidad, y que la IA podría ayudar a descubrir soluciones climáticas. La empresa afirmó que las primeras instalaciones de su iniciativa Stargate serán de gas natural y energía solar y que tratará de incluir la energía nuclear y geotérmica siempre que sea posible.
Microsoft habló de su propia investigación para mejorar la eficiencia de la IA, pero se negó a compartir detalles sobre cómo se incorporan estos enfoques en sus centros de datos.
Google se negó a compartir cifras que detallaran cuánta energía se requiere en el momento de la inferencia para sus modelos de IA, como Gemini, y funciones como AI Overviews. La empresa señaló información sobre sus TPU, el equivalente patentado por Google a las GPU, y la eficiencia que han logrado.
Los investigadores de Lawrence Berkeley criticaron sin rodeos la situación actual, afirmando que la información divulgada por las empresas tecnológicas, los operadores de centros de datos, las empresas de servicios públicos y los fabricantes de hardware no es suficiente para hacer proyecciones razonables sobre las demandas energéticas sin precedentes de este futuro ni para estimar las emisiones que generará. Ofrecieron formas en que las empresas podrían divulgar más información sin violar los secretos comerciales, como acuerdos de intercambio de datos anónimos, pero su informe reconoció que los arquitectos de este enorme aumento de los centros de datos de IA no han sido transparentes hasta ahora, lo que les deja sin herramientas para elaborar un plan.
«Además de limitar el alcance de este informe, esta falta de transparencia pone de relieve que el crecimiento de los centros de datos se está produciendo sin tener en cuenta la mejor manera de integrar estas cargas emergentes con la expansión de la generación y el transporte de electricidad o con el desarrollo de la comunidad en general», escribieron. Los autores también señalaron que solo se han publicado otros dos informes de este tipo en los últimos 20 años.
Otros investigadores nos han comentado que su capacidad para comprender las emisiones y la demanda energética de la IA se ve obstaculizada por el hecho de que la IA aún no se trata como un sector independiente. La Administración de Información Energética de EE. UU., por ejemplo, realiza proyecciones y mediciones para la industria manufacturera, la minería, la construcción y la agricultura, pero simplemente no existen datos detallados sobre la IA.
«¿Por qué deberíamos pagar por esta infraestructura? ¿Por qué deberíamos pagar sus facturas de electricidad?».
Según una nueva investigación publicada en marzo, los particulares podrían acabar pagando parte de la factura de esta revolución de la IA. Los investigadores, de la Iniciativa sobre Legislación Eléctrica de Harvard, analizaron los acuerdos entre las empresas de servicios públicos y gigantes tecnológicos como Meta que regulan cuánto pagarán estas empresas por la energía en los nuevos centros de datos a gran escala. Descubrieron que los descuentos que las empresas de servicios públicos conceden a las grandes tecnológicas pueden aumentar las tarifas eléctricas que pagan los consumidores. En algunos casos, si determinados centros de datos no consiguen atraer el negocio prometido de la IA o necesitan menos energía de la prevista, los contribuyentes podrían seguir teniendo que subvencionarlos. Un informe de 2024 de la Asamblea Legislativa de Virginia estimaba que los contribuyentes residenciales medios del estado podrían pagar 37,50 dólares adicionales al mes en concepto de costes energéticos de los centros de datos.
«No nos queda claro que los beneficios de estos centros de datos superen estos costes», afirma Eliza Martin, investigadora jurídica del Programa de Derecho Ambiental y Energético de Harvard y coautora de la investigación. «¿Por qué deberíamos pagar por esta infraestructura? ¿Por qué deberíamos pagar sus facturas de electricidad?».
Cuando le pides a un modelo de IA que te escriba un chiste o que genere un vídeo de un cachorro, esa consulta conlleva un pequeño pero cuantificable consumo de energía y una cantidad asociada de emisiones que se vierten a la atmósfera. Dado que cada solicitud individual suele consumir menos energía que el funcionamiento de un electrodoméstico durante unos instantes, puede parecer insignificante.
Pero a medida que más personas recurrimos a las herramientas de IA, estos impactos comienzan a acumularse. Y cada vez más, no es necesario buscar la IA para utilizarla: se está integrando en todos los rincones de nuestra vida digital.
Es fundamental señalar que hay mucho que desconocemos, ya que los gigantes tecnológicos guardan silencio sobre los detalles. Pero, a juzgar por nuestras estimaciones, está claro que la IA es una fuerza que está transformando no solo la tecnología, sino también la red eléctrica y el mundo que nos rodea.
Fuente: https://technologyreview.es