{"id":17313,"date":"2025-07-18T07:46:25","date_gmt":"2025-07-18T10:46:25","guid":{"rendered":"https:\/\/www.fie.undef.edu.ar\/ceptm\/?p=17313"},"modified":"2025-07-18T07:46:25","modified_gmt":"2025-07-18T10:46:25","slug":"la-huella-energetica-de-la-ia","status":"publish","type":"post","link":"https:\/\/www.fie.undef.edu.ar\/ceptm\/?p=17313","title":{"rendered":"La huella energ\u00e9tica de la IA"},"content":{"rendered":"<p>Seg\u00fan\u00a0las nuevas proyecciones publicadas por el Laboratorio Nacional Lawrence Berkeley en diciembre, para 2028 m\u00e1s de la mitad de la electricidad destinada a los centros de datos se utilizar\u00e1 para la IA. En ese momento, la IA por s\u00ed sola podr\u00eda consumir anualmente tanta electricidad como el 22% de todos los hogares estadounidenses.<\/p>\n<hr \/>\n<p>La integraci\u00f3n de la IA en nuestras vidas\u00a0<strong>es el cambio m\u00e1s significativo en la vida\u00a0<\/strong><strong><em>online<\/em><\/strong>\u00a0en m\u00e1s de una d\u00e9cada. Cientos de millones de personas recurren ahora habitualmente a los chatbots para que les ayuden con los\u00a0<strong>deberes, la investigaci\u00f3n, la programaci\u00f3n o la creaci\u00f3n de im\u00e1genes y v\u00eddeos.<\/strong>\u00a0Pero \u00bfqu\u00e9 impulsa todo esto?<\/p>\n<p>Un nuevo an\u00e1lisis de\u00a0<em>MIT Technology Review\u00a0<\/em>ofrece una visi\u00f3n sin precedentes y completa del\u00a0<strong>consumo energ\u00e9tico de la industria de la IA<\/strong>, hasta el nivel de una sola consulta, para rastrear cu\u00e1l es su huella de carbono actual y hacia d\u00f3nde se dirige, a medida que la IA avanza hacia miles de millones de usuarios diarios.<\/p>\n<p>Hablamos con dos docenas de expertos que miden la demanda energ\u00e9tica de la IA, evaluamos diferentes modelos y comandos de IA, analizamos cientos de p\u00e1ginas de proyecciones e informes y preguntamos a los principales creadores de modelos de IA sobre sus planes. En \u00faltima instancia, descubrimos que el conocimiento general sobre<strong>\u00a0el consumo energ\u00e9tico de la IA est\u00e1 lleno de lagunas.<\/strong><\/p>\n<p>Empezamos por lo peque\u00f1o, ya que la cuesti\u00f3n de\u00a0<strong>cu\u00e1nto cuesta una sola consulta<\/strong>\u00a0es de vital importancia para comprender el panorama general. Esto se debe a que esas consultas se est\u00e1n incorporando a cada vez m\u00e1s aplicaciones, m\u00e1s all\u00e1 de los chatbots independientes: desde b\u00fasquedas hasta agentes, pasando por las aplicaciones cotidianas que utilizamos para controlar nuestro estado f\u00edsico, comprar\u00a0<em>online<\/em>\u00a0o reservar un vuelo. Los recursos energ\u00e9ticos necesarios para impulsar esta revoluci\u00f3n de la inteligencia artificial son asombrosos, y las mayores empresas tecnol\u00f3gicas del mundo se han marcado como prioridad m\u00e1xima aprovechar cada vez m\u00e1s esa energ\u00eda, con el objetivo de\u00a0<strong>remodelar nuestras redes energ\u00e9ticas<\/strong>\u00a0en el proceso.<\/p>\n<p>Meta y Microsoft est\u00e1n trabajando para poner en marcha\u00a0<strong>nuevas centrales nucleares.\u00a0<\/strong>OpenAI y el presidente Donald Trump anunciaron la iniciativa Stargate, cuyo objetivo es invertir (431.000 millones de euros)\u2014m\u00e1s que el programa espacial Apolo\u2014 para construir\u00a0<a href=\"https:\/\/www.energy.gov\/articles\/doe-releases-new-report-evaluating-increase-electricity-demand-data-centers\" target=\"_blank\" rel=\"noopener\">hasta 10 centros de datos\u00a0<\/a>(cada uno de los cuales podr\u00eda necesitar cinco gigavatios, m\u00e1s que la demanda total de energ\u00eda\u00a0<a href=\"https:\/\/www.energy.gov\/articles\/doe-releases-new-report-evaluating-increase-electricity-demand-data-centers\" target=\"_blank\" rel=\"noopener\">del estado de New Hampshire<\/a>\u00a0(EE UU. Apple ha anunciado planes para invertiren\u00a0<strong>fabricaci\u00f3n y centros de datos en Estados Unidos<\/strong>\u00a0<a href=\"https:\/\/www.energy.gov\/articles\/doe-releases-new-report-evaluating-increase-electricity-demand-data-centers\" target=\"_blank\" rel=\"noopener\">durante los pr\u00f3ximos cuatro a\u00f1os.\u00a0<\/a>Google prev\u00e9 gastar<a href=\"https:\/\/www.energy.gov\/articles\/doe-releases-new-report-evaluating-increase-electricity-demand-data-centers\" target=\"_blank\" rel=\"noopener\">\u00a075.000 millones de d\u00f3lares (unos 64.650 millones de euros) solo en infraestructura de IA en 2025.<\/a><\/p>\n<p>Esto no es simplemente la norma en un mundo digital. Es algo exclusivo de la IA y supone un cambio notable con respecto al\u00a0<strong>apetito energ\u00e9tico de las grandes tecnol\u00f3gicas<\/strong>\u00a0en el pasado reciente. Entre 2005 y 2017, la cantidad de electricidad destinada a los centros de datos se mantuvo bastante estable gracias al\u00a0<strong>aumento de la eficiencia<\/strong>, a pesar de la construcci\u00f3n de un gran n\u00famero de nuevos centros de datos para dar servicio al auge de los servicios online basados en la nube, desde Facebook hasta Netflix. En 2017, la IA comenz\u00f3 a cambiarlo todo. Se empezaron a construir\u00a0<strong>centros de datos con hardware de alto consumo energ\u00e9tico\u00a0<\/strong>dise\u00f1ado para la IA, lo que llev\u00f3 a duplicar su consumo de electricidad para 2023. Los\u00a0<a href=\"https:\/\/www.energy.gov\/articles\/doe-releases-new-report-evaluating-increase-electricity-demand-data-centers\" target=\"_blank\" rel=\"noopener\">\u00faltimos informes\u00a0<\/a>muestran que el 4,4% de toda la energ\u00eda de Estados Unidos se destina ahora a los centros de datos.<\/p>\n<blockquote><p><strong><em>La intensidad de carbono de la electricidad utilizada por los centros de datos era un 48 % superior a la media de Estados Unidos. \u00a0<\/em><\/strong><\/p><\/blockquote>\n<p><strong>\u00a0<\/strong>Dada la direcci\u00f3n que est\u00e1 tomando la IA \u2014m\u00e1s personalizada, capaz de razonar y resolver problemas complejos en nuestro nombre, y presente en todas partes\u2014, es probable que\u00a0<strong>la huella energ\u00e9tica<\/strong><strong>\u00a0de IA actual<\/strong>\u00a0sea la m\u00e1s peque\u00f1a que vaya a existir. Seg\u00fan\u00a0<a href=\"https:\/\/www.energy.gov\/articles\/doe-releases-new-report-evaluating-increase-electricity-demand-data-centers\" target=\"_blank\" rel=\"noopener\">las nuevas proyecciones\u00a0<\/a>publicadas por el Laboratorio Nacional Lawrence Berkeley en diciembre, para 2028 m\u00e1s de la mitad de la electricidad destinada a los centros de datos se utilizar\u00e1 para la IA. En ese momento, la IA por s\u00ed sola podr\u00eda consumir anualmente tanta electricidad como el 22% de todos los hogares estadounidenses.<\/p>\n<p>Mientras tanto, se espera que los centros de datos sigan tendiendo a utilizar formas de energ\u00eda de alto impacto y con\u00a0<strong>mayor intensidad de CO<sub>2<\/sub><\/strong>\u00a0(como el gas) para satisfacer las necesidades inmediatas, dejando a su paso nubes de emisiones. Y todo este crecimiento es para una nueva tecnolog\u00eda que a\u00fan est\u00e1 encontrando su lugar y que, en muchas aplicaciones (educaci\u00f3n, asesoramiento m\u00e9dico, an\u00e1lisis jur\u00eddico), podr\u00eda ser la herramienta equivocada para el trabajo o, al menos, tener\u00a0<strong>una alternativa menos intensiva en energ\u00eda<\/strong>.<\/p>\n<p>Los c\u00e1lculos del consumo energ\u00e9tico de la IA a menudo cortocircuitan el debate, ya sea reprendiendo el comportamiento individual o provocando comparaciones con los mayores contaminantes clim\u00e1ticos. Ambas reacciones eluden la cuesti\u00f3n:\u00a0<strong>la IA es inevitable<\/strong>\u00a0y, aunque una sola consulta tenga un impacto reducido, los gobiernos y las empresas est\u00e1n configurando\u00a0<strong>un futuro energ\u00e9tico mucho m\u00e1s amplio<\/strong>\u00a0en torno a las necesidades de la IA.<\/p>\n<p>Estamos adoptando un enfoque diferente con una contabilidad destinada a informar las numerosas decisiones que a\u00fan quedan por tomar: d\u00f3nde se ubicar\u00e1n los centros de datos, qu\u00e9 los alimentar\u00e1 y c\u00f3mo hacer visible y responsable el creciente impacto de la IA.<\/p>\n<blockquote><p><strong><em>Se estima que ChatGPT es actualmente el quinto sitio web m\u00e1s visitado del mundo, solo por detr\u00e1s de Instagram y por delante de X.<\/em><\/strong><\/p><\/blockquote>\n<p>Esto se debe a que, a pesar de la\u00a0<strong>ambiciosa visi\u00f3n de la IA<\/strong>\u00a0planteada por las empresas tecnol\u00f3gicas, los proveedores de servicios p\u00fablicos y el gobierno federal, los detalles sobre c\u00f3mo se materializar\u00e1 este futuro son confusos. Cient\u00edficos, centros de investigaci\u00f3n financiados con fondos federales, activistas y empresas energ\u00e9ticas sostienen que las principales empresas de IA y los operadores de centros de datos revelan muy poca informaci\u00f3n sobre sus actividades. Las empresas que crean y utilizan modelos de IA guardan silencio en gran medida a la hora de responder a una pregunta fundamental: \u00bf<strong>cu\u00e1nta energ\u00eda consume la interacci\u00f3n<\/strong>\u00a0con uno de estos modelos? \u00bfY qu\u00e9 tipo de fuentes de energ\u00eda alimentar\u00e1n el futuro de la IA?<\/p>\n<p>Esto obliga incluso a aquellos cuyo trabajo consiste en predecir la demanda de energ\u00eda a armar un rompecabezas con innumerables piezas que faltan, lo que hace casi imposible\u00a0<strong>planificar el impacto futuro de la IA<\/strong>\u00a0en las redes el\u00e9ctricas y las emisiones. Peor a\u00fan, los acuerdos que las empresas de servicios p\u00fablicos firman con los centros de datos probablemente\u00a0<strong>transferir\u00e1n los costes de la revoluci\u00f3n de la IA\u00a0<\/strong>al resto de nosotros, en forma de facturas de electricidad m\u00e1s altas.<\/p>\n<p>Es mucho que asimilar. Para describir el panorama general de c\u00f3mo ser\u00e1 ese futuro, tenemos que empezar por el principio.<\/p>\n<p><strong>Primera parte: creaci\u00f3n del modelo<\/strong><\/p>\n<p>Antes de poder pedirle a un modelo de IA que te ayude con tus planes de viaje o que genere un v\u00eddeo, el modelo nace en un centro de datos.<\/p>\n<p>Los\u00a0<em>racks<\/em>\u00a0de servidores\u00a0<strong>funcionan sin descanso durante meses<\/strong>, ingiriendo datos de entrenamiento, procesando n\u00fameros y realizando c\u00e1lculos. Se trata de un proceso largo y costoso: se estima que\u00a0<strong>el entrenamiento del GPT-4 de OpenAI cost\u00f3 m\u00e1s de 100 millones de d\u00f3lares<\/strong>\u00a0(unos 86 millones de euros) y consumi\u00f3 50 gigavatios-hora de energ\u00eda, suficiente para abastecer a San Francisco durante tres d\u00edas. Solo despu\u00e9s de este entrenamiento, cuando los consumidores o clientes \u00abinferencian\u00bb los modelos de IA para obtener respuestas o generar resultados, los creadores de los modelos esperan recuperar sus enormes costes y, finalmente, obtener beneficios.<\/p>\n<blockquote><p><strong><em>\u00abPara que cualquier empresa gane dinero con un modelo, eso solo ocurre con la inferencia\u00bb, afirma Esha Choukse, investigadora de Microsoft Azure que ha estudiado c\u00f3mo hacer m\u00e1s eficiente la inferencia de la IA.<\/em><\/strong><\/p><\/blockquote>\n<p>Como han dejado claro las conversaciones con expertos y empresas de IA,\u00a0<strong>la inferencia, y no el entrenamiento, representa una parte cada vez mayor de la demanda energ\u00e9tica<\/strong>\u00a0de la IA y seguir\u00e1 siendo as\u00ed en un futuro pr\u00f3ximo. Se estima que entre el 80% y el 90% de la potencia inform\u00e1tica de la IA se utiliza para la inferencia.<\/p>\n<p>Todo esto ocurre en los centros de datos. En Estados Unidos hay aproximadamente\u00a0<strong>3.000\u00a0<a href=\"https:\/\/www.datacentermap.com\/\">edificios de este tipo\u00a0<\/a><\/strong>que albergan servidores y sistemas de refrigeraci\u00f3n y que est\u00e1n gestionados por proveedores de servicios en la nube y gigantes tecnol\u00f3gicos como Amazon o Microsoft, pero que tambi\u00e9n utilizan las empresas emergentes de IA. Un n\u00famero cada vez mayor, aunque no se sabe exactamente cu\u00e1ntos, ya que la informaci\u00f3n sobre estas instalaciones est\u00e1 muy protegida, se han creado para la inferencia de IA.<\/p>\n<p>Si has visto algunos gr\u00e1ficos que\u00a0<strong>estiman el impacto energ\u00e9tico<\/strong>\u00a0de plantear una pregunta a un modelo de IA, podr\u00edas pensar que es como medir el consumo de combustible de un coche o la clasificaci\u00f3n energ\u00e9tica de un lavavajillas: un valor conocido con una metodolog\u00eda com\u00fan para calcularlo. Se equivoca.<\/p>\n<p>En realidad, el tipo y el tama\u00f1o del modelo, el tipo de resultado que se genera y\u00a0<strong>un sinf\u00edn de variables que escapan a tu control<\/strong>, como la red el\u00e9ctrica a la que est\u00e1 conectado el centro de datos al que se env\u00eda tu solicitud y la hora del d\u00eda en que se procesa, pueden hacer que una consulta consuma miles de veces m\u00e1s energ\u00eda y produzca m\u00e1s emisiones que otra.<\/p>\n<p>Cuando consultas la mayor\u00eda de los modelos de IA, ya sea en tu tel\u00e9fono desde una aplicaci\u00f3n como\u00a0<strong>Instagram o en la interfaz web de ChatGPT<\/strong>, gran parte de lo que ocurre despu\u00e9s de que tu pregunta se env\u00ede a un centro de datos sigue siendo un secreto. Factores como qu\u00e9 centro de datos del mundo procesa tu solicitud, cu\u00e1nta energ\u00eda se necesita para hacerlo y cu\u00e1n intensas en carbono son las fuentes de energ\u00eda utilizadas suelen ser conocidos\u00a0<strong>solo por las empresas que gestionan los modelos.<\/strong><\/p>\n<p>Esto es as\u00ed en la mayor\u00eda de los modelos de marcas conocidas a los que est\u00e1s acostumbrado, como\u00a0<strong>ChatGPT de OpenAI, Gemini de Google y Claude de Anthropic<\/strong>, que se denominan \u00abcerrados\u00bb. Los detalles clave est\u00e1n en poder de las empresas que los crean, que los protegen porque los consideran secretos comerciales (y tambi\u00e9n porque podr\u00edan dar lugar a mala publicidad). Estas empresas\u00a0<strong>tienen pocos incentivos para divulgar esta informaci\u00f3n<\/strong>\u00a0y, hasta ahora, no lo han hecho.<\/p>\n<p>\u00abLos proveedores de modelos de IA cerrados ofrecen una caja negra total\u00bb, afirma Boris Gamazaychikov, responsable de sostenibilidad de la IA en Salesforce, que ha liderado los esfuerzos con investigadores de Hugging Face, un proveedor de herramientas, modelos y bibliotecas de IA para particulares y empresas, para hacer\u00a0<strong>m\u00e1s transparentes las necesidades energ\u00e9ticas de la IA<\/strong>. Sin una mayor divulgaci\u00f3n por parte de las empresas, no solo carecemos de buenas estimaciones, sino que tenemos muy poca informaci\u00f3n en la que basarnos.<\/p>\n<blockquote><p><strong><em>Sin m\u00e1s informaci\u00f3n por parte de las empresas, no solo carecemos de estimaciones fiables, sino que apenas tenemos datos en los que basarnos.<\/em><\/strong><\/p><\/blockquote>\n<p>Entonces, \u00bfd\u00f3nde podemos obtener estimaciones? Los investigadores pueden descargar y modificar los denominados modelos de c\u00f3digo abierto, y acceder a herramientas especiales para medir\u00a0<strong>cu\u00e1nta energ\u00eda necesita la GPU H100 para una tarea determinada.<\/strong>\u00a0Estos modelos tambi\u00e9n son incre\u00edblemente populares: Meta anunci\u00f3 en abril que sus modelos Llama se han descargado m\u00e1s de 1.200 millones de veces, y muchas empresas utilizan modelos de c\u00f3digo abierto cuando quieren tener m\u00e1s control sobre los resultados que el que pueden obtener con algo como ChatGPT.<\/p>\n<p>Pero incluso si los investigadores pueden\u00a0<strong>medir la potencia consumida por la GPU<\/strong>, eso deja fuera la potencia consumida por las CPU, los ventiladores y otros equipos. Un\u00a0<a href=\"https:\/\/www.microsoft.com\/en-us\/research\/wp-content\/uploads\/2024\/03\/GPU_Power_ASPLOS_24.pdf\">art\u00edculo de Microsoft de 2024\u00a0<\/a>\u00a0analiz\u00f3 la eficiencia energ\u00e9tica de la inferencia de grandes modelos de lenguaje y descubri\u00f3 que\u00a0<strong>duplicar la cantidad de energ\u00eda utilizada por la GPU\u00a0<\/strong>da una estimaci\u00f3n aproximada de la demanda energ\u00e9tica de toda la operaci\u00f3n.<\/p>\n<p>As\u00ed que, por ahora, medir los principales modelos de c\u00f3digo abierto (y a\u00f1adir estimaciones para todas estas otras piezas) nos da la mejor imagen que tenemos de cu\u00e1nta energ\u00eda se utiliza para una sola consulta de IA. Sin embargo, hay que tener en cuenta que las\u00a0<strong>formas en que la gente utiliza la IA hoy en d\u00eda\u00a0<\/strong>\u2014para escribir una lista de la compra o crear un v\u00eddeo surrealista\u2014 son mucho m\u00e1s sencillas que las que utilizaremos en\u00a0<strong>el futuro aut\u00f3nomo y agentivo<\/strong>\u00a0hacia el que nos lanzan las empresas de IA. M\u00e1s adelante hablaremos de ello.<\/p>\n<p>Esto es lo que hemos descubierto.<\/p>\n<p><strong>Modelos de texto<\/strong><\/p>\n<p>Empecemos con los modelos en los que se escribe una pregunta y se recibe una respuesta en forma de palabras. Uno de los principales grupos que eval\u00faa las necesidades energ\u00e9ticas de la IA se encuentra en la Universidad de Michigan (EE UU), en el estudio\u00a0<a href=\"https:\/\/arxiv.org\/abs\/2505.06371\">dirigido por\u00a0<\/a>el doctorando Jae-Won Chung y el profesor asociado Mosharaf Chowdhury, que publican mediciones de energ\u00eda en su\u00a0<a href=\"https:\/\/ml.energy\/leaderboard\/\">clasificaci\u00f3n ML.Energy de\u00a0<\/a>\u00a0. Hemos trabajado con el equipo para centrarnos en las necesidades energ\u00e9ticas de uno de los modelos de c\u00f3digo abierto m\u00e1s utilizados, Llama, de Meta.<\/p>\n<p>El modelo m\u00e1s peque\u00f1o de nuestra cohorte Llama, Llama 3.1 8B, tiene 8.000 millones de par\u00e1metros, que son b\u00e1sicamente los \u00abbotones\u00bb ajustables de un modelo de IA que le permiten hacer predicciones. Cuando se prob\u00f3 con diferentes comandos de generaci\u00f3n de texto, como crear un itinerario de viaje para Estambul o explicar la computaci\u00f3n cu\u00e1ntica, el modelo requiri\u00f3 unos\u00a0<strong>57 julios por respuesta<\/strong>, o unos 114 julios si se tiene en cuenta la refrigeraci\u00f3n, otros c\u00e1lculos y otras demandas. Se trata de una cantidad \u00ednfima, equivalente a la\u00a0<strong>energ\u00eda necesaria para recorrer dos metros en una bicicleta el\u00e9ctrica<\/strong>\u00a0o para hacer funcionar un microondas durante una d\u00e9cima de segundo.<\/p>\n<p>El mayor de nuestro grupo de generaci\u00f3n de texto, Llama 3.1 405B, tiene 50 veces m\u00e1s par\u00e1metros. Por lo general, cuantos m\u00e1s par\u00e1metros, mejores respuestas, pero tambi\u00e9n se necesita m\u00e1s energ\u00eda para cada respuesta. De media,\u00a0<strong>este modelo necesitaba 3.353 julios<\/strong>, o un total estimado de 6.706 julios, por cada respuesta. Eso es suficiente para transportar a una persona unos 120 metros en una bicicleta el\u00e9ctrica o para hacer funcionar el microondas durante ocho segundos.<\/p>\n<p>Por lo tanto,\u00a0<strong>el tama\u00f1o del modelo es un factor determinante de la demanda de energ\u00eda.<\/strong>\u00a0Una de las razones es que, una vez que un modelo alcanza un determinado tama\u00f1o, debe ejecutarse en m\u00e1s chips, cada uno de los cuales aumenta la energ\u00eda necesaria. El modelo m\u00e1s grande que hemos probado tiene 405.000 millones de par\u00e1metros, pero otros, como DeepSeek, han ido mucho m\u00e1s all\u00e1, con m\u00e1s de 600.000 millones de par\u00e1metros. El n\u00famero de par\u00e1metros de los modelos de c\u00f3digo cerrado no se divulga p\u00fablicamente y solo puede estimarse. Se\u00a0<a href=\"https:\/\/semianalysis.com\/2023\/07\/10\/gpt-4-architecture-infrastructure\/\">calcula\u00a0<\/a>que GPT-4 tiene m\u00e1s de un bill\u00f3n de par\u00e1metros.<\/p>\n<p>Pero en todos estos casos, la propia indicaci\u00f3n tambi\u00e9n fue un factor muy importante. Las indicaciones sencillas, como\u00a0<strong>pedir que se contaran unos chistes<\/strong>, consum\u00edan con frecuencia\u00a0<strong>nueve veces menos energ\u00eda<\/strong>\u00a0que las indicaciones m\u00e1s complicadas para escribir historias creativas o ideas de recetas.<\/p>\n<p><strong>Generaci\u00f3n de im\u00e1genes<\/strong><\/p>\n<p>Los modelos de IA que generan im\u00e1genes y v\u00eddeos funcionan con una arquitectura diferente, llamada difusi\u00f3n. En lugar de\u00a0<strong>predecir y generar palabras<\/strong>, aprenden a transformar una imagen de ruido enuna foto de un elefante, por ejemplo. Lo hacen aprendiendo los contornos y patrones de las im\u00e1genes de sus datos de entrenamiento y\u00a0<strong>almacenando esta informaci\u00f3n en millones o miles de millones de par\u00e1metros<\/strong>. Los modelos generadores de v\u00eddeo aprenden a hacerlo tambi\u00e9n en la dimensi\u00f3n del tiempo.<\/p>\n<p>La energ\u00eda que necesita un modelo de difusi\u00f3n determinado no depende de tu indicaci\u00f3n: generar una imagen de un esquiador en las dunas de arena requiere la misma cantidad de energ\u00eda que generar una de un astronauta cultivando en Marte. En cambio,\u00a0<strong>la energ\u00eda necesaria depende del tama\u00f1o del modelo<\/strong>, la resoluci\u00f3n de la imagen y el n\u00famero de \u00abpasos\u00bb que requiere el proceso de difusi\u00f3n (cuantos m\u00e1s pasos, mayor es la calidad, pero se necesita m\u00e1s energ\u00eda).<\/p>\n<p>Generar una imagen de calidad est\u00e1ndar (1024 x 1024 p\u00edxeles) con Stable Diffusion 3 Medium, el generador de im\u00e1genes de c\u00f3digo abierto l\u00edder, con 2000 millones de par\u00e1metros, requiere aproximadamente 1.141 julios de energ\u00eda de la GPU. Con los modelos de difusi\u00f3n, a diferencia de los grandes modelos de lenguaje, no hay estimaciones de cu\u00e1nto contribuyen las GPU al consumo total de energ\u00eda, pero los expertos sugieren que sigamos con el enfoque de \u00abduplicar\u00bb que hemos utilizado hasta ahora, ya que las diferencias probablemente sean sutiles. Eso significa un total estimado de 2.282 julios. Mejorar la calidad de la imagen duplicando el n\u00famero de pasos de difusi\u00f3n a 50 casi duplica la energ\u00eda necesaria, hasta unos 4.402 julios. Eso equivale a unos 76 metros en una bicicleta el\u00e9ctrica o a unos cinco segundos y medio de funcionamiento de un microondas. Sigue siendo menos que el modelo de texto m\u00e1s grande.<\/p>\n<p>Esto puede resultar sorprendente si se piensa que generar im\u00e1genes requiere m\u00e1s energ\u00eda que generar texto. \u00abLos modelos de texto grandes tienen muchos par\u00e1metros\u00bb, afirma Chung, que realiz\u00f3 las mediciones en generadores de texto e im\u00e1genes de c\u00f3digo abierto que aparecen en este art\u00edculo. \u00abAunque generan texto, realizan mucho trabajo\u00bb. Por otro lado,\u00a0<strong>los generadores de im\u00e1genes suelen trabajar con menos par\u00e1metros.<\/strong><\/p>\n<p><strong>Creaci\u00f3n de un v\u00eddeo<\/strong><\/p>\n<p>El a\u00f1o pasado, OpenAI\u00a0<a href=\"https:\/\/www.technologyreview.com\/2024\/02\/15\/1088401\/openai-amazing-new-generative-ai-video-model-sora\/\">present\u00f3 Sora<\/a>, su deslumbrante herramienta para crear\u00a0<strong>v\u00eddeos de alta definici\u00f3n con IA<\/strong>. Tambi\u00e9n han aparecido otros modelos de v\u00eddeo de c\u00f3digo cerrado, como Google Veo2 y Firefly de Adobe.<\/p>\n<p>Dada la enorme cantidad de capital y contenido que se necesita para entrenar estos modelos, no es de extra\u00f1ar que los modelos de c\u00f3digo abierto y de uso gratuito suelan estar por detr\u00e1s en cuanto a calidad. Aun as\u00ed, seg\u00fan los investigadores de Hugging Face, uno de los mejores es CogVideoX, creado por una startup china de IA llamada Zhipu AI y por investigadores de la Universidad de Tsinghua en Pek\u00edn (China).<\/p>\n<p>Sasha Luccioni, investigador de IA y Clima en Hugging Face, prob\u00f3 la energ\u00eda necesaria para generar v\u00eddeos con el modelo utilizando una herramienta llamada Code Carbon.<\/p>\n<p>Una versi\u00f3n anterior del modelo, lanzada en agosto, creaba v\u00eddeos a solo ocho fotogramas por segundo con una resoluci\u00f3n granulada, m\u00e1s parecida a un GIF que a un v\u00eddeo. Cada uno requer\u00eda\u00a0<strong>unos 109.000 julios para su producci\u00f3n<\/strong>. Pero tres meses despu\u00e9s, la empresa lanz\u00f3 un modelo m\u00e1s grande y de mayor calidad que produce v\u00eddeos de cinco segundos a 16 fotogramas por segundo (esta velocidad de fotogramas a\u00fan no es de alta definici\u00f3n; es la que se utilizaba en la \u00e9poca del cine mudo de Hollywood hasta finales de la d\u00e9cada de 1920). El nuevo modelo consume\u00a0<strong>m\u00e1s de 30 veces m\u00e1s energ\u00eda por cada v\u00eddeo de 5 segundos<\/strong>: unos 3,4 millones de julios, m\u00e1s de 700 veces la energ\u00eda necesaria para generar una imagen de alta calidad, esto equivale a recorrer 38 millas en una bicicleta el\u00e9ctrica o a hacer funcionar un microondas durante m\u00e1s de una hora.<\/p>\n<p>Es justo decir que los principales generadores de v\u00eddeo con IA, que crean v\u00eddeos deslumbrantes e hiperrealistas de hasta 30 segundos de duraci\u00f3n,\u00a0<strong>consumir\u00e1n mucha m\u00e1s energ\u00ed<\/strong>a. A medida que estos generadores se hacen m\u00e1s grandes, tambi\u00e9n a\u00f1aden funciones que permiten modificar elementos concretos de los v\u00eddeos y unir varias tomas para crear escenas, lo que aumenta su consumo energ\u00e9tico. Una nota: las empresas de IA han defendido estas cifras argumentando que\u00a0<strong>los v\u00eddeos generativos tienen una huella menor que los rodajes\u00a0<\/strong>y los viajes que conlleva la producci\u00f3n t\u00edpica de un v\u00eddeo. Esa afirmaci\u00f3n es dif\u00edcil de comprobar y no tiene en cuenta el aumento de la generaci\u00f3n de v\u00eddeos que podr\u00eda producirse si los v\u00eddeos de IA se abarataran.<\/p>\n<p><strong>Todo en un solo d\u00eda<\/strong><\/p>\n<p>Entonces, \u00bfcu\u00e1l ser\u00eda el consumo energ\u00e9tico diario de una persona con h\u00e1bitos de IA?<\/p>\n<p>Hay una salvedad importante en este c\u00e1lculo. Estas cifras no pueden servir como referencia para calcular la energ\u00eda necesaria para alimentar algo como ChatGPT 4o.\u00a0<strong>No sabemos cu\u00e1ntos par\u00e1metros hay en los \u00faltimos modelos de OpenAI<\/strong>, cu\u00e1ntos de esos par\u00e1metros se utilizan para diferentes arquitecturas de modelos, ni qu\u00e9 centros de datos se utilizan y c\u00f3mo OpenAI puede distribuir las solicitudes entre todos estos sistemas. Se pueden hacer conjeturas, como han hecho muchos, pero son tan aproximadas que pueden distraer m\u00e1s que ayudar.<\/p>\n<p>\u00abDeber\u00edamos dejar de intentar hacer ingenier\u00eda inversa con cifras basadas en rumores\u00bb, afirma Luccioni, que a\u00f1ade: \u00abHay que presionar m\u00e1s a estas empresas para que compartan las cifras reales\u00bb. Luccioni ha creado el\u00a0<a href=\"https:\/\/huggingface.co\/AIEnergyScore\">AI Energy Score<\/a>, una forma de calificar los modelos en funci\u00f3n de su eficiencia energ\u00e9tica. Pero las empresas de c\u00f3digo cerrado tienen que optar por participar. Seg\u00fan Luccioni, pocas lo han hecho.<\/p>\n<p><strong>Tercera parte: Combustible y emisiones<\/strong><\/p>\n<p>Ahora que tenemos una estimaci\u00f3n de la energ\u00eda total necesaria para ejecutar un modelo de IA para producir texto, im\u00e1genes y v\u00eddeos, podemos calcular lo que eso significa en t\u00e9rminos de emisiones que provocan el cambio clim\u00e1tico.<\/p>\n<p>En primer lugar, que un centro de datos est\u00e9 en funcionamiento no es necesariamente algo malo. Si todos los centros de datos estuvieran conectados a paneles solares y solo funcionaran cuando brillara el sol, se hablar\u00eda mucho menos del consumo energ\u00e9tico de la IA. Pero no es as\u00ed.\u00a0<strong>La mayor\u00eda de las redes el\u00e9ctricas de todo el mundo siguen dependiendo en gran medida de los combustibles f\u00f3siles<\/strong>. Por lo tanto, el consumo de electricidad tiene un coste clim\u00e1tico.<\/p>\n<p>\u00abLos centros de datos de IA necesitan energ\u00eda constante, las 24 horas del d\u00eda, los 7 d\u00edas de la semana, los 365 d\u00edas del a\u00f1o\u00bb, afirma Rahul Mewawalla, director ejecutivo de Mawson Infrastructure Group, que construye y mantiene centros de datos de alta energ\u00eda que dan soporte a la IA.<\/p>\n<p>Esto significa que\u00a0<strong>los centros de datos no pueden depender de tecnolog\u00edas intermitentes como la energ\u00eda e\u00f3lica y solar<\/strong>\u00a0y, por t\u00e9rmino medio, tienden a utilizar electricidad m\u00e1s contaminante. Un estudio preliminar de la Escuela de Salud P\u00fablica T.H. Chan de Harvard (EE UU) revel\u00f3 que la intensidad de CO<sub>2<\/sub>\u00a0de la electricidad utilizada por los centros de datos era\u00a0<a href=\"https:\/\/technologyreview.es\/article\/las-emisiones-de-la-ia-estan-a-punto-de-dispararse-aun-mas\/\">un 48 % superior a la media de Estados Unidos<\/a>. Parte de la raz\u00f3n es que, actualmente,\u00a0<strong>los centros de datos se concentran en lugares que tienen redes el\u00e9ctricas m\u00e1s contaminantes en promedio<\/strong>, como la red el\u00e9ctrica con alto consumo de carb\u00f3n de la regi\u00f3n del Atl\u00e1ntico medio, que incluye Virginia, Virginia Occidental y Pensilvania (EE UU). Adem\u00e1s, funcionan constantemente, incluso cuando no se dispone de fuentes m\u00e1s limpias.<\/p>\n<blockquote><p><strong><em>Los centros de datos no pueden depender de tecnolog\u00edas intermitentes como la energ\u00eda e\u00f3lica y solar y, por t\u00e9rmino medio, tienden a utilizar electricidad m\u00e1s contaminante.<\/em><\/strong><\/p><\/blockquote>\n<p>Empresas tecnol\u00f3gicas como Meta, Amazon y Google han respondido a este problema de los combustibles f\u00f3siles anunciando\u00a0<strong>objetivos para utilizar m\u00e1s energ\u00eda nuclear<\/strong>. Las tres se han sumado al compromiso de triplicar la capacidad nuclear mundial para 2050. Sin embargo, en la actualidad,\u00a0<strong>la energ\u00eda nuclear solo representa el 20% del suministro el\u00e9ctrico en Estados Unidos<\/strong>\u00a0y alimenta una peque\u00f1a parte de los centros de datos de IA. El gas natural representa m\u00e1s de la mitad de la electricidad generada en\u00a0<a href=\"https:\/\/www.eia.gov\/state\/print.php?sid%3DVA\">Virginia,\u00a0<\/a>que cuenta con m\u00e1s centros de datos que cualquier otro estado de Estados Unidos, por ejemplo. Adem\u00e1s, las nuevas operaciones nucleares tardar\u00e1n a\u00f1os, quiz\u00e1s d\u00e9cadas, en materializarse.<\/p>\n<blockquote><p><strong><em>En 2024, los combustibles f\u00f3siles, incluidos el gas natural y el carb\u00f3n, representaban algo menos del 60 % del suministro el\u00e9ctrico en Estados Unidos.\u00a0 La energ\u00eda nuclear representaba alrededor del 20 %, y una combinaci\u00f3n de energ\u00edas renovables representaba la mayor parte del 20 % restante.<\/em><\/strong><\/p><\/blockquote>\n<p>Las deficiencias en el suministro el\u00e9ctrico, junto con la prisa por construir centros de datos para alimentar la IA, suelen\u00a0<strong>traducirse en planes energ\u00e9ticos miopes<\/strong>. En abril, se descubri\u00f3 mediante im\u00e1genes de sat\u00e9lite que el centro de supercomputaci\u00f3n X de Elon Musk, cerca de Memphis (Tennesse, EE UU), utilizaba docenas de generadores de gas metano que, seg\u00fan el Southern Environmental Law Center, est\u00e1n\u00a0<a href=\"https:\/\/www.theguardian.com\/us-news\/2025\/apr\/09\/elon-musk-xai-memphis\">no aprobados\u00a0<\/a>\u00a0por los reguladores energ\u00e9ticos para complementar la red el\u00e9ctrica y violan la Ley de Aire Limpio.<\/p>\n<p>La m\u00e9trica clave utilizada para cuantificar las emisiones de estos centros de datos se denomina\u00a0<strong>intensidad de carbono<\/strong>: cu\u00e1ntos gramos de emisiones de CO<sub>2<\/sub>\u00a0se producen por cada kilovatio-hora de electricidad consumida. Para determinar la intensidad de carbono de una red determinada es necesario conocer las emisiones producidas por cada central el\u00e9ctrica en funcionamiento, as\u00ed como la cantidad de energ\u00eda que cada una de ellas aporta a la red en un momento dado. Las empresas de servicios p\u00fablicos, los organismos gubernamentales y los investigadores utilizan estimaciones de las emisiones medias, as\u00ed como mediciones en tiempo real, para realizar un seguimiento de la contaminaci\u00f3n procedente de las centrales el\u00e9ctricas.<\/p>\n<p>Esta intensidad var\u00eda mucho de una regi\u00f3n a otra. La red el\u00e9ctrica de Estados Unidos est\u00e1 fragmentada y la combinaci\u00f3n de carb\u00f3n, gas, energ\u00edas renovables o nucleares var\u00eda mucho. La red de California es mucho m\u00e1s limpia que la de Virginia Occidental, por ejemplo.<\/p>\n<p>La hora del d\u00eda tambi\u00e9n es importante. Por ejemplo, los datos de abril de 2024 muestran que la red de California puede pasar de menos de 70 gramos por kilovatio-hora por la tarde, cuando hay mucha energ\u00eda solar disponible, a m\u00e1s de 300 gramos por kilovatio-hora en mitad de la noche.<\/p>\n<p>Esta variabilidad significa que una\u00a0<strong>misma actividad puede tener un impacto clim\u00e1tico<\/strong>\u00a0<strong>muy diferente<\/strong>, dependiendo de la ubicaci\u00f3n y la hora en que se realice la solicitud. Tomemos como ejemplo al corredor de marat\u00f3n ben\u00e9fico. Las respuestas de texto, imagen y v\u00eddeo que solicit\u00f3 suman 2,9 kilovatios-hora de electricidad. En California, generar esa cantidad de electricidad producir\u00eda una media de 650 gramos de contaminaci\u00f3n por CO<sub>2<\/sub>. Pero generar esa electricidad en Virginia Occidental podr\u00eda inflar el total a m\u00e1s de 1150 gramos.<\/p>\n<p><strong>La IA est\u00e1 a la vuelta de la esquina<\/strong><\/p>\n<p>Lo que hemos visto hasta ahora es que la energ\u00eda necesaria para responder a una consulta puede ser relativamente peque\u00f1a, pero puede variar mucho, dependiendo del tipo de consulta y del modelo utilizado. Las emisiones asociadas a esa cantidad de electricidad tambi\u00e9n\u00a0<strong>depender\u00e1n del lugar y el momento<\/strong>\u00a0en que se gestione la consulta. Pero \u00bfqu\u00e9 significa todo esto?<\/p>\n<p>Se estima que\u00a0<strong>ChatGPT es actualmente el quinto sitio web m\u00e1s visitado del mundo<\/strong>, solo por detr\u00e1s de Instagram y por delante de X. En diciembre, OpenAI afirm\u00f3 que ChatGPT recibe 1.000 millones de mensajes al d\u00eda y, tras el lanzamiento de un nuevo generador de im\u00e1genes en marzo, la empresa\u00a0<a href=\"https:\/\/x.com\/bradlightcap\/status\/1907810330018726042\/?rw_tt_thread%3DTrue\">declar\u00f3\u00a0<\/a>que los usuarios lo utilizaban para generar 78 millones de im\u00e1genes al d\u00eda, desde retratos al estilo del Studio Ghibli hasta fotos de ellos mismos convertidos en mu\u00f1ecos Barbie.<\/p>\n<blockquote><p><strong><em>Dada la direcci\u00f3n que est\u00e1 tomando la IA \u2014m\u00e1s personalizada, capaz de razonar y resolver problemas complejos en nuestro nombre, y presente en todas partes\u2014, es probable que nuestra huella de IA actual sea la m\u00e1s peque\u00f1a que jam\u00e1s haya existido.<\/em><\/strong><\/p><\/blockquote>\n<p>Se puede hacer un c\u00e1lculo muy aproximado para estimar el impacto energ\u00e9tico. En febrero, la empresa de investigaci\u00f3n en IA Epoch AI public\u00f3 una\u00a0<strong>estimaci\u00f3n de la energ\u00eda\u00a0<\/strong><strong>que se utiliza<\/strong>\u00a0<strong>para una sola consulta en ChatGPT<\/strong>, una estimaci\u00f3n que, como se ha comentado, parte de muchas hip\u00f3tesis que no se pueden verificar. Aun as\u00ed, calcularon unos 0,3 vatios-hora, o 1.080 julios, por mensaje. Esta cifra se sit\u00faa entre nuestras estimaciones para los modelos Meta Llama m\u00e1s peque\u00f1os y grandes (y los expertos a los que hemos consultado afirman que, en todo caso, la cifra real es probablemente m\u00e1s alta, no m\u00e1s baja).<\/p>\n<p>Mil millones de estos al d\u00eda durante un a\u00f1o supondr\u00edan m\u00e1s de 109 gigavatios-hora de electricidad, suficiente para abastecer de energ\u00eda a\u00a0<strong>10.400 hogares estadounidenses durante un a\u00f1o<\/strong>. Si a\u00f1adimos im\u00e1genes e imaginamos que generar cada una de ellas requiere tanta energ\u00eda como nuestros modelos de im\u00e1genes de alta calidad, eso supondr\u00eda 35 gigavatios-hora adicionales, suficientes para abastecer a otros 3.300 hogares durante un a\u00f1o. Esto se suma a la demanda energ\u00e9tica de otros productos de OpenAI, como los generadores de v\u00eddeo, y a la de todas las dem\u00e1s empresas y startups de IA.<\/p>\n<p>Pero aqu\u00ed est\u00e1 el problema: estas estimaciones\u00a0<strong>no reflejan el futuro pr\u00f3ximo del uso de la IA<\/strong>. En ese futuro, no nos limitaremos a enviar a los modelos de IA una o dos preguntas al d\u00eda, ni a pedirles que generen una foto. En cambio, los principales laboratorios compiten por llevarnos a<strong>\u00a0un mundo en el que los \u00abagentes\u00bb de IA<\/strong>\u00a0realizar\u00e1n tareas por nosotros sin que tengamos que supervisar cada uno de sus movimientos. Hablaremos con modelos en modo de voz, charlaremos con compa\u00f1eros durante dos\u00a0<a href=\"https:\/\/www.technologyreview.com\/2025\/03\/04\/1112768\/inside-the-wild-west-of-ai-companionship\/\">horas al d\u00eda\u00a0<\/a>y apuntaremos con las c\u00e1maras de nuestros tel\u00e9fonos a nuestro entorno en modo de v\u00eddeo. Asignaremos tareas complejas a los denominados\u00a0<strong>\u00abmodelos de razonamiento\u00bb<\/strong>, que resuelven las tareas de forma l\u00f3gica, pero\u00a0<a href=\"https:\/\/www.linkedin.com\/posts\/sashaluccioniphd_i-asked-qwen3-8b-to-think-it-answered-activity-7323068947182874624-OI6j\/\">que requieren<\/a>\u00a043 veces m\u00e1s energ\u00eda para problemas sencillos, o a modelos de \u00abinvestigaci\u00f3n profunda\u00bb, que pasan horas creando informes para nosotros. Tendremos modelos de IA \u00abpersonalizados\u00bb gracias al entrenamiento con nuestros datos y preferencias.<\/p>\n<p>Este futuro est\u00e1 a la vuelta de la esquina: seg\u00fan se informa, OpenAI ofrecer\u00e1 agentes por 20 000 d\u00f3lares al mes y utilizar\u00e1 capacidades de razonamiento en todos sus modelos en el futuro, y DeepSeek catapult\u00f3 el razonamiento de \u00abcadena de pensamiento\u00bb a la corriente principal con un modelo que a menudo genera nueve p\u00e1ginas de texto por cada respuesta. Se est\u00e1n\u00a0<strong>a\u00f1adiendo modelos de IA a todo<\/strong>, desde las\u00a0<strong>l\u00edneas telef\u00f3nicas de atenci\u00f3n al cliente<\/strong>\u00a0hasta las\u00a0<strong>consultas m\u00e9dicas<\/strong>, lo que aumenta r\u00e1pidamente la cuota de la IA en el consumo energ\u00e9tico nacional.<\/p>\n<blockquote><p><strong><em>\u00abLas pocas cifras de las que disponemos pueden arrojar un poco de luz sobre nuestra situaci\u00f3n actual, pero todo es una inc\u00f3gnita para los pr\u00f3ximos a\u00f1os\u00bb, afirma Luccioni.<\/em><\/strong><\/p><\/blockquote>\n<p>Todos los investigadores con los que hablamos afirmaron que\u00a0<strong>no podemos comprender las demandas energ\u00e9ticas de este futuro<\/strong>\u00a0simplemente extrapolando el consumo energ\u00e9tico actual de las consultas de IA. De hecho, las medidas adoptadas por las principales empresas de IA para poner en marcha centrales nucleares y crear centros de datos a una escala sin precedentes sugieren que su visi\u00f3n del futuro\u00a0<strong>consumir\u00eda mucha m\u00e1s energ\u00eda<\/strong>\u00a0que incluso un gran n\u00famero de estas consultas individuales.<\/p>\n<p>\u00abLas pocas cifras de las que disponemos pueden arrojar un peque\u00f1o rayo de luz sobre nuestra situaci\u00f3n actual, pero\u00a0<strong>todo es una inc\u00f3gnita para los pr\u00f3ximos a\u00f1os<\/strong>\u00ab, afirma Luccioni, y a\u00f1ade: \u00abLas herramientas de IA generativa se nos est\u00e1n imponiendo y cada vez es m\u00e1s dif\u00edcil renunciar a ellas o tomar decisiones informadas en materia de energ\u00eda y clima\u00bb.<\/p>\n<p>Para comprender cu\u00e1nta energ\u00eda necesitar\u00e1 esta revoluci\u00f3n de la IA y de d\u00f3nde provendr\u00e1, tenemos que leer entre l\u00edneas.<\/p>\n<p>Cuarta parte: El futuro que nos espera<\/p>\n<p>Un\u00a0<a href=\"https:\/\/www.energy.gov\/articles\/doe-releases-new-report-evaluating-increase-electricity-demand-data-centers\" target=\"_blank\" rel=\"noopener\">informe<\/a>\u00a0publicado en diciembre por el Laboratorio Nacional Lawrence Berkeley, financiado por el Departamento de Energ\u00eda y que ha producido 16 premios Nobel, intent\u00f3 medir lo que\u00a0<strong>la proliferaci\u00f3n de la IA podr\u00eda significar para la demanda de energ\u00eda<\/strong>.<\/p>\n<p>Tras analizar datos p\u00fablicos y privados sobre los centros de datos en su conjunto, as\u00ed como las necesidades espec\u00edficas de la IA, los investigadores llegaron a una conclusi\u00f3n clara. Los centros de datos de EE UU consumieron alrededor de\u00a0<strong>200 teravatios-hora de electricidad en 2024<\/strong>, aproximadamente lo que se necesita para abastecer de energ\u00eda a\u00a0<strong>Tailandia durante un a\u00f1o<\/strong>. Se estima que los servidores espec\u00edficos de IA en estos centros de datos consumieron entre 53 y 76 teravatios-hora de electricidad. En el extremo superior, esto es suficiente para abastecer de energ\u00eda a m\u00e1s de 7,2 millones de hogares estadounidenses durante un a\u00f1o.<\/p>\n<p>Si imaginamos que la mayor parte se utiliz\u00f3 para la inferencia, significa que el a\u00f1o pasado se utiliz\u00f3 suficiente electricidad en IA en Estados Unidos como para que\u00a0<strong>cada persona del planeta hubiera intercambiado m\u00e1s de 4.000 mensajes con chatbots<\/strong>. En realidad, por supuesto, los usuarios individuales medios no son responsables de toda esta demanda de energ\u00eda. Es probable que gran parte de ella se destine\u00a0<strong>a\u00a0<em>start-ups<\/em>\u00a0y gigantes tecnol\u00f3gicos<\/strong>\u00a0que prueban sus modelos, a usuarios avanzados que exploran todas las nuevas funciones y a tareas que consumen mucha energ\u00eda, como la generaci\u00f3n de v\u00eddeos o avatares.<\/p>\n<blockquote><p><strong><em>Los centros de datos de EE. UU. consumieron alrededor de 200 teravatios-hora de electricidad en 2024, aproximadamente lo que se necesita para abastecer de energ\u00eda a Tailandia durante un a\u00f1o. [MULTIMEDIA]<\/em><\/strong><\/p><\/blockquote>\n<p>Los investigadores estiman que, para 2028, la energ\u00eda destinada a fines espec\u00edficos de la IA aumentar\u00e1 hasta entre 165 y 326 teravatios-hora al a\u00f1o. Eso es\u00a0<strong>m\u00e1s que toda la electricidad que consumen actualmente los centros de datos de EE UU<\/strong>\u00a0para todos los fines; es suficiente para\u00a0<strong>abastecer al 22% de los hogares estadounidenses<\/strong>\u00a0cada a\u00f1o. Eso podr\u00eda generar las mismas emisiones que conducir m\u00e1s de 482.000 millones de kil\u00f3metros, m\u00e1s de 1.600 viajes de ida y vuelta de la Tierra al Sol.<\/p>\n<p>Los investigadores dejaron claro que\u00a0<strong>la adopci\u00f3n de la IA y las tecnolog\u00edas de servidores<\/strong>\u00a0acelerados que la alimentan han sido la principal fuerza que ha provocado que la demanda de electricidad de los centros de datos se disparara tras permanecer estancada durante m\u00e1s de una d\u00e9cada. Entre 2024 y 2028, la proporci\u00f3n de electricidad de EE UU destinada a los centros de datos podr\u00eda triplicarse, pasando del 4,4 % actual al 12 %.<\/p>\n<p>Este aumento sin precedentes de la demanda de energ\u00eda para la IA est\u00e1 en l\u00ednea con lo que anuncian las empresas l\u00edderes. SoftBank, OpenAI, Oracle y la empresa de inversi\u00f3n emirat\u00ed MGX tienen la intenci\u00f3n de invertir 500.000 millones de d\u00f3lares (431.000 millones de euros) en los pr\u00f3ximos cuatro a\u00f1os en nuevos centros de datos en Estados Unidos. El primero ha comenzado a construirse en Abilene, Texas, e incluye ocho edificios del tama\u00f1o de un estadio de b\u00e9isbol cada uno. En respuesta a una solicitud de informaci\u00f3n de la Casa Blanca, Anthropic sugiri\u00f3 que Estados Unidos construyera 50 gigavatios adicionales de energ\u00eda dedicada para 2027.<\/p>\n<p>Las empresas de IA tambi\u00e9n est\u00e1n planeando construcciones de varios gigavatios en el extranjero, entre ellas en Malasia, que se est\u00e1 convirtiendo en el centro de datos del sudeste asi\u00e1tico. En mayo, OpenAI\u00a0<a href=\"https:\/\/openai.com\/global-affairs\/openai-for-countries\/\" target=\"_blank\" rel=\"noopener\">anunci\u00f3<\/a>\u00a0un plan para\u00a0<strong>apoyar la construcci\u00f3n de centros de datos<\/strong>\u00a0en el extranjero como parte de una apuesta por \u00abdifundir la IA democr\u00e1tica\u00bb. Las empresas est\u00e1n adoptando\u00a0<strong>un enfoque disperso para lograrlo<\/strong>: firmando acuerdos para nuevas centrales nucleares, poniendo en marcha antiguas centrales y cerrando acuerdos masivos con empresas de servicios p\u00fablicos.<\/p>\n<p><strong><em>MIT Technology Review<\/em><\/strong>\u00a0solicit\u00f3 entrevistas a Google, OpenAI y Microsoft sobre sus planes para este futuro y sobre cifras concretas sobre la energ\u00eda necesaria para inferir los principales modelos de IA. OpenAI se neg\u00f3 a facilitar cifras o a que nadie estuviera disponible para una entrevista, pero emiti\u00f3 un comunicado en el que afirmaba que da prioridad al uso eficiente de los recursos inform\u00e1ticos y colabora con sus socios para apoyar los objetivos de sostenibilidad, y que la IA podr\u00eda ayudar a descubrir soluciones clim\u00e1ticas. La empresa afirm\u00f3 que las primeras instalaciones de su iniciativa Stargate ser\u00e1n de gas natural y energ\u00eda solar y que tratar\u00e1 de incluir\u00a0<strong>la energ\u00eda nuclear y geot\u00e9rmica<\/strong>\u00a0siempre que sea posible.<\/p>\n<p>Microsoft habl\u00f3 de su propia investigaci\u00f3n para mejorar la eficiencia de la IA, pero se neg\u00f3 a compartir detalles sobre c\u00f3mo se incorporan estos enfoques en sus centros de datos.<\/p>\n<p>Google se neg\u00f3 a compartir cifras que detallaran cu\u00e1nta energ\u00eda se requiere en el momento de la inferencia para sus modelos de IA, como Gemini, y funciones como AI Overviews. La empresa se\u00f1al\u00f3 informaci\u00f3n sobre sus TPU, el equivalente patentado por Google a las GPU, y la eficiencia que han logrado.<\/p>\n<p>Los investigadores de Lawrence Berkeley criticaron sin rodeos la situaci\u00f3n actual, afirmando que la informaci\u00f3n divulgada por las empresas tecnol\u00f3gicas, los operadores de centros de datos, las empresas de servicios p\u00fablicos y los fabricantes de hardware no es suficiente para hacer proyecciones razonables sobre las demandas energ\u00e9ticas sin precedentes de este futuro ni para estimar las emisiones que generar\u00e1. Ofrecieron formas en que las empresas podr\u00edan divulgar m\u00e1s informaci\u00f3n sin violar los secretos comerciales, como\u00a0<strong>acuerdos de intercambio de datos an\u00f3nimos<\/strong>, pero su informe reconoci\u00f3 que los arquitectos de este enorme aumento de los centros de datos de IA no han sido transparentes hasta ahora, lo que les deja sin herramientas para elaborar un plan.<\/p>\n<p>\u00abAdem\u00e1s de limitar el alcance de este informe, esta falta de transparencia pone de relieve que\u00a0<strong>el crecimiento de los centros de datos<\/strong>\u00a0se est\u00e1 produciendo sin tener en cuenta la mejor manera de integrar estas cargas emergentes con la expansi\u00f3n de la generaci\u00f3n y el transporte de electricidad o con el desarrollo de la comunidad en general\u00bb, escribieron. Los autores tambi\u00e9n se\u00f1alaron que solo se han publicado otros dos informes de este tipo en los \u00faltimos 20 a\u00f1os.<\/p>\n<p>Otros investigadores nos han comentado que su\u00a0<strong>capacidad para comprender las emisiones y la demanda energ\u00e9tica de la IA\u00a0<\/strong>se ve obstaculizada por el hecho de que la IA a\u00fan no se trata como un sector independiente. La Administraci\u00f3n de Informaci\u00f3n Energ\u00e9tica de EE. UU., por ejemplo, realiza\u00a0<a href=\"https:\/\/www.eia.gov\/energyexplained\/use-of-energy\/industry.php\" target=\"_blank\" rel=\"noopener\">proyecciones y mediciones<\/a>\u00a0para la industria manufacturera, la miner\u00eda, la construcci\u00f3n y la agricultura, pero simplemente no existen datos detallados sobre la IA.<\/p>\n<blockquote><p><strong><em>\u00ab\u00bfPor qu\u00e9 deber\u00edamos pagar por esta infraestructura? \u00bfPor qu\u00e9 deber\u00edamos pagar sus facturas de electricidad?\u00bb.<\/em><\/strong><\/p><\/blockquote>\n<p><strong><em>\u00a0<\/em><\/strong>Seg\u00fan una nueva investigaci\u00f3n publicada en marzo, los particulares podr\u00edan acabar pagando parte de la factura de esta revoluci\u00f3n de la IA. Los investigadores, de la Iniciativa sobre Legislaci\u00f3n El\u00e9ctrica de Harvard, analizaron los acuerdos entre las empresas de servicios p\u00fablicos y gigantes tecnol\u00f3gicos como Meta que regulan cu\u00e1nto pagar\u00e1n estas empresas por la energ\u00eda en los nuevos centros de datos a gran escala. Descubrieron que los descuentos que las empresas de servicios p\u00fablicos conceden a las grandes tecnol\u00f3gicas pueden aumentar las tarifas el\u00e9ctricas que pagan los consumidores. En algunos casos, si determinados centros de datos no consiguen atraer el negocio prometido de la IA o necesitan menos energ\u00eda de la prevista, los contribuyentes podr\u00edan seguir teniendo que subvencionarlos. Un\u00a0<a href=\"https:\/\/jlarc.virginia.gov\/pdfs\/reports\/Rpt598.pdf\" target=\"_blank\" rel=\"noopener\">informe\u00a0<\/a>de 2024 de la Asamblea Legislativa de Virginia estimaba que los contribuyentes residenciales medios del estado podr\u00edan pagar 37,50 d\u00f3lares adicionales al mes en concepto de costes energ\u00e9ticos de los centros de datos.<\/p>\n<p>\u00abNo nos queda claro que los beneficios de estos centros de datos superen estos costes\u00bb, afirma Eliza Martin, investigadora jur\u00eddica del Programa de Derecho Ambiental y Energ\u00e9tico de Harvard y coautora de la investigaci\u00f3n. \u00ab\u00bfPor qu\u00e9 deber\u00edamos pagar por esta infraestructura? \u00bfPor qu\u00e9 deber\u00edamos pagar sus facturas de electricidad?\u00bb.<\/p>\n<p>Cuando le pides a un modelo de IA que te escriba un chiste o que genere un v\u00eddeo de un cachorro, esa consulta conlleva un peque\u00f1o pero cuantificable consumo de energ\u00eda y una cantidad asociada de emisiones que se vierten a la atm\u00f3sfera. Dado que cada solicitud individual suele consumir menos energ\u00eda que el funcionamiento de un electrodom\u00e9stico durante unos instantes, puede parecer insignificante.<\/p>\n<p>Pero a medida que m\u00e1s personas recurrimos a las herramientas de IA, estos impactos comienzan a acumularse. Y cada vez m\u00e1s, no es necesario buscar la IA para utilizarla: se est\u00e1 integrando en todos los rincones de nuestra vida digital.<\/p>\n<p>Es fundamental se\u00f1alar\u00a0<strong>que hay mucho que desconocemos<\/strong>, ya que los gigantes tecnol\u00f3gicos guardan silencio sobre los detalles. Pero, a juzgar por nuestras estimaciones, est\u00e1 claro\u00a0<strong>que la IA es una fuerza\u00a0<\/strong>que est\u00e1 transformando no solo la tecnolog\u00eda, sino tambi\u00e9n la red el\u00e9ctrica y el mundo que nos rodea.<\/p>\n<p><strong>Fuente:<\/strong> <a href=\"https:\/\/technologyreview.es\/article\/todo-lo-que-deberias-saber-sobre-la-huella-energetica-de-la-ia\/\" target=\"_blank\" rel=\"noopener\"><em>https:\/\/technologyreview.es<\/em><\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Seg\u00fan\u00a0las nuevas proyecciones publicadas por el Laboratorio Nacional Lawrence Berkeley en diciembre, para 2028 m\u00e1s de la mitad de la electricidad destinada a los centros&hellip; <\/p>\n","protected":false},"author":1,"featured_media":17314,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[37,23],"tags":[],"_links":{"self":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/17313"}],"collection":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=17313"}],"version-history":[{"count":1,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/17313\/revisions"}],"predecessor-version":[{"id":17315,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/17313\/revisions\/17315"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/media\/17314"}],"wp:attachment":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=17313"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=17313"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=17313"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}