Así contaminan tus conversaciones con la IA: descubren que una simple pregunta puede generar más CO₂ que cargar tu móvil durante un año

Un estudio pionero pone cifras al impacto ambiental real de hablar con la inteligencia artificial: no todas las preguntas contaminan igual… y hay modelos que emiten lo mismo que un vuelo transatlántico.
Una sola pregunta a la IA puede contaminar 50 veces más que otra, según un estudio reciente
Una sola pregunta a la IA puede contaminar 50 veces más que otra, según un estudio reciente. Foto: Istock/Christian Pérez

Cada vez que alguien le hace una pregunta a una inteligencia artificial, se desencadena un proceso invisible pero muy real: el gasto de energía. Y con él, la emisión de gases contaminantes. La mayoría de los usuarios no piensa en ello. ¿Qué daño puede causar preguntarle algo a un chatbot? ¿Y si lo haces miles de veces al día? Un nuevo estudio realizado por investigadores del Munich Center for Digital Sciences and AI (MUC.DAI) ha medido con precisión cuánto contamina el simple acto de conversar con una IA, y los resultados son sorprendentes: algunas preguntas pueden generar hasta 50 veces más emisiones de CO₂ que otras.

Publicada en Frontiers in Communication, la investigación liderada por Maximilian Dauner y Gudrun Socher ha probado 14 modelos de lenguaje diferentes, desde los más compactos hasta gigantes con más de 70.000 millones de parámetros, como Qwen 2.5 o Cogito 70B. ¿El objetivo? Saber cuánto consumen, cuántos tokens generan y cuántos gramos de CO₂ equivalente emiten cuando se enfrentan al mismo conjunto de preguntas.

Lo que contamina no es la respuesta, sino el proceso de pensamiento

El hallazgo principal tiene un matiz muy humano: los modelos que “piensan más” contaminan más. Es decir, las IA entrenadas para razonar paso a paso y ofrecer respuestas más elaboradas generan muchos más tokens antes de dar una conclusión. Y como cada token requiere energía para ser procesado, eso se traduce en más emisiones.

En cifras: mientras un modelo sencillo puede generar una media de 38 tokens para responder a una pregunta de opción múltiple, uno optimizado para razonar puede llegar a usar más de 540 tokens solo en “pensar”. En preguntas abiertas, algunos llegaron a generar decenas de miles de tokens en una sola respuesta. La consecuencia directa es una huella de carbono mucho más alta.

Por ejemplo, el modelo Cogito 70B en modo razonador fue el más preciso de todos, con una tasa de acierto del 84,9% en el banco de preguntas usado. Pero también fue uno de los que más contaminó: más de 1.300 gramos de CO₂ equivalente para responder a 1.000 preguntas. Su competidor más cercano en tamaño, Qwen 2.5, logró una precisión similar con apenas 426 gramos de CO₂, gracias a que sus respuestas eran más breves.

Un experimento revela que el tipo de pregunta a la IA puede aumentar las emisiones de CO₂ hasta 50 veces
Un experimento revela que el tipo de pregunta a la IA puede aumentar las emisiones de CO₂ hasta 50 veces. Foto: Istock/Christian Pérez

Algunas preguntas contaminan seis veces más que otras

La investigación también revela que no todas las materias académicas consumen la misma energía. Temas como Historia del Mundo en Secundaria resultan más fáciles de resolver para las IA, generan respuestas más concisas y precisas, y por tanto, implican menos emisiones. En cambio, asignaturas como Álgebra Abstracta o Filosofía disparan la huella de carbono. No solo son más difíciles, sino que obligan a los modelos a desplegar largos razonamientos que consumen muchos más recursos.

Esto introduce un nuevo dilema ético: ¿deberíamos pensarnos dos veces antes de pedirle a un modelo de lenguaje que resuelva complejos problemas matemáticos o nos explique teorías filosóficas en detalle, sabiendo que contamina más?

Una IA que contamina como un vuelo a Nueva York

Uno de los datos más llamativos del estudio es la comparación entre el modelo más contaminante (DeepSeek R1 70B) y un vuelo comercial. Si se le pidiera a este modelo que respondiera a 600.000 preguntas, las emisiones generadas serían equivalentes a un viaje de ida y vuelta en avión entre Londres y Nueva York. En cambio, con la misma cantidad de emisiones, el modelo Qwen 2.5 podría responder a casi 2 millones de preguntas.

Este tipo de cálculos invita a una reflexión profunda sobre el uso diario de herramientas de inteligencia artificial. Aunque el impacto individual de una consulta sea pequeño, al escalar millones de usuarios haciendo millones de peticiones, la huella colectiva puede ser colosal. Y no es una hipótesis lejana: los propios autores citan estimaciones que sitúan el consumo energético de la IA generativa a niveles comparables al consumo eléctrico total de países como Irlanda.

El estudio no demoniza los modelos de razonamiento profundo, pero sí deja claro que existe un coste oculto en su uso. A mayor complejidad, mayor exactitud… y también mayor contaminación. De los 14 modelos evaluados, ninguno logró superar el 80% de acierto manteniéndose por debajo de los 500 gramos de CO₂. Es decir, aún no existe una IA que sea al mismo tiempo muy precisa y muy sostenible.

Esto plantea un dilema técnico pero también social: ¿en qué casos merece la pena usar una IA razonadora y en cuáles bastaría con una respuesta directa? ¿Estamos desperdiciando recursos al pedirle a una IA que nos redacte emails, nos haga resúmenes o nos convierta en superhéroes, si para ello estamos generando un exceso de emisiones?

Una sola IA respondiendo cientos de miles de preguntas puede generar tantas emisiones como un vuelo de ida y vuelta entre Londres y Nueva York
Una sola IA respondiendo cientos de miles de preguntas puede generar tantas emisiones como un vuelo de ida y vuelta entre Londres y Nueva York. Foto: Istock/Christian Pérez

¿Cómo podemos reducir el impacto al usar IA?

Los investigadores proponen una serie de recomendaciones sencillas pero efectivas para los usuarios cotidianos. Por ejemplo, optar por modelos más pequeños para tareas básicas, evitar prompts excesivamente abiertos si no son necesarios, y fomentar que los desarrolladores incorporen opciones de respuesta concisa por defecto.

También señalan que el coste energético de cada respuesta puede variar según la fuente de electricidad de los servidores, por lo que utilizar centros de datos con energía renovable sería otra vía para minimizar el impacto.

Sin embargo, en un momento en el que gigantes como Microsoft, Meta, OpenAI o Apple planean invertir cientos de miles de millones en centros de datos para sostener el auge de la IA, no parece que el consumo vaya a reducirse pronto. Incluso se han firmado acuerdos con centrales nucleares para garantizar el suministro eléctrico necesario.

Un dato para pensar antes de pedirle algo a tu IA

El futuro de la inteligencia artificial parece inevitablemente ligado a un aumento del consumo energético. Pero la buena noticia es que también existe margen para actuar desde el lado del usuario. Como demuestran los datos, no todas las preguntas cuestan lo mismo al planeta. Y si supiéramos con exactitud cuántos gramos de CO₂ cuesta cada respuesta que pedimos a nuestra IA favorita, tal vez seríamos más selectivos.

Porque aunque parezca una conversación inofensiva, hablar con una IA también deja huella. Y puede que más de la que imaginas.

Referencias

Recomendamos en

El mejor libro de física de todos los tiempos: el veredicto final de las IA tras esquivar la pregunta

Tres de los principales modelos de inteligencia artificial —ChatGPT, Gemini y Perplexity— ofrecen respuestas similares cuando se les pregunta por el mejor libro de física. Pero solo al insistir, revelan su elección. Este artículo explora ese consenso inesperado, las divergencias de otras IA como Copilot y Consensus, y lo que todo esto dice sobre nuestra necesidad de respuestas absolutas en un mundo lleno de matices.
  • Eugenio M. Fernández Aguilar