Algunas preguntas a la IA emiten hasta 50 veces más CO2 que otras
Una nueva investigación revela que ciertos modelos de lenguaje generativo emiten más dióxido de carbono que otros al responder a preguntas similares. El objetivo de los hallazgos, que detallan en Sinc, es que los usuarios tomen decisiones informadas sobre el uso de estas tecnologías y el distinto coste ambiental 1que tiene cada modelo de inteligencia artificial.
Cada vez que una IA responde preguntas, activa un complejo proceso computacional
Esta investigación revela que ciertos modelos de lenguaje generativo emiten más dióxido de carbono que otros al responder a preguntas similares
@evaou22 https://t.co/x8P6MLFRrl
— SINC (@agencia_sinc) June 19, 2025
Un estudio de la Universidad de Ciencias Aplicadas de Múnich (Alemania) ha analizado el impacto ambiental de diferentes modelos de lenguaje generativo (LLMs, por sus siglas en inglés) en tareas comunes de uso cotidiano, como resolver preguntas de cultura general o matemáticas.
Cada vez que una inteligencia artificial responde, activa un complejo proceso computacional. Para generar esa información —acierte o no— los modelos utilizan tokens, unidades que representan palabras o fragmentos de ellas y que se traducen en secuencias numéricas comprensibles por la máquina. Esa operación, junto con otras tareas internas, conlleva un consumo energético que se traduce en emisiones de CO₂. Sin embargo, muchos usuarios siguen sin conocer el coste ambiental que implica cada interacción con estas tecnologías.
“A cada modelo se le hicieron 100 preguntas de cinco categorías diferentes, que iban desde historia hasta matemáticas a nivel de secundaria, y se les pidió responder tanto en formato de opción múltiple como en texto libre. Posteriormente, se evaluaron y compararon tanto el consumo energético como la precisión de las respuestas”, dice a SINC Maximilian Dauner, autor principal del estudio publicado en Frontiers in Communication.
Según los investigadores, el impacto ambiental de interrogar modelos LLM entrenados está fuertemente determinado por su enfoque de razonamiento, con procesos explícitos que elevan considerablemente el consumo energético y las emisiones de carbono.
Los investigadores evaluaron 14 modelos, con tamaños entre 7 000 y 72 000 millones de parámetros, con preguntas de referencia que cubrían una amplia gama de materias. “Las emisiones de CO₂ se calcularon en función del consumo de energía medido por un servidor equipado con una GPU NVIDIA A 100. Los modelos fueron probados en el mismo servidor utilizando preguntas idénticas para garantizar la mayor comparabilidad posible. Naturalmente, pueden producirse desviaciones según el tipo de generación eléctrica”, explica el investigador”, apunta Dauner.
La GPU NVIDIA es un procesador especializado que permite realizar millones de operaciones en paralelo, al acelerar el procesamiento de datos y reducir el tiempo que tarda el modelo en generar respuestas o entrenarse.
Cuanto más razona la IA, más contamina
El equipo halló que los modelos que aplican procesos de razonamiento más elaborados generan muchas más emisiones que aquellos que ofrecen respuestas concisas. En concreto, los modelos con razonamiento generaban en promedio 543,5 tokens por pregunta, frente a solo 37,7 en los modelos concisos.
«El impacto ambiental de interrogar modelos LLM entrenados está fuertemente determinado por su enfoque de razonamiento, con procesos explícitos que elevan considerablemente el consumo energético y las emisiones de carbono», señala en científico.
El modelo Cogito (70 000 millones de parámetros) obtuvo la mayor precisión (84,9 %), pero emitió tres veces más CO₂ que otros de tamaño similar con respuestas más concisas. “Actualmente, vemos una clara disyuntiva entre precisión y sostenibilidad en las tecnologías LLM. Ninguno de los modelos que mantuvo las emisiones por debajo de 500 gramos de CO₂ equivalente logró superar el 80 % de precisión”, señala Dauner.
Además del tipo de modelo, el área temática de la pregunta también influye: cuestiones que exigen razonamientos complejos —como filosofía o álgebra abstracta— provocaron hasta seis veces más emisiones que temas como historia de secundaria.
“Se puede reducir la huella de carbono de las respuestas de los LLMs aproximadamente 10 veces, manteniendo una precisión dentro de uno o dos puntos porcentuales, mediante una serie de pasos complementarios, como que la decodificación especulativa permite omitir muchas pasadas de modelos grandes durante la generación. Además de ejecutar todo esto en hardware eficiente y programar las cargas de trabajo para las horas y regiones donde la red eléctrica es más limpia”, añade el investigador.

Radiocable.com y su programa La Cafetera se financian con las aportaciones de lectores y oyentes. Necesitamos tu ayuda para sobrevivir. Si te gusta el periodismo que defiende el programa y sientes que te acompaña, hazte suscriptor-mecenas aquí.






