Respuestas de modelos de IA a preguntas abstractas generan más CO2
Un estudio de la Universidad de Ciencias Aplicadas de Múnich, Alemania; analizó el impacto ambiental de 14 modelos de lenguaje a gran escala (LLMs, por sus siglas en inglés) en operaciones cotidianas, como la resolución de preguntas de cultura general o matemáticas. La investigación, publicada en Frontiers in Communication, reveló que ciertos modelos generan más dióxido de carbono (CO2) al responder preguntas similares.
“A cada modelo se le hicieron 100 preguntas de cinco categorías diferentes, que iban desde historia hasta matemáticas a nivel de secundaria, y se les pidió responder tanto en formato de opción múltiple como en texto libre. Posteriormente, se evaluaron y compararon tanto el consumo energético como la precisión de las respuestas”, afirmó el autor principal del estudio, Maximilian Dauner.
Según los investigadores, el impacto ambiental de interrogar modelos LLM entrenados está fuertemente determinado por su enfoque de razonamiento, con procesos explícitos que elevan considerablemente el consumo energético y las emisiones de carbono. “Las emisiones de CO₂ se calcularon en función del consumo de energía medido por un servidor equipado con una GPU NVIDIA A-100. Los modelos fueron probados en el mismo servidor utilizando preguntas idénticas para garantizar la mayor comparabilidad posible», apuntó Dauner.
«Naturalmente, pueden producirse desviaciones según el tipo de generación eléctrica”, explica el investigador”, acotó. El equipo halló que los modelos que aplican procesos de razonamiento más elaborados generan muchas más emisiones que aquellos que ofrecen respuestas concisas. En concreto, los modelos con razonamiento generaban en promedio 543,5 tokens por pregunta, frente a solo 37,7 en los modelos concisos.
«El impacto ambiental de interrogar modelos LLM entrenados está fuertemente determinado por su enfoque de razonamiento, con procesos explícitos que elevan considerablemente el consumo energético y las emisiones de carbono», señala el científico. El modelo Cogito (70 mil millones de parámetros) obtuvo la mayor precisión (84,9 %), pero emitió tres veces más CO₂ que otros de tamaño similar con respuestas más concisas. “
«Actualmente, vemos una clara disyuntiva entre precisión y sostenibilidad en las tecnologías LLM. Ninguno de los modelos que mantuvo las emisiones por debajo de 500 gramos de CO₂ equivalente logró superar el 80 % de precisión”, señaló Dauner. Además del tipo de modelo, el área temática de la pregunta también influye: cuestiones que exigen razonamientos complejos, como filosofía o álgebra abstracta, provocaron hasta seis veces más emisiones que temas como historia de secundaria.
“Se puede reducir la huella de carbono de las respuestas de los LLMs aproximadamente 10 veces, manteniendo una precisión dentro de uno o dos puntos porcentuales, mediante una serie de pasos complementarios, como que la decodificación especulativa permite omitir muchas pasadas de modelos grandes durante la generación. Además de ejecutar todo esto en hardware eficiente y programar las cargas de trabajo para las horas y regiones donde la red eléctrica es más limpia”, añadió el investigador.
Los investigadores esperan que su trabajo motive a las personas a tomar decisiones más informadas sobre su uso de la IA. “Los usuarios pueden reducir significativamente las emisiones solicitando respuestas concisas o limitando el uso de modelos de alta capacidad a tareas que realmente lo requieren”, indica Dauner.
El modelo usado hace una diferencia
La elección del modelo, puede marcar una gran diferencia en las emisiones de CO₂, por ejemplo, emplear a DeepSeek R1 (70 mil millones de parámetros) para responder 600 mil preguntas emitió la cantidad equivalente de gas invernadero a un vuelo de ida y vuelta entre Londres y Nueva York. En cambio, Qwen 2.5 (72 mil millones de parámetros) puede responder más de tres veces esa cantidad con tasas de precisión similares, mientras genera las mismas emisiones.
“Si los usuarios supieran el costo exacto en CO₂ de sus solicitudes a la IA —por ejemplo, convertir casualmente su imagen en una figura de acción—, tal vez serían más selectivos y conscientes sobre cuándo y cómo usan estas tecnologías”, recalcó Dauner. Actualmente, el equipo labora en un artículo de seguimiento que se enfoca específicamente en las demandas de recursos de los LLMs para tareas de programación. Esto incluye una gama más amplia de modelos, incluidos aquellos ajustados específicamente para generación de código.
Cada vez que una Inteligencia Artificial responde, activa un complejo proceso computacional. Para generar esa información —acierte o no— los modelos utilizan tokens, unidades que representan palabras o fragmentos de ellas y que se traducen en secuencias numéricas comprensibles por la máquina. Esa operación, junto con otras tareas internas, conlleva un consumo energético que se traduce en emisiones de CO₂. Sin embargo, muchos usuarios siguen sin conocer el coste ambiental que implica cada interacción con estas tecnologías.
Fuente: SINC
VTV/DC/CP