Con cada consulta, generación de imágenes y conversación con un chatbot, el consumo de energía de los modelos de inteligencia artificial (IA) aumenta. Ya se estima que las emisiones de los centros de datos necesarios para entrenar y prestar estos servicios representan alrededor de 3 por ciento del total mundial, lo que equivale a casi el mismo nivel de las generadas por la industria aeronáutica.
Sin embargo, no todos los modelos de inteligencia artificial consumen la misma cantidad de energía. Los modelos de IA para tareas específicas, como TinyBERT, de Intel, y DistilBERT, de Hugging Face, que solo recuperan respuestas de texto, consumen cantidades minúsculas de energía: alrededor de 0.06 vatios-hora por cada mil consultas. Esto equivale a encender un foco LED durante 20 segundos.
En el otro extremo, los modelos de lenguaje de gran tamaño como GPT-4, de OpenAI; Claude, de Anthropic; Llama, de Meta; DeepSeek o Qwen, de Alibaba, consumen miles de veces más energía para la misma consulta. El resultado es como encender los focos de un estadio para buscar tus llaves.
¿Por qué hay una diferencia tan grande en el consumo de energía? Porque los modelos de lenguaje de gran tamaño no solo encuentran respuestas, sino que las generan desde cero recombinando patrones de enormes conjuntos de datos. Esto requiere más tiempo, recursos computacionales y energía que una búsqueda en internet.
Medir con precisión el tamaño de cada modelo de IA y cuánta energía consume es difícil. Las empresas con sistemas de código cerrado, como Gemini, de Google, o Claude, de Anthropic, no publican su código y protegen esta información. Por eso internet está lleno de afirmaciones sin verificar sobre las cantidades de energía y agua que requieren las consultas de los chatbots y cómo se comparan con una búsqueda en internet.
El proyecto AI Energy Score, una colaboración entre Salesforce, Hugging Face, Cohere, el desarrollador de inteligencia artificial, y la Universidad Carnegie Mellon, busca arrojar más luz sobre el problema mediante el desarrollo de un enfoque estandarizado. El código es abierto y está disponible para que cualquiera pueda acceder y contribuir. El objetivo es alentar a la comunidad de inteligencia artificial a probar tantos modelos como sea posible.
Al examinar 10 tareas populares (como la generación de texto o la transcripción de audio) en modelos de inteligencia artificial de código abierto, es posible aislar la cantidad de energía que consume el hardware que los ejecuta. A estos se les asignan calificaciones de entre una y cinco estrellas en función de su eficiencia relativa. Entre los modelos de IA más y menos eficientes de nuestra muestra, encontramos una diferencia de 62 mil veces en la energía requerida.
Desde el lanzamiento del proyecto en febrero, una nueva herramienta compara el consumo de energía de las consultas de chatbots con actividades cotidianas como cargar el teléfono o conducir, para ayudar a los s a comprender el impacto ambiental de la tecnología que utilizan a diario.
El sector de tecnología es consciente de que las emisiones de la inteligencia artificial ponen en peligro sus compromisos en materia del clima. Tanto Microsoft como Google, al parecer, ya no están cumpliendo con sus objetivos de emisiones netas cero. Sin embargo, hasta el momento ninguna gran compañía de tecnología ha aceptado utilizar la metodología para probar sus propios modelos de IA.
Es posible que algún día los modelos de inteligencia artificial contribuyan a la lucha contra el cambio climático. Los sistemas de IA, de los que son pioneros compañías como DeepMind, ya están diseñando es solares y materiales para baterías de última generación, optimizando la distribución de la red eléctrica y reduciendo la intensidad de carbono en la producción de cemento.
Las compañías de tecnología también avanzan hacia fuentes de energía más limpias. Microsoft invierte en la central nuclear de Three Mile Island, y Alphabet participa en enfoques más experimentales, como pequeños reactores nucleares modulares. En 2024, el sector de tecnología contribuyó con 92 por ciento de las nuevas compras de energía limpia en EU, pero se necesita mayor claridad.
OpenAI, Anthropic y otras compañías de tecnología deben empezar a divulgar el consumo de energía de sus modelos. Si se resisten, necesitamos una legislación que las obligue.
A medida que más s interactúan con los sistemas de IA, se les deben proporcionar las herramientas para comprender cuánta energía consume cada solicitud. Saber esto puede hacer que sean más cautelosos al utilizar la inteligencia artificial para tareas superfluas.
Una mayor transparencia también incentivará a las empresas a que desarrollan servicios basados en IA a seleccionar modelos más pequeños y sustentables que satisfagan sus necesidades específicas, en lugar de optar por las opciones más grandes y con mayor consumo de energía.
La inteligencia artificial representa uno de los mayores avances tecnológicos. Revolucionará nuestras vidas; sin embargo, conlleva costos ambientales que deben ser claros tanto para los s como para los responsables de la formulación de políticas. En esta era de crisis climática es esencial que el uso de energía de la IA sea más transparente.