La Autoridad francesa de Regulación de las Comunicaciones Electrónicas (Arcep) —institución homóloga a la antigua Comisión española del Mercado de Telecomunicaciones (CMT), hoy integrada en la Comisión Nacional de los Mercados y la Competencia (CNMC)— pregunta a diversos académicos, especializados en disciplinas más o menos adyacentes, sobre el papel que puede jugar la Inteligencia Artificial en la reducción de emisiones de carbono en las redes de comunicaciones. Las líneas que siguen retoman los principales argumentos desarrollados en mi respuesta. Se trata de impresiones informales con las que nutrir el debate en el interior de la comunidad académica y regulatoria, no un estudio detallado (entre otras cosas, porque ni la IA ni las proyecciones energéticas corresponden a mi dominio de especialidad).
Es difícil estimar con precisión qué papel jugarán las llamadas “tecnologías de Inteligencia Artificial” en el consumo energético (eléctrico) de las infraestructuras telemáticas, o en qué medida este papel será determinante. Parece plausible que los efectos combinados de la extensión de la IA a múltiples servicios digitales, campos y aplicaciones lleven a un mayor —y no menor— consumo de energía en Internet y en otras redes telemáticas. Pero conviene precisar primero el contexto. Lo que corrientemente se entiende como “inteligencia artificial” engloba en realidad una amplia familia de tecnologías de aprendizaje automático, automatización y digitalización de procesos, basados en la computación y el tratamiento informático de datos — y de las que modelos masivos de lenguaje (large language models, LLMs) como ChatGPT constituyen tan sólo un ejemplo. El progreso de estas “inteligencias artificiales” depende, en buena medida, de la capacidad técnica y logística para recoger, transportar y procesar cantidades cada vez mayores de datos entre los puntos donde se generan, los puntos donde se procesan y los puntos donde se requieren.
Aunque el último auge de la Inteligencia Artificial es relativamente reciente (desde la década de 2010, y de manera más acelerada a partir de 2017, con la aparición de los transformers, y 2022, con el lanzamiento de ChatGPT), los procesos de automatización y digitalización en los que éste se inscribe son más amplios y más profundos, y están alimentados por los avances concurrentes en la capacidad de computación (siguiendo hasta hace poco la conocida “ley de Moore”, por la cual la capacidad de cálculo de los chips tendía a duplicarse aproximadamente cada dos años) y en la integración de las unidades de computación y recolección de datos (sensores, memorias, procesadores) en infraestructuras telemáticas de alcance planetario (sobre todo, aunque no sólo, Internet y las infraestructuras de comunicaciones móviles celulares). Se trata de tendencias históricas en las que llevamos inmersos desde hace no menos de tres cuartos de siglo, en las que hemos vivido (con intensidad variable en función de la región geográfica) varias generaciones. Las primeras computadoras de propósito general, la Z1 alemana y el ENIAC norteamericano, datan de los años treinta y cuarenta del siglo XX; la red predecesora de Internet, ARPANET, empezó a ser discutida en los años sesenta, y su primera implementación fue inaugurada en 1969. El mismo término de “Inteligencia Artificial” (cuyo creador, John MacCarthy, consideró posteriormente desafortunado por la confusión que inducía, como es sabido) fue empleado por primera vez en la conferencia de Dartmouth (New Hampshire, Estados Unidos), en 1956. Es esta triple tendencia de automatización, digitalización e interconexión, casi centenaria, la que ha permitido aumentar simultáneamente los volúmenes de datos a disposición, por un lado; y las capacidades computacionales para procesarlos, por otro. Ha creado, también, las condiciones para el actual boom de la IA estadística y generativa, que es a su vez heredera de un boom previo entre los años de posguerra mundial y los años setenta, ligada al nacimiento de la computación y el desarrollo de la llamada “IA simbólica”. El paradigma de IA simbólica, dominante hasta los años ochenta, se basaba en la manipulación lógica de símbolos; a diferencia del actual paradigma, que reposa, simplificando, en el análisis de regularidades estadísticas de grandes cantidades de datos sin contenido semántico o simbólico explícito (de ahí la apelación de “loros estocásticos” que a veces reciben modelos masivos de lenguaje como ChatGPT).
Mientras el rendimiento de la llamada “Inteligencia Artificial” siga dependiendo del volumen de datos disponibles para el entrenamiento y la optimización de sus modelos, es razonable estimar que el despliegue de las distintas tecnologías basadas en aprendizaje (algoritmos de recomendación y predicción, modelos complejos, químicos, físicos o meteorológicos, robótica y programación, optimización de procesos logísticos, generación de contenido, asistentes automáticos, etc.) irá acompañada de un aumento en el consumo de energía, necesaria para las operaciones de manipulación, formateo y tratamiento de datos que nutren los algoritmos de IA — incluidas las operaciones en redes, requeridas para su desplazamiento a través de las infraestructuras telemáticas. Los últimos informes (2025) de la Agencia Internacional de la Energía (IEA) indican un crecimiento en el consumo eléctrico de los centros de datos (no específicamente de las infraestructuras telemáticas) del 12% anual desde 2017, y estiman que este consumo hará más que duplicarse hasta 2030. Que el aumento sostenido del consumo de energía, ya sea en centros de datos o en otras partes de la infraestructura de comunicaciones y computación, suponga un incremento mayor o menor en la emisión de carbono u otros gases de efecto invernadero (GHG, greenhouse gases en inglés) dependerá de la huella de carbono en el mix de producción de la energía consumida — que no es particularmente sensible al impacto de la inteligencia artificial, al menos en un primer tiempo.

Se pueden distinguir distintos tipos de impacto de las tecnologías llamadas “de IA”, de aprendizaje y automatización, en distintas partes de Internet y las demás infraestructuras telemáticas. A corto plazo, la IA desplegada “para uso humano”, por ejemplo (las IAs generativas de contenido multimedia dirigido a humanos, como ChatGPT), supone un incremento sustancial del tráfico en Internet hacia los centros de datos en los que corren los modelos generativos, que a su vez están aumentando su consumo energético debido a las necesidades computaciones de los nuevos modelos de IA (el informe de la IEA anteriormente citado cuantifica el consumo típico de un centro de datos ligado a los servicios de IA como equivalente al de cien mil hogares; y estima que los mayores centros de datos hoy en construcción podrían consumir, cada uno, tanta energía como 2 millones de hogares). La automatización vía IA de tareas previamente realizadas por humanos (por ejemplo, la que prevé el modelo de “IA de agentes”) podría contribuir a reducir el consumo de energía en redes, salvo si el aumento del volumen de esas tareas, como efecto colateral de su automatización, produce el llamado “efecto rebote” (rebound effect) — en el que las ganancias en eficiencia energética conseguidas por una tecnología más avanzada (en este caso, relacionadas con la IA) son consumidas o compensadas por un uso considerablemente más intensivo de esa tecnología. Un ejemplo trivial de esto es el aumento en el volumen de correos electrónicos y contenidos distribuidos por Internet, en parte como consecuencia de la automatización de correos y de la generación sintética de contenidos (texto, vídeo), más barata que la humana. Los contenidos multimedia sintéticos (es decir, generados automáticamente) suponen una fracción creciente, y a decir de diversas estimaciones ya mayoritaria, de los presentes hoy en Internet. La creciente interacción de agentes “inteligentes” autónomos o semiautónomos a través de la red, en sistemas de computación distribuida y orquestada a través de Internet, puede reforzar esta tendencia, que puede en parte entenderse como una redistribución en la carga computacional a igualdad de tareas: la realización de las mismas tareas, previamente concentrada en unidades monolíticas implementadas en “nodos” de Internet (centros de datos o infrastructuras cerradas), pasa a ser descompuesta y asignada en diferentes lugares de cálculo interconectados. La dispersión de tareas de computación entre diferentes unidades obliga a intercambiar mayores volúmenes de datos a través de las infraestructuras telemáticas que conectan las unidades de cálculo — lo que supone un incremento del tráfico, y por tanto de la energía necesaria para desplazarlo.
Otro uso de las tecnologías de IA concierne a la optimización y mejora de la automatización de las operaciones de gestión de red (enrutamiento, asignación de recursos, diferenciación de tráfico, gestión de acceso a infraestructuras protegidas, detección y tratamiento de anomalías, etc.). Optimizaciones en esos terrenos pueden suponer un menor consumo de energía (y por tanto, un menor volumen de emisiones de gases de efecto invernadero, con el mismo mix de producción energética). No está claro, sin embargo, que los principales factores que limitan o condicionan la eficiencia energética en Internet (por ejemplo, los excesos de consumo energético debidos a la asignación subóptima de recursos) sean técnicos, y por tanto, puedan ser corregidos a través de implementación de mecanismos de optimización más avanzados y exhaustivos. La naturaleza modular, competitiva y altamente descentralizada de Internet, la heterogeneidad de sus componentes, el carácter crecientemente crítico de sus servicios en las sociedades digitales, así como los incentivos para mantener —o agravar— la fragmentación y autonomía relativa de las grandes infraestructuras globales de comunicación, obligan a considerar fuentes adicionales (legales, regulatorias, estratégicas, políticas o geopolíticas) de complejidad, redundancia y suboptimalidad, ante las que las optimizaciones únicamente tecnológicas tienen un impacto limitado.
Este matiz no es menor, y suele estar ausente en muchas consideraciones apresuradas —y excesivamente optimistas— sobre la capacidad del progreso tecnológico —y en particular, del despliegue de nuevas tecnologías, energéticamente más eficientes— para reducir apreciablemente el consumo energético global. Incluso sin considerar el rebound effect, el hecho de que una nueva tecnología A permita realizar las mismas tareas que una tecnología B, anterior, con un cierto ahorro energético ceteris paribus (que es el que suele publicitarse), no significa que el despliegue de la tecnología A vaya a conseguir mecánicamente ese mismo ahorro energético en la práctica. No en tecnologías que existen en infraestructuras globales de muy compleja actualización, o en las que el completo reemplazo de una tecnología por otra no es factible: las mejoras de eficiencia teóricamente alcanzables si la tecnología nueva se empleara en una infrastructura que se construyera desde cero no son posibles cuando la tecnología tiene que desplegarse en una infraestructura ya existente, y que reposa sobre tecnologías anteriores. En primer lugar, porque el despliegue de una tecnología nueva no es energéticamente neutral — menos aún lo es el reemplazo de una por otra, aunque sea parcial. En segundo lugar, porque la difusión de tecnologías de automatización y computación a través de las infraestructuras telemáticas globales es necesariamente irregular. En el caso de infraestructuras tan pervasivas y críticas para el funcionamiento de las sociedades digitales como las de comunicaciones, la tecnologías nuevas no pueden reemplazar completamente las anteriores sin costes sociales inasumibles, al menos a corto o medio plazo. En lugar de ello, la difusión de tecnologías nuevas introduce un modo de funcionamiento necesariamente más complejo —por tanto, energéticamente más intensivo—, basado en la coexistencia durable de distintos niveles tecnológicos más o menos recientes.
La historia de Internet ofrece numerosos ejemplos de las dificultades prácticas con los que se encuentra el despliegue y la propagación de cualquier tecnología nueva, por eficiente que sea, en una infraestructura existente y en proceso de osificación, como es el caso de la red de redes. El lentísimo despliegue del protocolo de Internet, IPv6, que lleva en curso casi treinta años (la primera estandarización de la versión 6 de IP data de 1995, y aún está lejos de reemplazar a su predecesor, IPv4, con el que sigue coexistiendo), es una muestra de ello: en Internet, como en otras grandes infraestructuras críticas (la red eléctrica o la ferroviaria), las capas tecnológicas sucesivas se acumulan más que se reemplazan. Hay otros ejemplos: los intentos de reforzar la seguridad de protocolos básicos de Internet como BGP (Border Gateway Protocol) o DNS (Domain Name System), una vez identificadas sus vulnerabilidades desde los años noventa, han sido igualmente lentas y han tenido un éxito parcial, siempre consistente en la adición de capas suplementarias que en todo caso se superponen al core previo (DNSSEC (2005) en el caso de DNS; la versión 4 de BGP (2006) o BGPSEC (2017) para BGP). La adopción de nuevas tecnologías y la implementación de mecanismos más seguros o más eficaces en el core de Internet se produce típicamente a través de esta superposición de nuevas capas tecnológicas; las mejoras se propagan así irregularmente por toda la infraestructura (antes en las zonas más avanzadas y centrales, más lentamente en las zonas más periféricas). Pero éstas no reemplazan los elementos “antiguos” y más ineficientes de la infraestructura: los requisitos de compatibilidad hacia atrás (backwards compatibility) añaden complejidad y limitan en muchas ocasiones la potencialidad de las tecnologías nuevas. Esta naturaleza acumulativa e incremental de las transformaciones en Internet supone un límite muy difícil de franquear, también en términos de eficacia, ahorro o sobriedad energética: las mejoras de eficiencia debidas a la introducción de una tecnología nueva o superior (como la IA) en la infraestructura, en la práctica, pueden revelarse, por ello, más modestas que las esperadas.
El último aspecto en el que la IA podría incidir en las reducción en las emisiones de carbono (y gases de efecto invernadero, más en general) en Internet es a través de la de descarbonización de la energía consumida en redes telemáticas — es decir, a través del desarrollo de métodos de producción de energía y electricidad que causen menos emisiones que los actuales. Como referencia, el 23,2% de la energía producida en España en 2024 procedía de métodos de producción intensivos en emisiones de carbono (datos de Red Eléctrica Española), una tasa en descenso, pero considerablemente superior al 5% energía generada en Francia en 2024 (datos del Réseau de Transport d’Éléctricité, el operador francés de la red eléctrica pública de alta tensión), en buena parte debido a la elevada producción de energía nuclear (en torno a un 70%) en el país galo. Existen perspectivas de investigación prometedoras, en estadios más o menos avanzados, que emplean técnicas de aprendizaje automático para explorar formas “limpias” (en el sentido de libres de emisiones de gases de efecto invernadero) de producción y almacenamiento de energía: se pueden mencionar, sin vocación exhaustiva, las mejoras de eficiencia que puede facilitar en las energías renovables, las tecnologías de fusión nuclear, estudiadas en el ITER y en la agencia Fusion for Energy de la Comisión Europea, o de almacenamiento o producción energética a través de “hidrógeno verde”, conseguido a través de electrólisis de agua. Algunas de estas perspectivas científicas y técnicas se abordaron el pasado mayo en la conferencia EU Digital Technologies and Policy (EUDTP 2025), de la que las actas, resúmenes y contribuciones (en particular, las relativas a energía y sostenibilidad más pertinentes aquí) se hicieron públicas recientemente.
Si bien parece probable que la propagación de tecnologías de IA suponga un aumento sustancial en el consumo de energía a corto y medio plazo (siguiendo un patrón habitual en los grandes avances tecnológicos de los últimos siglos, que correlacionan con una expansión notable del consumo energético per cápita), también en lo que respecta a las infraestructuras telemáticas en las que estas tecnologías se apoyan; la consolidación de estos y otros avances en la producción de energía limpia y libre de emisiones podría hacer que la energía consumida fuera menos intensiva en emisiones de gases de efecto invernadero que la producida en la actualidad. Pero ésta no es ni una evolución garantizada, ni un horizonte inmediatamente plausible — más bien, se trata de una perspectiva —una posibilidad— decididamente optimista, a largo plazo, y sujeta a numerosos condicionantes de diversa naturaleza.
Referencias
Gordon E. Moore (1965): Cramming more components into integrated circuits. Electronics Magazine. April 19, 1965.
Harry Saunders (1992): The Khazzom-Brookes Postulate and Neoclassical Growth. Energy Journal, vol. 13, issue 4, pp. 131-148.
Will Steffe, Jacques Grinevald, Paul J. Crutzen, John McNeill (2011): The Anthropocene, conceptual and historical perspectives. Philosophical Transactions of the Royal Society, series A (Mathematical, Physical and Engineering Sciences), volume 369, issue 1938, pp. 842–867. The Royal Society Publishing, Marzo 2011.
Mostafa Ammar (2018): Ex Uno Pluria, the Service-Infrastructure Cycle, Ossification, and the Fragmentation of the Internet. ACM SIGCOMM Computer Communication Review, volume 48, issue 1.
Varios Autores (2019): DNSSEC (Extensiones de Seguridad de DNS) — ¿Qué son y por qué son importantes? ICANN. 2019.
Emily B. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell (2021): On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, pp. 610-623.
J.A.C.F. (2022): Enseñar a aprender a las máquinas, mito, tecnología y política. Claves de Razón Práctica, número 280, enero-febrero 2022.
Véra Nikolski (2023): Féminicène. Fayard. París, 2023.
James Lanyon (2024): A Brief History of AI. Entrada en el blog In Theory (Substack). 19 de agosto de 2024.
Varios Autores (2025): Bilan électrique 2024 (BE2024) — Les Émissions. Réseau de Transport d’Électricité (RTE).
Varios Autores (2025): Energy and AI, World Energy Outlook Special Report. International Energy Agency (IEA). Abril 2025.
Varios Autores (2025). Informe del Sistema Eléctrico Español 2024 (ISE2024). Red Eléctrica Española – Redeia. Marzo 2025. [ Web | Resumen ]
Jaro Krieger-Lamina (2025): AI Content: A Curse on the Internet? (Entrevista). Academia Austríaca de Ciencias (ÖAW).
Varios Autores (2025): AI Infrastructure for the Agentic Era. White paper. Cisco Systems, 2025.
J.A.C.F. (ed.) (2025): EU Digital Technologies and Policy Conference (EUDTP 2025) Abstracts and Contributions. Institut Polytechnique de Paris, HAL, 2025.
Eric Hal Schwarz (2025): The Internet is now mostly written by machines, study finds. TechRadar, 16 de octubre de 2025.





