iymagazine.es

Impacto climático

Investigadores buscan soluciones para mitigar el impacto ambiental de la IA generativa
Ampliar

Investigadores buscan soluciones para mitigar el impacto ambiental de la IA generativa

Por José Enrique González
x
jenriqueiymagazinees/8/8/19
miércoles 01 de octubre de 2025, 15:04h

El crecimiento de los centros de datos para IA generativa incrementará las emisiones de gases de efecto invernadero. Investigadores buscan soluciones para mitigar su impacto ambiental mediante innovaciones y mejoras en la eficiencia energética.

El impacto ambiental de la inteligencia artificial generativa

El crecimiento explosivo de los centros de datos dedicados a la inteligencia artificial (IA) está proyectado para incrementar las emisiones de gases de efecto invernadero en un futuro cercano. Investigadores están trabajando arduamente en soluciones que permitan mitigar estos daños ambientales.

En la segunda parte de una serie dedicada a los impactos ambientales de la inteligencia artificial generativa, MIT News examina diversas estrategias que los expertos están implementando para reducir la huella de carbono de esta tecnología. Se anticipa que las demandas energéticas de la IA generativa seguirán aumentando drásticamente en la próxima década.

Aumento del consumo energético por parte de los centros de datos

Un informe publicado por la Agencia Internacional de Energía en abril de 2025 estima que la demanda global de electricidad proveniente de los centros de datos, donde se aloja la infraestructura computacional necesaria para entrenar y desplegar modelos de IA, podría más que duplicarse para 2030, alcanzando aproximadamente 945 teravatios-hora. Este consumo total es ligeramente superior al consumo energético actual de Japón.

Además, un análisis realizado por Goldman Sachs Research en agosto de 2025 prevé que cerca del 60% del aumento en las demandas eléctricas será satisfecho mediante combustibles fósiles, lo que incrementaría las emisiones globales de carbono en alrededor de 220 millones de toneladas. Para poner esto en perspectiva, conducir un automóvil con motor a gasolina durante 8,000 kilómetros genera aproximadamente una tonelada de dióxido de carbono.

A pesar de estas cifras alarmantes, científicos e ingenieros tanto en MIT como alrededor del mundo están investigando innovaciones y medidas para mitigar la creciente huella de carbono asociada a la IA. Estas iniciativas van desde mejorar la eficiencia algorítmica hasta replantear el diseño mismo de los centros de datos.

Consideraciones sobre las emisiones de carbono

La discusión sobre cómo reducir la huella carbonosa del AI generativo suele centrarse en el “carbono operativo”, es decir, las emisiones generadas por los potentes procesadores conocidos como GPUs dentro de un centro de datos. Sin embargo, frecuentemente se ignora el “carbono incorporado”, que se refiere a las emisiones producidas durante la construcción del propio centro. Así lo señala Vijay Gadepally, científico senior del Laboratorio Lincoln del MIT.

La construcción y adaptación de un centro requiere grandes cantidades de acero y concreto, además del uso intensivo de unidades de aire acondicionado y hardware computacional. Este proceso consume una enorme cantidad de carbono. De hecho, este impacto ambiental ha llevado a empresas como Meta y Google a explorar materiales constructivos más sostenibles.

Los centros son edificaciones colosales; el más grande del mundo, el China Telecomm-Inner Mongolia Information Park, ocupa aproximadamente 10 millones de pies cuadrados, con una densidad energética entre 10 y 50 veces mayor que un edificio normal. Gadepally enfatiza que “el aspecto operativo es solo parte del problema”. Algunas soluciones para reducir las emisiones operativas podrían también contribuir a disminuir el carbono incorporado.

Estrategias para reducir las emisiones operativas

Las estrategias para disminuir las emisiones operativas en los centros dedicados a IA presentan similitudes con medidas comunes para ahorrar energía en hogares. Por ejemplo, simplemente podemos reducir la iluminación.

Gadepally explica: “Incluso si tienes las bombillas menos eficientes en casa, apagarlas o atenuarlas siempre consumirá menos energía que dejarlas encendidas al máximo”. En este sentido, investigaciones realizadas en el Centro Supercomputing han demostrado que al “reducir” el uso energético en GPUs hasta consumir aproximadamente tres décimas parte, se pueden lograr resultados similares sin afectar significativamente el rendimiento.

Otra estrategia consiste en utilizar hardware computacional menos intensivo energéticamente. Los trabajos exigentes relacionados con IA generativa requieren múltiples GPUs trabajando simultáneamente; se estima que un sistema avanzado podría tener hasta 576 GPUs conectadas. Sin embargo, los ingenieros pueden obtener resultados comparables reduciendo la precisión del hardware o utilizando procesadores menos potentes adaptados a tareas específicas.

Aprovechando mejoras en eficiencia energética

La constante innovación en hardware informático sigue permitiendo mejoras significativas en la eficiencia energética. A pesar del estancamiento generalizado desde 2005 en cuanto a mejoras energéticas por chip, el rendimiento energético por joule ha mejorado entre un 50% y 60% anual, según Neil Thompson, director del FutureTech Research Project en el Laboratorio de Ciencias Computacionales e Inteligencia Artificial del MIT.

Aún más relevante es el hallazgo reciente que indica que las ganancias en eficiencia derivadas de nuevas arquitecturas modelísticas están duplicándose cada ocho o nueve meses. Thompson acuñó el término “negaflop” para describir esta tendencia: operaciones computacionales no necesarias gracias a mejoras algorítmicas.

Tales innovaciones incluyen técnicas como “pruning" o métodos avanzados para comprimir redes neuronales y optimizar su rendimiento sin incrementar significativamente el consumo energético.

Máximizando ahorros energéticos mediante flexibilidad operativa

A medida que se busca reducir el uso total energético asociado con algoritmos y hardware informático, Gadepally advierte sobre variaciones significativas entre diferentes fuentes energéticas: “La cantidad exacta de emisiones por kilovatio-hora varía considerablemente dependiendo del momento del día y otros factores estacionales”.

Aprovechar estas variaciones permite ajustar operaciones dentro del centro para maximizar reducciones en emisiones. Por ejemplo, algunas cargas laborales no necesitan ejecutarse simultáneamente; dividir operaciones puede facilitar su programación cuando hay mayor proporción energética renovable disponible.

Deka y su equipo están investigando "centros inteligentes" donde las cargas laborales puedan ajustarse dinámicamente entre varias empresas usando el mismo equipamiento computacional. La meta es minimizar tanto el uso energético como la dependencia respecto a combustibles fósiles sin comprometer estándares esenciales para usuarios e industrias relacionadas con IA.

Sostenibilidad futura mediante soluciones basadas en IA

A medida que avanza la expansión energética renovable aquí en la Tierra, esta no está logrando mantener el ritmo con el crecimiento acelerado relacionado con IA. Jennifer Turliuk MBA ’25 destaca cómo los procesos burocráticos asociados con nuevos proyectos renovables pueden extenderse durante años.

No obstante, investigadores están explorando aplicaciones potenciales donde IA pueda acelerar conexiones entre sistemas renovables y redes eléctricas existentes. Por ejemplo, modelos generativos podrían optimizar estudios interconectivos cruciales para determinar cómo impactan nuevos proyectos sobre infraestructuras eléctricas existentes.

También podrían desempeñar un papel vital al ayudar a predecir generación energética solar o eólica o identificar ubicaciones idóneas para nuevas instalaciones sostenibles. Además, herramientas desarrolladas como GenX, permitirían planificar inversiones estratégicas minimizando impactos ambientales negativos al ubicar centros adecuadamente.

Dentro este contexto colaborativo entre empresas e investigadores radica una oportunidad única: **la posibilidad real** no solo para innovar sino también **para transformar** radicalmente cómo interactuamos con tecnologías emergentes mientras cuidamos nuestro planeta ante desafíos climáticos inminentes.

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios