Tendencias

Mito o realidad: ¿gastamos agua al usar la inteligencia artificial?

En un mundo en el que las industrias y los gobiernos se muestran preocupados por un consumo responsable y eficiente de nuestros recursos naturales, se abre otro debate frente al uso de la inteligencia artificial (IA). Se trata de la tecnología que creció y abarrotó los diversos mercados, prometiendo mejoras y agilidad en diversas tareas, pero que detrás de su implementación esconde una problemática muy poco expuesta: el gasto significativo de agua. 

Hoy, las IA, principalmente las generativas, son utilizadas por gran parte de la población para creación de imágenes, consulta de temas y elaboración de trabajos, acciones que se traducen en miles de millones de litros de agua limpia. 

Para reforzar el impacto hídrico de la IA, un estudio de la Cornell University de California (EEUU) proyecta que el consumo global de la IA será de 4.200 a 6.600 millones de metros cúbicos de agua para 2027. Asimismo, destaca que la evaporación de agua en los centros de datos de las empresas aumentó un 20% entre los años 2021 y 2022, y 17% entre 2022 y 2023.

«El agua es uno de los recursos menos comentados, pero altamente utilizado en el uso de la IA, ya que es clave para el enfriamiento de los data centers donde se procesan los modelos de Inteligencia Artificial, como ChatGPT, entre otros; pero, además, es un recurso importante para la generación de electricidad de estos centros», revela Jaime Castro, hybrid cloud & data analytics horizontal head de Coasin Logicalis. 

Frente a ello, la interrogante que surge es: ¿Cuál es el consumo energético de la IA? Según un estudio de la Agencia Internacional de Energía (IEA), la demanda mundial de energía creció 2,2% en 2024, mientras que el consumo global de electricidad aumentó casi 110 teravatios por hora (TWh) el año pasado. Por otro lado, se proyecta que el consumo de electricidad de los centros de datos en todo el mundo se duplicará a 945 teravatios por hora (TWh) para 2030.

¿Los data centers consumen agua?

Sí, debido principalmente al enfriamiento de servidores en los data centers, que operan las 24 horas del día y generan importantes niveles de calor. De este modo, para evitar el sobrecalentamiento, muchos centros utilizan sistemas de enfriamiento líquido, que requieren grandes volúmenes de agua, especialmente en climas cálidos o durante un grado importante de uso. 

«Esto es tanto por el procesamiento normal del equipamiento, como también de las unidades de  procesamiento gráfico (GPU) dedicadas al tratamiento de IA», explica Castro. 

Además, el entrenamiento de grandes modelos de IA (como los GPT) puede durar semanas y consumir energía eléctrica equivalente a cientos de hogares durante un año, lo que, indirectamente, también implica un alto consumo de agua en las plantas generadoras de energía.

Entonces, ¿la tecnología contribuye negativamente al planeta? 

La tecnología ha traído herramientas para hacer procesos más eficientes, reduciendo el uso de papel, mejorando la movilidad y optimizando cadenas logísticas. Sin embargo, el rápido crecimiento del uso de IA y la computación en la nube también han elevado el consumo energético y de recursos hídricos, especialmente en los grandes data centers, que requieren mantener temperaturas muy específicas.

Actualmente, la industria tecnológica es responsable de aproximadamente del 2-3% de las emisiones globales de carbono, de acuerdo con cifras del Programa de la Naciones Unidas para el Medio Ambiente (UNEP), datos comparables con los que produce la industria aérea. 

«Aunque muchas compañías están trabajando en metas de carbono neutral, el consumo de agua es un desafío más reciente, que apenas comienza a debatirse a gran escala. Si bien los proyectos de compromiso ambiental y sustentables han dado frutos, existen tecnologías de uso masivo, como se están volviendo a nivel mundial los temas de IA, que pueden ocasionar efectos adversos en el ambiente que inicialmente no estaban considerados y que se dieron a la par con la rápida adopción por parte de los usuarios», recalca el experto. 

Iniciativas en marcha para reducir el impacto ambiental de la IA

Frente a esta realidad, la industria tecnológica ha puesto en marcha varias iniciativas que prometen una reducción significativa del impacto que hoy la IA produce al medioambiente. Algunas de éstas están relacionadas con reducir el tamaño de los modelos de inteligencia artificial que requieran menos recursos, con el uso de data centers verdes que se alimentan con energía renovable y se ubican en zonas frías, y con la recirculación del agua en sistemas de enfriamiento. 

«El uso de agua de mar desalinizada es una posibilidad en algunas regiones costeras, pero la desalinización es un proceso energéticamente intensivo, por lo que no siempre es una solución sostenible si no se combina con fuentes de energía renovable», aclara el hybrid cloud & data analytics horizontal head de Coasin Logicalis. 

El experto agrega que actualmente muchas empresas y centros de investigación han adoptado algunas estrategias para que el uso de la IA sea más sostenible. Algunas de ellas son el mapeo y la transparencia del uso de recursos, proyectos como Climate TRACE, el desarrollo de hardwares especializados y eficientes, e implementar nuevas políticas de sostenibilidad.

Además, la comunidad investigadora está cada vez más consciente de la necesidad de hacer IA «responsable y sostenible», incorporando estos criterios desde el diseño hasta la operación de los modelos.

Shares: