Noticias
16/06/2025

Las huellas que dejan los primeros pasos de la inteligencia artificial

Imagen: Getty Images

El auge de las inteligencias artificiales no es un fenómeno casual: surge como reflejo de un mundo hiperconectado que reposa en la cultura de la tec, que demanda mayor efectividad en menor tiempo a costa, incluso, de sacrificar la esencia. Mientras las nuevas tecnologías prometen un acceso irrestricto a océanos de información y soluciones a demandas urgentes, sus huellas hídricas y energéticas se vuelven cada vez más palpables. Se plantea entonces un crudo dilema: ¿acelerar el hoy condiciona el mañana?

Por: Joaquín Verástegui, voluntario de Clima de Cambios

Primero, cabe aclarar que el presente artículo tiene como único fin informar, a través de datos duros, las consecuencias directas que devienen de la utilización de inteligencias artificiales. No planea, por ende, emitir algún juicio de valor o de vana moralidad que contravenga con el objeto expositivo del texto. 

Dicho esto, el consumo de energía que requieren los programas de inteligencia artificial para funcionar óptimamente es constatablemente alto. Por ejemplo, durante la fase de entrenamiento de LLM (large language models), las IA consumen grandes conjuntos de datos, y, por ende, enormes cantidades de kWh. De Vries registra algunos números: GPT-3, Gopher y Open Pre-trained Transformer (OPT), que utilizaron 1.287, 1.066 y 324 MWh, respectivamente, para la capacitación (2023). El consumo energético, naturalmente, se transforma en generación de CO2. Un estudio de la Universidad de Massachussets Amherst determinó que entrenar un solo modelo de IA puede emitir tanto carbono como cinco automóviles a lo largo de su vida útil, lo que es aproximadamente 284 toneladas métricas de CO2 (UMA, 2019, como se citó en Hao, 2020). Es importante mencionar que la fase de entrenamiento se realiza contadas veces, principalmente cuando se actualiza a versiones mejoradas. En caso de no realizarse mejoras, este proceso se ejecuta una sola vez. Por lo tanto, aunque el consumo inicial sea considerable, no es constante. Las tareas que el programa ejecute posteriormente -como generar imágenes o textos- requieren una cantidad de energía mucho menor en relación con su fase de entrenamiento. El consumo de recursos naturales, sin embargo, no se restringe a este momento, como veremos a continuación.

 

La problemática que ya se vive en el presente 

A raíz de la reciente tendencia de “ghiblizar” imágenes que inundó las redes sociales, se empezó a abordar una problemática menos visibilizada sobre el uso de las inteligencias artificiales: las magnas cantidades de agua dulce que requieren para su funcionamiento y optimización. Gracias a un estudio de terceros, es sabido que la huella hídrica que hay detrás de 10 a 50 consultas a una IA de gran escala, como lo es Chat GPT, es de 500 ml de agua potable (Hugging Face, 2023). Esto, en sí mismo, no representa un problema, puesto que, comparándolo con otras huellas hídricas (por ejemplo, una taza de café requiere 140 litros de agua, desde su producción hasta consumo), la generación de respuestas e imágenes de una IA se queda corta. El conflicto radica en que los centros de datos, estructuras físicas necesarias para entrenar a estas inteligencias, necesitan de gigantescas cantidades de agua potable para su correcto funcionamiento. La instalación de estos centros en zonas con alto estrés hídrico ha suscitado conflictos por el acceso a dicho recurso. Un caso emblemático ocurrió en 2023 en Cerrillos, Chile, donde la comunidad logró frenar el proyecto de construcción de un data center de Google, precisamente en un área catalogada con alto nivel de estrés hídrico.

 

                                                                                        Imagen: El País


Este caso ejemplifica cómo la demanda de agua por parte de grandes empresas tecnológicas entra en tensión con las necesidades de las poblaciones locales y la sostenibilidad ambiental en territorios donde el recurso ya es escaso.

Sobre ello, un estudio independiente se planteó dos momentos clave en los que las IA demandan el recurso hídrico: por un lado, para generar electricidad necesaria para alimentar sus sistemas; y, por otro lado, para enfriar los sistemas que ayudan a mantener un entorno operativo estable. Se pronostica, además, que para el 2027 se requerirán entre 4.2 y 6.6 mil millones de metros cúbicos de agua, dado los usos indirectos (generación de energía) y directos (enfriamiento de los sistemas) que conllevan los distintos procesos de funcionamiento de los data center (UN Environment Programme, 2024). 

Aún con todo lo expuesto, sería reduccionista satanizar a las inteligencias artificiales: su desarrollo y posterior auge son respuestas lógicas al contexto sociohistórico en el que surgieron, y sus aplicaciones ya demuestran un potencial innovador. Sin embargo, este poder conlleva una paradoja: mientras más se integran en la cotidianidad, más visibles se hacen los costos que en algún momento se tendrán que pagar. El verdadero reto radica, por lo tanto, en desviarlas del camino extractivista hacia al cual algunas veces pareciera dirigirse.

Fuentes:

  • (2024) United Nations Environment Programme. Artificial Intelligence (AI) end-to-end: The Environmental Impact of the Full AI Lifecycle Needs to be Comprehensively Assessed – Issue Note.
    https://wedocs.unep.org/20.500.11822/46288