Un estudio realizado por investigadores de la Universidad de California Riverside y la Universidad de Texas Arlington encontró que los centros de datos usan 500 mililitros de agua para ejecutar en ChatGPT una conversación simple con 20 a 50 preguntas y respuestas.
Los expertos advierten que el chatbot de OpenAI utiliza una gran cantidad de agua tomando en cuenta que son miles de millones de personas en todo el mundo que usan la herramienta todos los días.
El estudio también encontró que sólo para el entrenamiento del modelo GPT-3 de Microsoft, se necesitaría suficiente agua dulce para producir 370 BMW o 320 autos Tesla. Eso es 700.000 litros de agua.
Los científicos también notaron que otros modelos de IA como LaMDA de Google funcionan con millones de litros de agua.
En este contexto de escasez mundial de agua, los investigadores del estudio sugirieron que las empresas que operan modelos de IA deberían “asumir su responsabilidad social” y participar en esfuerzos colectivos para reducir su consumo de agua y combatir la escasez de agua.
A esto hay que sumar otros estudios de alto consumo de energía.
Según estudios de Google el entrenamiento de GPT-3 -el sistema en el que está basado ChatGPT- consumió 1.287 MWh y generó emisiones de más de 550 toneladas de carbono.
Otras investigaciones, como la de la Universidad de Massachusetts Amherst, encontraron que genera tantas emisiones de efecto invernadero como lo harían cinco autos durante todo su ciclo de vida. Lo que pone un panorama aún más fuerte, si el entrenamiento se realiza constantemente.
La International Energy Agency asegura que los centros de datos, donde se almacena la información para el funcionamiento de este tipo de tecnologías, son responsables en la actualidad de 1% de las emisiones de efecto invernadero, una cifra que podría aumentar con el paso del tiempo ante la consolidación de estos sistemas en la vida diaria como ya está sucediendo.