Un nuevo estudio realizado por el Washington Post en colaboración con investigadores de la Universidad de California en Riverside, revela las cantidades preocupantes de agua que necesita ChatGPT para realizar sus funciones básicas. ¿Lo sabías?
“Cada petición en ChatGPT pasa por un servidor que realiza miles de cálculos para determinar las mejores palabras a utilizar en la respuesta”, escribe el medio, señalando que los servidores generan calor para realizar los cálculos necesarios.
De acuerdo a un profesor asociado, el proceso funciona de la siguiente manera; el agua transporta el calor generado por los servidores a torres de refrigeración para ayudarlo a salir del edificio. Sin embargo, en las zonas donde los recursos hídricos son relativamente escasos, se prefiere utilizar la electricidad para enfriar las instalaciones con sistemas similares a los grandes aparatos de aire acondicionado.
Esto significa que la cantidad de agua y electricidad necesaria para procesar una sola respuesta de chatbot de IA depende de la ubicación del centro de datos, así como de la proximidad del usuario a la instalación.
Por ejemplo, en Texas, ChatGPT consume 235 mililitros de agua para generar un correo electrónico de 100 palabras. En cambio, cuando un usuario hace la misma petición desde Washington, se consumen hasta 1,408 mililitros, casi un litro y medio, por correo electrónico.
Lo que evidencia que también depende de la ubicación de las instalaciones que albergan los servidores. Según documentos compartidos por el periódico Oregonian, los centros de datos de Google en The Dalles, a unos 130 kilómetros al este de Portland, consumen casi una cuarta parte de toda el agua disponible en la ciudad. Por su parte, la empresa necesitó 22 millones de litros de agua para entrenar a su último modelo Llama 3.1.