ChatGPT consume 10 veces menos energía, revela estudio

¿Se ha preguntado usted cuál es el consumo energético que se necesita para obtener la respuesta de una consulta a ChatGPT? Especialistas consideran que existe preocupación al respecto, ya que es elevado.

Según un estudio publicado por el sitio web “Energy Consumption of AI” (Consumo energético de la IA), para obtener la respuesta a una consulta simple se requiere de 0,15 kWh (kilovatios-hora) que es equivalente a encender durante 15 horas un foco de 10 vatios; cargar un teléfono móvil durante cinco horas o utilizar una computadora portátil durante 30 minutos. Este consumo se puede duplicar si la consulta es moderadamente compleja y aumentar a 0,60 kWh si la consulta es muy compleja.

El consumo energético de una consulta en ChatGPT puede variar dependiendo de varios factores; de acuerdo a los expertos, al ser un modelo de lenguaje basado en inteligencia artificial, requiere gran cantidad de cálculos y procesamiento de datos para generar respuestas. Esto implica un consumo significativo de energía para operar los servidores y centros de datos que lo soportan. Además, ChatGPT utiliza unidades de procesamiento gráfico (GPU) para acelerar los cálculos y mejorar la eficiencia. Sin embargo, las GPU consumen más energía que los procesadores tradicionales, lo que aumenta el consumo energético total.

También hay que tener en cuenta que a medida de que más personas utilizan ChatGPT, se requiere más capacidad de procesamiento y almacenamiento para manejar la demanda. Esto puede llevar a un aumento en el consumo energético para mantener los servidores y centros de datos en funcionamiento, lo que contribuye a la emisión de gases de efecto invernadero y otros impactos ecológicos negativos.

Finalmente, el consumo energético de ChatGPT también tiene un costo económico significativo. Según algunos cálculos, el costo energético de entrenar un modelo de lenguaje como ChatGPT puede ser de hasta 100 mil dólares.

Consume menos

Sin embargo, los resultados de un reciente  estudio realizado por Epoch AI, sugiere que el impacto ambiental y económico del chatbot puede ser menor de lo esperado, siendo que las  consultas de ChatGPT basadas en el modelo GPT-4 consumen aproximadamente 0,3 vatios-hora, lo que supone 10 veces menos de lo que se consideraba.

De hecho se concluye que este cálculo es extremista y que es posible que muchas o la mayoría de las peticiones sean aún más baratas.

Asimismo, es importante destacar que los desarrolladores de ChatGPT, como OpenAI, están trabajando constantemente para reducir el consumo energético de su modelo y mejorar su eficiencia. 

Además, el estudio sugiere que el consumo energético de ChatGPT es solo una pequeña parte del consumo energético total de la industria de la tecnología.

Datos a destacar

Un reciente estudio realizado por Epoch AI sugiere que el impacto ambiental y  económico del chatbot puede ser menor de lo esperado, es decir, que no se esté  consumiendo más de lo que se cree.

Para obtener la respuesta a una consulta simple se requiere de 0,15 kWh (kilovatios-hora) que es equivalente a encender durante 15 horas un foco de 10 vatios; cargar un teléfono durante cinco horas o utilizar una computadora durante 30 minutos.

Texto y fotos: Manuel Pool