El consumo de energía de ChatGPT es mucho menor de lo estimado

Alberto Noriega     20 febrero 2025     5 min.
El consumo de energía de ChatGPT es mucho menor de lo estimado

Un estudio reciente desmiente las estimaciones previas, mostrando que ChatGPT consume solo 0,3 vatios-hora por consulta, mucho menos de lo estimado.

Un nuevo estudio de Epoch AI ha desmentido las estimaciones previas sobre el consumo de energía de ChatGPT, revelando que el modelo más reciente, GPT-4o, consume solo 0,3 vatios-hora por consulta. Esta cifra es diez veces menor que la estimación previamente citada de 3 vatios-hora. Los avances en la tecnología de IA y una mejor optimización de los sistemas han permitido esta significativa reducción en el consumo de energía. Si bien el impacto de una consulta individual es pequeño, el uso global masivo de ChatGPT sigue generando preocupaciones sobre la eficiencia energética a largo plazo.

Un consumo energético menor al esperado

El estudio realizado por Epoch AI recalcula de manera precisa el consumo energético de ChatGPT, con una consulta típica utilizando solo 0.3 vatios-hora, una cifra que contrasta fuertemente con las estimaciones anteriores que llegaban a 3 vatios-hora por interacción. Esta mejora en la eficiencia se atribuye a la implementación de hardware más avanzado y la optimización de los modelos de IA, lo que ha permitido una mayor eficiencia en el procesamiento de las consultas.

El consumo de 0,3 vatios-hora por consulta sitúa a ChatGPT en una categoría de uso energético mucho menor que muchas actividades cotidianas. Por ejemplo, hervir agua para hacer té consume alrededor de 100 vatios-hora, mientras que una hora de televisión consume aproximadamente 120 vatios-hora. Esta comparación pone en perspectiva el impacto energético de una consulta a ChatGPT, destacando que, aunque la IA consume energía, su huella energética es relativamente pequeña a nivel individual.

Pexels Red Zeppelin 4148472

Comparación con otras actividades cotidianas

Para entender mejor el impacto de ChatGPT, es útil ponerlo en contexto. Con 0,3 vatios-hora por consulta, ChatGPT tiene un consumo energético similar al de una sola búsqueda en Google, lo que subraya que, a pesar de su procesamiento avanzado, el impacto de cada consulta es ínfimo en comparación con actividades más comunes. A modo de comparación, cargar un iPhone 15 diariamente durante un año consumiría alrededor de 4,7 vatios-hora por día, una cifra significativamente mayor a la de una consulta típica a ChatGPT.

Sin embargo, a pesar de que el consumo individual es bajo, el efecto acumulativo de millones de consultas diarias genera una huella energética considerable. Este hecho resalta la necesidad de que las empresas tecnológicas continúen invirtiendo en mejorar la eficiencia de sus sistemas para minimizar el impacto ambiental de la IA.

Avances tecnológicos que impulsan la eficiencia energética

El estudio también destaca los factores clave detrás de esta mejora en la eficiencia. La implementación de nuevos chips Nvidia H100 en lugar de los antiguos modelos A100 ha sido fundamental para reducir el consumo energético. Además, la optimización de los sistemas de IA y la mejora de los métodos de cálculo, que ahora asumen una utilización del 70% de la capacidad de los servidores en lugar del uso máximo, también han contribuido a este logro.

Estos avances reflejan un esfuerzo constante por parte de la industria para hacer que la inteligencia artificial sea más eficiente desde el punto de vista energético, a medida que la demanda de procesamiento de datos y las aplicaciones de IA crecen. A medida que las tecnologías continúan evolucionando, se espera que el consumo de energía siga disminuyendo sin comprometer el rendimiento o la capacidad del sistema.

Pexels Pixabay 221012

El impacto acumulativo y los retos futuros

Aunque el consumo de energía de cada consulta es bajo, la adopción global masiva de IA podría generar un impacto significativo a largo plazo. Se estima que el consumo anual de energía de ChatGPT podría alcanzar los 226.8 GWh, suficiente para cargar completamente 3,13 millones de vehículos eléctricos. Si bien esto es relativamente pequeño en comparación con otras industrias, la escala global del uso de IA plantea preocupaciones sobre el consumo energético a medida que más personas utilizan estos sistemas de manera constante.

Además, la proyección de que el consumo de energía de la IA podría aumentar hasta los 134 teravatios hora para 2027 muestra que, a medida que los modelos se vuelven más complejos y se expanden globalmente, el consumo energético total podría superar las ganancias en eficiencia. La industria de la IA está respondiendo a estos desafíos invirtiendo en hardware más eficiente y fuentes de energía renovable para mitigar los impactos ambientales de su crecimiento.

El camino hacia un desarrollo más sostenible

La eficiencia energética es crucial para el futuro de la IA, especialmente si la tecnología continúa expandiéndose en diversas áreas, desde la salud hasta la educación y el entretenimiento. Aunque el consumo energético de ChatGPT individualmente es bajo, la escala global de su uso puede generar un consumo sustancial. Para contrarrestar este impacto, es esencial que las empresas tecnológicas no solo mejoren la eficiencia de sus sistemas, sino que también se comprometan con el uso de fuentes de energía renovables para alimentar sus centros de datos.

A medida que la demanda de IA continúa creciendo, es probable que la industria continúe priorizando la mejora de la eficiencia energética como un factor clave en el desarrollo de nuevas tecnologías.

Comentarios cerrados