Huella climática de la IA: Hola Chat-GPT, ¿cuánta energía necesitas?

Lo más emocionante de los grandes sueños de Sam Altman son dos pequeñas cifras: 0,00034 kilovatios hora y 0,00032 litros. En su blog privado , el director de Open AI vuelve a fantasear con la superinteligencia y cuantifica, con naturalidad, por primera vez el consumo de recursos de Chat-GPT. Supuestamente, la respuesta de un chatbot requiere, en promedio, la misma energía que una lámpara LED moderna para unos dos minutos de luz. Por lo tanto, una cucharadita de agua es suficiente para una docena de preguntas a Chat-GPT.
Altman no cita ninguna fuente para estas cifras comparativas. ¿Por qué debería alguien confiar en un hombre que no solo oculta los requisitos de recursos de su IA , sino que además fue despedido por mentir presuntamente a sabiendas a la junta directiva de Open AI?
El problema: Apenas existen cifras fiables. Todas las grandes tecnológicas, como Google , Meta, Microsoft y Open AI, presumen de sostenibilidad, pero ocultan el consumo de energía y agua de sus modelos lingüísticos. La inteligencia artificial generativa se convierte así en una doble caja negra. Por un lado, ocultan los datos con los que entrenaron sus modelos. Por otro, nadie sabe qué consecuencias tiene esta tecnología para el clima y el medio ambiente.
En los últimos meses, científicos y periodistas han intentado determinar el consumo de recursos de la IA. A finales de mayo, por ejemplo, la revista MIT Technology Review publicó un estudio exhaustivo . El físico Andy Masley , la investigadora climática Hannah Richie y el matemático Arthur Clune también realizaron cálculos y obtuvieron resultados similares. Existen también decenas de estudios, aunque estos suelen basarse en modelos antiguos y no tienen en cuenta que la IA generativa se ha vuelto significativamente más eficiente.
Aunque la falta de transparencia de Silicon Valley dificulta proporcionar cifras precisas, las estimaciones hasta el momento permiten extraer algunas conclusiones. Las cifras de Altman coinciden, de hecho, con los hallazgos de investigadores independientes; sin embargo, el director ejecutivo de Open AI ignora un factor importante que influye enormemente en el consumo de recursos de la IA. No obstante, existe consenso en la comunidad científica sobre seis puntos clave.
1. Unas cuantas preguntas al Chat-GPT no son un problema.
Quienes aceptan con gusto la ayuda de Chat-GPT, Claude o Gemini no tienen por qué sentirse culpables. Si bien los modelos de lenguaje requieren más energía que una búsqueda en Google, el uso individual de chatbots aún representa solo un pequeño porcentaje de un solo dígito del consumo total de recursos de la IA. Hay docenas de cambios de comportamiento que tienen un impacto mayor que escribir menos indicaciones. Para la mayoría de las personas, Chat-GPT es simplemente un error de redondeo en su presupuesto personal de energía.
2. Los vídeos consumen enormes cantidades de energía.
Esta afirmación se aplica a textos e imágenes, pero no a vídeos. Los nuevos modelos, como el Veo 3 de Google, en particular, consumen enormes cantidades de energía. Incluso un vídeo de cinco segundos requiere unas 700 veces más energía que una sola imagen. Cualquiera que genere regularmente vídeos de alta resolución o incluso cortometrajes con IA aumenta significativamente su huella ecológica.
3. El consumo de recursos fluctúa mucho
La eficiencia de los modelos lingüísticos actuales varía considerablemente. Dependiendo del modelo al que se pregunte, el consumo de recursos puede variar hasta diez veces. La complejidad de la pregunta también es importante. Si se suben libros completos o se utilizan funciones de investigación exhaustiva, se requieren muchos más cálculos que para una pregunta simple. Además, no está claro qué modelos acceden a qué centros de datos. Esto determina el consumo de agua y la combinación eléctrica, que a su vez son cruciales para el consumo de CO₂. Muchos centros de datos se ubican en regiones que dependen predominantemente de combustibles fósiles como el carbón, el gas y el petróleo.
4. Los centros de datos se convierten en un problema
Cuando Altman menciona el consumo energético de una respuesta Chat-GPT, omite mencionar que Open AI entrenó previamente el modelo con potentes chips gráficos. Esto ocurre en centros de datos masivos, que en EE. UU. ya consumen tanta electricidad como toda Tailandia. Entre un cuarto y un tercio de esta cantidad se destina al desarrollo y la operación de modelos de IA. Esta proporción aumentará drásticamente; las previsiones predicen que se triplicará para 2028. Se están construyendo nuevos centros de datos en todo el mundo, a veces sin tener en cuenta las necesidades de la población. Refrigerar los sistemas requiere enormes cantidades de agua, que a menudo ya escasea en las instalaciones.
5. La energía nuclear y los combustibles fósiles están regresando
Las energías renovables no pueden cubrir por completo la creciente demanda de los centros de datos. Los ordenadores necesitan energía constante, que la energía eólica y solar no siempre proporcionan. Por ello, Amazon, Google y Microsoft llevan ya un tiempo dependiendo de la energía nuclear y están construyendo nuevas centrales nucleares o reactivando reactores desmantelados. Altman ha invertido personalmente en una empresa emergente de energía de fusión. La semana pasada, Meta anunció que compraría electricidad de una central nuclear a la empresa energética Constellation Energy durante 20 años. Al mismo tiempo, la empresa depende de centrales eléctricas de gas, que se están encontrando con resistencia local. Elon Musk está siendo particularmente despiadado. Para su empresa xAI, ha construido, entre otras cosas, un gigantesco centro de datos en Memphis que funciona con 35 turbinas de gas . Los gases de escape están contaminando el barrio, que está poblado predominantemente por personas negras y pobres. Mucha gente allí se queja de dificultades respiratorias y asma y tiene que ser tratada en el hospital .
6. Hay esperanza
El progreso tecnológico por sí solo no resolverá la crisis climática, pero existen avances positivos. Desde el lanzamiento de Chat-GPT a finales de 2022, los modelos de lenguaje se han vuelto más rápidos, fiables y eficientes. Ahora requieren mucha menos energía para realizar las mismas tareas. Los chips gráficos de los centros de datos y sus sistemas de refrigeración también están evolucionando rápidamente. El interés propio de las empresas tecnológicas contribuye a ello. El consumo de recursos no solo afecta a su huella de carbono, sino también a su balance trimestral. Cuanta menos energía consume la IA, más dinero ganan Google, Microsoft y Open AI.
süeddeutsche