Newsletter
Suscríbete a nuestro Newsletter y entérate de las últimas novedades.
https://centrocompetencia.com/wp-content/themes/Ceco
Hace unas semanas, Eric Schmidt -anterior CEO de Google- declaró ante el Congreso de los Estados Unidos que los mercados relacionados con aplicaciones, sistemas y modelos de Inteligencia Artificial (IA) van a generar problemas para la provisión de energía en Estados Unidos. Según la estimación de Schmidt, a cinco años vista, los centros de datos necesarios para alimentar estos sistemas de IA necesitarán 96 gigavatios de energía adicional respecto de la que se genera hoy. Es decir, cada centro de datos demandaría 10 gigavatios de energía, que es el equivalente a la potencia necesaria para alimentar a diez centrales nucleares. Estos volúmenes de energía comportarían el 99% de la capacidad eléctrica de los Estados Unidos. Actualmente, un 3% del consumo de energía en el país se dedica a alimentar estos sistemas.
Estas declaraciones se producen en un entorno especialmente preocupante. De acuerdo con el Foro Económico Mundial, el consumo y uso de estos modelos de IA, como ChatGPT, Perplexity o Gemini, según el uso que se les dé, pueden consumir diez veces más energía que una búsqueda en Google, dada su especial complejidad al procesar datos y tokens de forma casi instantánea para reaccionar a los ‘prompts’ que insertan los usuarios. De hecho, también se ha estimado que la generación por parte de ChatGPT de un texto de 100 palabras consume, en promedio, 519 mililitros de agua, el equivalente a una botella. En el último trend que casi colapsa los servidores de OpenAI al permitir a sus usuarios colgar sus fotografías para que el modelo las transformara de acuerdo con el estilo del estudio de animación Ghibli, se consumieron 216 millones de litros de agua, que es el equivalente al consumo mensual de una pequeña ciudad.
«este es el momento en el que se debe dar un despertar de los desarrolladores de estas tecnologías respecto a la finitud de los recursos disponibles para el crecimiento del mercado».
De igual forma, en 2024, Google reconoció que sus emisiones de carbono se habían aumentado en un 48% en solo cinco años debido al auge de esta tecnología, mientras que Microsoft ya anticipó que sus emisiones se habían incrementado en un 30% dada la expansión de estos centros de datos en todo el mundo.
Los centros de datos de IA son instalaciones que albergan la infraestructura necesaria para entrenar, implementar y proveer aplicaciones y servicios relacionados con la Inteligencia Artificial. Los sistemas de IA generativa tienen que ‘entrenarse’ en el uso y en la predicción del lenguaje para poder producir sus resultados. Por ejemplo, para generar la redacción de un correo electrónico con un contexto determinado, teniendo en cuenta los patrones del lenguaje que normalmente se utilizan en estos contextos y así proporcionar una respuesta satisfactoria al usuario.
A diferencia de los centros de datos convencionales, los centros de datos de IA se caracterizan por su demanda en cuanto a carga de trabajo. Estos centros requieren de unidades de procesamiento de gráficos (GPU) -y no de unidades centrales de procesamiento, CPU- para realizar tareas avanzadas de computación. Las infraestructuras tecnológicas de estos centros están preparadas y especialmente diseñadas para el almacenamiento en nube y para realizar tareas de machine learning (que supone dotar a un sistema de la capacidad de identificar patrones en datos masivos y elaborar predicciones). Esta alta potencia computacional y los sistemas de almacenamiento de centros de datos de IA requieren enormes cantidades de energía eléctrica y sistemas de refrigeración avanzados para evitar interrupciones en la provisión de estos servicios, tiempos de inactividad, y sobrecargas del sistema. De ahí que surja una pronunciada preocupación por el consumo eléctrico y de agua generados por estos centros de datos.
En la actualidad, el condado de Loudoun en Virginia sigue siendo el epicentro de estos centros de datos. Cuenta con más de 30 millones de metros cuadrados dedicados a esta actividad (y 5 millones más aún están siendo transformados para este mismo uso). De los 11,800 centros que hay en el mundo, en Estados Unidos están situados casi la mitad, mientras que Alemania, China, Reino Unido y Canadá también tienen grandes hubs de centros de datos. En Latinoamérica, México y Brasil están emergiendo como nuevas potencias en este nuevo mercado aglutinador de centros de datos.
Ante este problema, instituciones a nivel mundial y Gobiernos nacionales ya están planteando algunas soluciones, como construir pequeños reactores modulares para dar suministro eléctrico a los centros de datos o tratar de impulsar que el consumo energético se realice de forma sostenible. Desde mi punto de vista, sin embargo, debería atenderse al origen del consumo de tierra, agua y energía generado por el desarrollo de estos sistemas de IA.
Y aquí podemos fijarnos en el ejemplo de desarrollo que propuso la empresa china High-Flyer al lanzar al mercado su modelo DeepSeek-RI, el pasado enero de 2025. El modelo de IA chino se diseñó teniendo en cuenta un sistema de entrenamiento compartimentado. Es decir, el modelo se enfoca en áreas específicas cuando se le realiza una consulta y, además, como no utiliza los GPUs más avanzados en cuanto a capacidad de computación, sus servidores pueden llegar a consumir entre un 50 y un 75% menos de energía en comparación a aquellos servidores que operan con los GPUs punteros del mercado. Estos datos han sido cuestionados por algunos expertos, ya que DeepSeek-R1 genera respuestas más largas que las respuestas estándares que producen el resto de los sistemas de IA generativa de empresas competidoras. A pesar de que su consumo energético es menor por lo que se refiere a las tareas de entrenamiento del modelo, este se dispara cuando interactúa con los usuarios. Según algunos cálculos, DeepSeek necesitaría de un 41% más de energía que el modelo de Meta para responder al mismo prompt.
Cabe plantearse, por tanto, si la solución energética al consumo desmesurado que requerirán los nuevos sistemas y modelos de IA se encuentra en el catastrofismo tecnológico o en repensar estrategias de su desarrollo que se encaminen a utilizar fuentes de energía más sostenibles. Si se elige la primera opción, nos planteamos un escenario similar a aquel que algunos operadores del mercado propusieron hace un par de años: pausar el desarrollo de esta tecnología hasta que aprendamos (desde una perspectiva tecnológica) cómo poder ofrecerla sin la necesidad de acceder a una capacidad de computación desmedida. En cambio, si se opta por la segunda, pasaríamos a un escenario ‘learning-by-doing’, en el que los desarrollos de los sistemas y el avance tecnológico se produzcan en paralelo, asumiendo el coste que provocará en los recursos limitados de los que dispone el Planeta para generar fuentes de energía.
Desde mi punto de vista, este es el momento en el que se debe dar un despertar de los desarrolladores de estas tecnologías respecto a la finitud de los recursos disponibles para el crecimiento del mercado, a pesar de que ello entre en contradicción con su premisa principal de scaling, “a mayores tokens, más datos y más variables, mejores resultados e inferencias”.