Cada consulta a un chatbot, cada imagen generada por un modelo avanzado y cada algoritmo entrenado en la nube tiene un costo invisible: electricidad. Lo que hasta hace poco era una discusión técnica hoy se convirtió en un asunto estratégico. La infraestructura que sostiene la revolución de la inteligencia artificial comienza a mostrar señales de tensión, y los números que manejan los expertos no son menores. El desafío ya no es solo tecnológico, sino energético.

La inteligencia artificial dispara la demanda eléctrica
El crecimiento de la inteligencia artificial no solo está transformando industrias; también está alterando el mapa energético de Estados Unidos. Los centros de datos —esas gigantescas instalaciones repletas de servidores— podrían llegar a consumir hasta cuatro veces más electricidad hacia 2030 si se mantiene el ritmo actual de expansión.
La advertencia cobró fuerza tras la creación del Next-Generation Data Centers Institute (NGDCI), impulsado por el Oak Ridge National Laboratory (ORNL). La iniciativa busca anticipar el impacto de una demanda que ya empieza a presionar redes eléctricas diseñadas para otro tipo de consumo.
Hoy, los centros de datos representan más del 4% de la electricidad utilizada en el país. Sin embargo, estimaciones de la Electric Power Research Institute indican que esa cifra podría escalar hasta el 17% en apenas unos años. El salto no se explica por el uso cotidiano de internet, sino por el entrenamiento y operación de modelos de IA cada vez más complejos, que requieren enormes volúmenes de procesamiento continuo.
Entrenar un modelo de gran escala implica mantener miles de unidades de procesamiento funcionando durante semanas o meses. Cada ciclo demanda energía no solo para el cálculo, sino también para sistemas de refrigeración capaces de evitar el sobrecalentamiento.
El problema no es únicamente la cantidad de electricidad necesaria, sino la velocidad con la que crece la demanda. La infraestructura actual fue concebida para un aumento progresivo y relativamente predecible. La inteligencia artificial, en cambio, introduce picos de consumo difíciles de absorber sin inversiones masivas.
El plan para evitar un cuello de botella energético
Ante este escenario, el NGDCI pretende actuar como un puente entre investigación científica e infraestructura energética. El ORNL concentrará su experiencia en computación avanzada, redes eléctricas, ciberseguridad y sistemas de enfriamiento para diseñar centros de datos más eficientes y resilientes.
Uno de los ejes centrales será el desarrollo de nuevas tecnologías de refrigeración. La disipación de calor es uno de los factores que más energía consume en estas instalaciones. Sistemas de enfriamiento líquido, arquitecturas térmicas optimizadas y modelos predictivos para ajustar la carga en tiempo real forman parte de las soluciones en estudio.
El instituto también trabajará sobre el proyecto Modeling Energy Growth Associated with Data Centers (MEGA-DC), que analiza distintos escenarios de expansión y sus efectos económicos y técnicos. La idea es ofrecer herramientas a desarrolladores, compañías eléctricas y responsables políticos para planificar inversiones sin improvisación.
Otro punto clave es integrar los centros de datos a la red eléctrica de forma más dinámica. En lugar de ser simples consumidores, podrían convertirse en activos flexibles, capaces de ajustar su demanda según la disponibilidad energética y contribuir a la estabilidad del sistema.
Este enfoque busca evitar un “cuello de botella” que limite el crecimiento tecnológico. Porque si la capacidad eléctrica no acompaña, la expansión de la inteligencia artificial podría frenarse no por falta de innovación, sino por restricciones energéticas.
Alianzas industriales y la carrera por sostener la revolución
La magnitud del desafío exige cooperación. El NGDCI convocó a actores de la industria tecnológica y energética para acelerar la transición de los prototipos a aplicaciones reales. Empresas como AMD, Carrier Energy, Chemours y NVIDIA participan en el diseño de arquitecturas más eficientes y sistemas térmicos de nueva generación.
La colaboración no se limita al hardware. También abarca seguridad digital y física, modelado de microredes y simulaciones que permiten probar soluciones antes de su implementación masiva.
En paralelo, el ORNL se prepara para desplegar dos nuevos sistemas de inteligencia artificial de alto rendimiento, conocidos como Discovery y Lux. Estos equipos ampliarán la capacidad nacional de computación avanzada, pero también funcionarán como bancos de prueba para las estrategias energéticas en desarrollo.
El trasfondo es claro: la inteligencia artificial se consolida como motor económico y científico, pero su sostenibilidad depende de decisiones que se tomen hoy. Si el consumo eléctrico se multiplica como proyectan los estudios, la transición hacia infraestructuras más eficientes dejará de ser una opción y se convertirá en una necesidad urgente.
El debate ya no gira solo en torno a qué puede hacer la IA, sino a cuánto cuesta mantenerla encendida. Y en esa ecuación, la energía se convierte en el recurso crítico de la próxima década.
🖥️ ¿Te apasiona la tecnología? En nuestro canal de YouTube analizamos gadgets, novedades tech y mucho más.
▶ Suscribirme
Carolina Couselo cubre cine, series y anime en Oasis Nerd. Cinéfila apasionada, sus reseñas se destacan por una mirada crítica que va más allá de los títulos obvios — siempre en busca de esa película o serie que todavía no encontró su audiencia. Si hay un underdog en las pantallas, Carolina probablemente ya lo vio.






Deja tu comentario