La inteligencia artificial ya no solo genera imágenes, responde preguntas o escribe textos. También se convirtió en uno de los temas más discutidos cuando aparece la palabra “energía”. Cada nuevo modelo despierta dudas sobre consumo eléctrico, uso de agua y el impacto ambiental de una tecnología que crece a una velocidad difícil de medir. En medio de ese debate, Sam Altman intentó cambiar el enfoque con una comparación tan provocadora como polémica: entrenar una IA, según explicó, no debería medirse frente a una simple respuesta humana, sino frente a todo el “entrenamiento” que requiere una persona durante décadas de vida.

Chat gpt
Freepik

Sam Altman cree que el debate sobre la IA está comparando cosas equivocadas

Durante un evento organizado por The Indian Express, el CEO de OpenAI defendió la idea de que gran parte del debate público sobre el consumo energético de la inteligencia artificial parte de una comparación injusta.

Según explicó, muchas críticas colocan frente a frente el enorme gasto eléctrico necesario para entrenar modelos como ChatGPT contra algo mucho más pequeño: la capacidad instantánea de un ser humano para responder una pregunta. Para Altman, esa equivalencia no tiene demasiado sentido.

Su argumento fue bastante más ambicioso. Sostuvo que formar a una persona también implica décadas de consumo energético indirecto: alimentación, educación, infraestructura y un proceso evolutivo sostenido por miles de millones de individuos a lo largo del tiempo. Desde esa lógica, comparar el entrenamiento de una IA con una respuesta humana aislada distorsiona completamente el análisis.

La comparación rápidamente generó discusión porque mezcla conceptos muy distintos. Sin embargo, también puso sobre la mesa una diferencia importante que muchas veces se pierde en conversaciones más superficiales: entrenar un modelo y utilizarlo diariamente no representan el mismo costo energético.

Altman insistió especialmente en ese punto. Una vez entrenado, un sistema de IA puede responder millones de consultas utilizando relativamente poca energía por interacción individual. Y ahí es donde, según su postura, la conversación debería enfocarse con más precisión.

El problema es que esa explicación no elimina la gran pregunta que sigue flotando alrededor de toda la industria tecnológica: cuánto consume realmente la inteligencia artificial cuando se la observa a escala global y sostenida en el tiempo.

Porque incluso si cada consulta individual parece eficiente, el volumen total de uso crece a una velocidad gigantesca.

Sam Altman
YouTube

La verdadera discusión no está solo en entrenar modelos, sino en operarlos masivamente

Parte del argumento de Altman encuentra respaldo en algunos estudios recientes. Investigaciones de organizaciones como Epoch AI muestran que el mayor pico energético ocurre durante el entrenamiento inicial de los modelos y no necesariamente durante el uso cotidiano, conocido técnicamente como “inferencia”.

Eso significa que una vez completada la etapa de entrenamiento, responder preguntas, generar textos o procesar solicitudes puede requerir relativamente poca energía por usuario. En teoría, esa eficiencia debería aliviar parte de las preocupaciones.

Pero ahí aparece el verdadero problema: la escala.

La cantidad de usuarios, consultas y centros de datos vinculados con inteligencia artificial aumenta constantemente. Cada mejora en eficiencia termina acompañada por un crecimiento todavía mayor en demanda. Más modelos, más herramientas, más aplicaciones y millones de interacciones diarias generan un efecto acumulativo difícil de ignorar.

Además, existe otro punto que complica todavía más la discusión: la falta de transparencia.

Ni OpenAI ni muchas de las grandes empresas tecnológicas publican cifras detalladas y auditables sobre el consumo energético total de sus modelos. Tampoco suelen revelar con precisión cuánta agua utilizan los centros de datos encargados de sostener estas plataformas.

Altman también habló sobre eso durante el evento, cuestionando algunas cifras virales relacionadas con litros de agua consumidos por consulta y señalando que muchos centros modernos utilizan sistemas de refrigeración diferentes a los más antiguos.

Sin embargo, volvió a aparecer el mismo patrón: desmentir números exagerados sin ofrecer datos completos verificables propios.

Ese vacío termina alimentando dos extremos bastante comunes dentro del debate actual. Por un lado aparecen proyecciones alarmistas difíciles de comprobar. Por el otro, respuestas corporativas que intentan relativizar el problema sin mostrar demasiada información concreta.

Y mientras tanto, reguladores y especialistas climáticos siguen reclamando algo mucho más simple: métricas claras y comparables.

La IA se vuelve más eficiente, pero también mucho más grande cada año

Uno de los puntos más complejos del debate es que ambas cosas pueden ser ciertas al mismo tiempo. Los modelos actuales son cada vez más eficientes energéticamente, pero el ecosistema completo de inteligencia artificial también se expande a una velocidad enorme.

Los chips modernos mejoran rendimiento por vatio, los sistemas de refrigeración evolucionan y las arquitecturas de software optimizan procesos constantemente. Desde el punto de vista técnico, la industria efectivamente avanza hacia modelos más eficientes.

Pero el crecimiento del uso termina compensando buena parte de esos avances.

Cada nueva herramienta integrada en buscadores, asistentes virtuales, plataformas de productividad o sistemas empresariales multiplica la cantidad de consultas realizadas diariamente. Lo que antes era una tecnología utilizada por pocos laboratorios ahora forma parte de aplicaciones masivas usadas por millones de personas en tiempo real.

Ahí es donde la comparación de Altman con el cerebro humano empieza a mostrar límites bastante evidentes. Puede funcionar como recurso retórico para contextualizar el costo de entrenamiento de un modelo, pero no responde completamente a las dudas sobre impacto energético acumulado.

La gran discusión ya no gira únicamente alrededor de cuánto consume crear una IA, sino sobre qué ocurrirá cuando prácticamente todos los servicios digitales integren modelos generativos funcionando de manera permanente.

Por ahora, la industria sigue moviéndose entre promesas de eficiencia y una demanda energética que no deja de crecer. Y mientras las compañías mantengan en privado gran parte de los datos relacionados con infraestructura, agua y electricidad, el debate continuará dominado por estimaciones parciales y comparaciones difíciles de verificar.

La inteligencia artificial puede parecer invisible cuando alguien escribe una pregunta en una ventana de chat.

Pero detrás de cada respuesta existe una infraestructura gigantesca cuya dimensión real todavía nadie termina de explicar por completo.

🖥️ ¿Te apasiona la tecnología? En nuestro canal de YouTube analizamos gadgets, novedades tech y mucho más.

▶ Suscribirme

Deja tu comentario

Trending

Descubre más desde Oasis Nerd

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo