El debate sobre el enorme consumo energético de la inteligencia artificial ha vuelto al primer plano tras las declaraciones de Sam Altman, quien comparó el coste de entrenar modelos de IA con el de formar a seres humanos. El directivo defendió que, aunque el entrenamiento de modelos avanzados requiere cantidades masivas de electricidad y recursos computacionales, el resultado puede multiplicar la productividad y generar un impacto económico superior al coste energético inicial.
El entrenamiento de grandes modelos de lenguaje implica el uso intensivo de centros de datos, procesadores especializados y sistemas de refrigeración, lo que dispara la demanda eléctrica. Este fenómeno ha generado preocupación por su huella ambiental y por la presión que ejerce sobre las redes energéticas, especialmente en países donde se concentran grandes infraestructuras tecnológicas.
Altman argumenta que el paralelismo con la educación humana ayuda a contextualizar la inversión: formar a profesionales también requiere recursos, infraestructuras y tiempo, pero produce retornos a largo plazo. En el caso de la IA, una vez entrenado, el modelo puede escalar su uso a millones de personas, diluyendo el coste inicial por usuario.
Sin embargo, el crecimiento exponencial del uso de herramientas de IA, desde asistentes conversacionales hasta sistemas de generación de imagen y vídeo, está incrementando no solo el gasto en entrenamiento, sino también en inferencia (uso cotidiano), lo que mantiene elevado el consumo energético de forma permanente.
El debate se sitúa así en un punto clave ¿Cómo equilibrar innovación, competitividad tecnológica y sostenibilidad energética en una economía cada vez más dependiente de la computación intensiva?
XATAKA (23/02/2026)
Más información aquí





























