La inteligencia artificial no solo está transformando la forma en que trabajamos, creamos y nos entretenemos; también está reconfigurando las entrañas mismas de internet. Los centros de datos, esos gigantes invisibles que almacenan y procesan todo, desde tus fotos en la nube hasta los modelos de lenguaje más avanzados, enfrentan una presión sin precedentes: el consumo energético se dispara y las redes eléctricas empiezan a mostrar signos de agotamiento. Así lo advierte Simon Ninan, vicepresidente de Estrategia de Negocios de Hitachi Vantara, en un análisis reciente que pone el foco en el talón de Aquiles de la era digital.
El problema es sencillo de entender, pero complejo de resolver. Cada consulta a un asistente de IA como ChatGPT consume hasta diez veces más energía que una búsqueda tradicional en Google. Multiplica eso por millones de usuarios y por las cargas de trabajo que implican entrenar modelos cada vez más grandes, y el resultado es una curva de demanda eléctrica que los operadores de infraestructura no estaban preparados para enfrentar. Ninan señala que, sin una transformación profunda, los centros de datos podrían convertirse en un cuello de botella para la innovación, justo cuando más se necesita que sean ágiles y confiables.
La propuesta de Hitachi Vantara no es simplemente poner más servidores o enfriarlos mejor. La clave, dice Ninan, está en construir centros de datos inteligentes, capaces de adaptarse en tiempo real a la demanda energética, a las condiciones climáticas y a las fluctuaciones propias de las cargas de trabajo de IA. Esto implica redes eléctricas más resilientes, sistemas de almacenamiento de energía distribuidos y software de orquestación que decida, por ejemplo, cuándo es más barato o más verde ejecutar cierto proceso. En otras palabras, se trata de pasar de una infraestructura estática a una que respire al ritmo de la electricidad disponible.
Para la comunidad geek y tech que sigue de cerca estos temas, el asunto va más allá de la eficiencia operativa. Tiene que ver con la sostenibilidad del propio ecosistema digital. Si cada nuevo avance en IA implica construir más plantas de energía, el modelo se vuelve insostenible. Por eso, iniciativas como los acuerdos de compra de energía renovable (PPA, por sus siglas en inglés) y el uso de baterías a gran escala están ganando terreno. Empresas como Google, Microsoft y Amazon ya han anunciado inversiones millonarias en energía limpia para sus data centers, pero Ninan advierte que no basta con comprar créditos verdes: se necesita una integración real entre el consumo de cómputo y la generación de energía.
El impacto también se siente en el bolsillo del usuario final. Aunque la mayoría de los servicios de IA siguen siendo gratuitos o de bajo costo, los márgenes de las empresas dependen de mantener la electricidad bajo control. Si los costos energéticos se disparan, podríamos ver aumentos en suscripciones o límites más estrictos en el uso de herramientas como Copilot o Gemini. Para los gamers, streamers y creadores de contenido que dependen de la nube para renderizar, almacenar o transmitir, la eficiencia de los centros de datos se traduce directamente en velocidad y precio.
En un mundo donde la inteligencia artificial promete resolver desde problemas médicos hasta la optimización del tráfico, su mayor reto podría ser, irónicamente, mantener las luces encendidas. La visión de Hitachi Vantara es clara: no podemos dejar que la innovación se apague por falta de energía. La pregunta que queda en el aire es si la industria podrá escalar estas soluciones con la misma rapidez con la que crece la demanda de IA.





