La Organización Meteorológica Mundial acaba de emitir un informe
señalando que los últimos 11 años han sido los más calurosos jamás
experimentados por la humanidad. Y ahora, múltiples científicos advierten que
lo que viene podría ser aún más intenso.
El aumento de las temperaturas, inviernos inusualmente fríos y otros
factores pueden tensionar las redes eléctricas y provocar cortes de energía. En
un mundo que depende fuertemente de los datos y la computación, ¿cómo pueden las
empresas evitar que los eventos climáticos y las disrupciones externas de la
red afecten a los Centros de Datos?
La mayoría comienza aplicando sistemas de energía de respaldo para
construir resiliencia.
Pero si se pueden comprender los eventos y controlar las cargas de
trabajo de IA, es posible ir mucho más allá: evitar la inestabilidad de la red,
hacer que los Centros de Datos de IA sean más resilientes, mejorar la
eficiencia energética para no sobreextender costos y recursos, y aumentar la
predictibilidad operativa. Así se logra.
Centros de Datos que entienden inteligencia en
tiempo real
Las redes eléctricas tienen altibajos, y las cargas de trabajo de IA —ya sea para entrenamiento o inferencia— tienden a ser irregulares.
Las empresas que construyen sus Centros de Datos de IA con
infraestructura de TI consciente de la red pueden aprovechar estas capacidades
modernas para identificar la disponibilidad de la red en cualquier momento, y
tomar decisiones informadas en tiempo real sobre la carga de trabajo y el uso
de energía.
Sin embargo, pocas organizaciones tienen visibilidad completa del
consumo energético o del rendimiento de la infraestructura. Menos de la mitad
monitorea la demanda promedio de energía de sus servidores, y menos de un
tercio puede calcular métricas de eficiencia trabajo-energía, según Uptime
Intelligence.
El Centro de Datos del futuro eleva la observabilidad como una capacidad
crítica, capturando y analizando datos en tiempo real de manera integrada, a
través de almacenamiento inteligente y eficiente, otras tecnologías de TI en
rack, redes inteligentes, fuentes de energía renovable y sistemas avanzados de
enfriamiento.
Comprender patrones, detectar tendencias y mapear los impactos de los
eventos se vuelve fundamental para la gestión y optimización inteligente de los
Centros de Datos.
Inteligencia para programar cargas de trabajo y el
entrenamiento de IA
Las empresas pueden entonces programar las cargas de trabajo de IA en concordancia con las condiciones de la red. Imaginemos una ola de calor que obliga a hogares y negocios a usar aire acondicionado de forma continua, o un invierno extremo que incrementa el uso de calefacción en una región, con puntos altos en ciertos momentos del día.
La infraestructura de TI inteligente puede detectar que la red está bajo
estrés y evaluar si es necesario reprogramar cargas en otro horario o
trasladarlas a ubicaciones donde la red tenga mayor capacidad.
En este proceso, las empresas pueden evitar la sobrecarga de la red,
contribuir a sus comunidades y alinear mejor la demanda computacional con la
disponibilidad energética.
Unificar software entre TI, energía, enfriamiento y
gestión de edificios
Construir una infraestructura de IA verdaderamente consciente de la red
requiere integrar software de gestión energética, de edificios, de enfriamiento
y de TI. Esto implica pasar de un monitoreo básico a una gestión centralizada
tipo “panel único de control” dentro del Centro de Datos, incluyendo entornos
híbridos y Edge.
De hecho, esta necesidad se refleja en el crecimiento proyectado del
mercado de gestión de infraestructura de Centros de Datos, con una tasa anual
compuesta del 17,6% entre 2025 y 2034, acercándose a un tamaño de mercado de
US$ 16 mil millones.
Sin embargo, integrar sistemas tan complejos no ha sido históricamente
habitual ni sencillo, ya que requiere esfuerzos y experiencia entre áreas que
tradicionalmente han operado de forma independiente.
Al asociarse con expertos para integrar estas capas e interpretar
patrones complejos de datos, la gestión energética puede conectarse con datos
del rack para detectar alzas de volumen, revelar impactos energéticos o
térmicos adicionales y ofrecer recomendaciones para mitigarlos. Por ejemplo,
puede requerirse mayor enfriamiento, disipación o planificación de respaldo
energético adicional.
La integración también permite ir más allá del perímetro de la empresa e
incorporar información externa, como eventos climáticos emergentes. Así, se
pueden usar grandes volúmenes de datos para predecir impactos en los Centros de
Datos y, si un sitio está bajo estrés, trasladar cargas de trabajo o inferencia
a otro, manteniendo la disponibilidad sin sobrecargar la infraestructura local.
Ubicarse donde hay más energía disponible y
generación propia
El diseño distribuido de Centros de Datos permite separar, en gran
medida, la ubicación de las operaciones del negocio. Por ejemplo, que una
empresa esté en Santiago, Buenos Aires, Bogotá o Ciudad de México; no significa
que su Centro de Datos de IA deba estar en esas ciudades. Los datos pueden
moverse hacia donde la energía esté disponible.
Para identificar ubicaciones óptimas, es clave considerar disponibilidad
de energía, terreno, recursos y menores restricciones regulatorias o sociales.
También es fundamental cumplir con normativas locales, especialmente en temas
de soberanía de datos, que imponen restricciones sobre dónde se almacenan y
procesan.
En paralelo, implementar fuentes alternativas de energía es otra vía
para asegurar el suministro. Por ello, grandes inversores en Centros de Datos
están explorando reactores modulares pequeños, generación in situ con gas
natural, así como energía solar, eólica y almacenamiento en baterías.
El desafío de la IA es alimentarla de manera
eficiente y confiable
Todos reconocen el enorme potencial de la IA para procesar grandes
volúmenes de datos y generar resultados rápidos e innovaciones transformadoras.
Sin embargo, hoy el foco está en sus demandas energéticas.
No es sorprendente: los Centros de Datos tradicionales consumían entre 5
y 15 kilovatios por rack, mientras que los Centros de Datos de IA consumen
mucho más: entre 60 y más de 150 kilovatios por rack.
Pero si se diseña una infraestructura de TI capaz de aprovechar
información energética en tiempo real y adaptarse dinámicamente, es posible
hacer que tanto el negocio como la red eléctrica sean más predecibles,
confiables y eficientes, transformando la resiliencia de una medida reactiva a
una ventaja inteligente impulsada por la sostenibilidad.
Fuente: Prensa EDM comunicaciones Daniel
Contreras
Ajuste de contenido y diagramación: bersoahoy.co
















