El Uptime Institute estimó ya en 2015 que los servidores inactivos podrían estar desperdiciando alrededor del 30 % de su energía consumida, y las mejoras impulsadas por tendencias como la virtualización se estancaron en gran medida.
Según Uptime, la proporción de energía consumida por servidores “funcionalmente inactivos” en el centro de datos parece estar aumentando nuevamente, que no es lo que los operadores quieren escuchar mientras luchan por contener los costos y apuntar a la sostenibilidad.
Todd Traver, vicepresidente de resiliencia digital del Uptime Institute, confirma que el problema merece atención. “El análisis del consumo de energía inactivo impulsará el enfoque en la planificación y los procesos de TI en torno al diseño de aplicaciones, la adquisición y los procesos comerciales que permitieron que el servidor se instalara en el centro de datos en primer lugar”, dice Traver a ComputerWeekly.
Sin embargo, los servidores multinúcleo de mayor rendimiento, que requieren una mayor potencia inactiva en el rango de 20 W o más que los servidores de menor potencia, pueden ofrecer mejoras de rendimiento de más del 200 % en comparación con los servidores de menor potencia, señala. Si un centro de datos se enfocara miopemente en reducir el consumo de energía de los servidores, eso generaría un comportamiento de compra incorrecto.
“Esto en realidad podría aumentar el consumo general de energía, ya que suboptimizaría significativamente la cantidad de carga de trabajo procesada por vatio consumido”, advierte Traver.
¿Entonces qué debería ser hecho?
Los operadores de centros de datos pueden contribuir a reducir la energía inactiva, por ejemplo, asegurando que el hardware proporcione un rendimiento basado en los objetivos de nivel de servicio (SLO) requeridos por la aplicación que deben admitir. “Algunas tiendas de TI tienden a comprar en exceso el rendimiento del servidor, ‘por si acaso’”, agrega Traver.
Señala que se puede encontrar resistencia de los equipos de TI preocupados por el rendimiento de las aplicaciones, pero una planificación cuidadosa debería garantizar que muchas aplicaciones resistan fácilmente la administración de energía del hardware implementada correctamente, sin afectar al usuario final o los objetivos de SLO.
Comience por dimensionar los componentes y capacidades del servidor para la carga de trabajo y comprenda la aplicación y sus requisitos junto con el rendimiento, el tiempo de respuesta, el uso de la memoria, la memoria caché, etc. Luego, asegúrese de que las funciones de administración de energía del estado C del hardware estén activadas y utilizadas, dice Traver.
La etapa tres es el monitoreo continuo y el aumento de la utilización del servidor, con software disponible para ayudar a equilibrar la carga de trabajo entre los servidores, agrega.
Sascha Giese, geek jefe del proveedor de administración de infraestructura SolarWinds, está de acuerdo: “Con el software de orquestación que se usa en los centros de datos más grandes, en realidad podríamos apagar dinámicamente las máquinas que no sirven en este momento. Eso puede ayudar bastante”.
Mejorar las propias máquinas y cambiar la mentalidad sigue siendo importante, alejándose de un énfasis excesivo en el alto rendimiento. Cerrar las cosas también podría extender la vida útil del hardware.
Giese dice que incluso con las mejoras tecnológicas que ocurren a nivel de servidor y mayores densidades, quedan consideraciones más amplias que van más allá de la agilidad. Todo es parte de un rompecabezas más grande, que podría no ofrecer una solución perfecta, dice.
El nuevo pensamiento podría abordar cómo se mide e interpreta el consumo y la utilización de la energía, que puede ser diferente dentro de diferentes organizaciones e incluso presupuestarse de manera diferente.
“Obviamente, a los administradores les interesa proporcionar muchos recursos. Ese es un gran problema porque es posible que no consideren los costos continuos, que es básicamente lo que busca en el panorama general”, dice Giese.
Diseño de esquemas de ahorro de energía.
Simon Riggs, miembro de PostgreSQL en el proveedor de bases de datos administradas EDB, ha trabajado con frecuencia en códigos de consumo de energía como desarrollador. Al implementar técnicas de reducción de energía en el software, incluido PostgreSQL, el equipo comienza analizando el software con Linux PowerTop para ver qué partes del sistema se activan cuando están inactivas. Luego miran el código para saber qué bucles de espera están activos.
Un patrón de diseño típico para el funcionamiento normal puede ser despertarse cuando llegan solicitudes de trabajo o cada dos a cinco segundos para volver a verificar el estado. Después de 50 bucles inactivos, el patrón puede ser pasar del modo normal al modo de hibernación, pero volver directamente al modo normal cuando se despierta para trabajar.
El equipo reduce el consumo de energía al extender los tiempos de espera del ciclo de espera a 60 segundos, lo que, según Riggs, brinda un buen equilibrio entre la capacidad de respuesta y el consumo de energía.
“Este esquema es bastante fácil de implementar y alentamos a todos los autores de software a seguir estas técnicas para reducir el consumo de energía del servidor”, agrega Riggs. “Aunque parece obvio, agregar un ‘modo de bajo consumo’ no es una prioridad para muchas empresas”.
El progreso puede y debe revisarse regularmente, señala, y agrega que ha detectado algunas áreas más que el equipo de EDB puede limpiar cuando se trata de codificación de consumo de energía mientras mantiene la capacidad de respuesta de la aplicación.
“Probablemente todo el mundo piensa que es el trabajo de otra persona abordar estas cosas. Sin embargo, quizás entre el 50 y el 75 % de los servidores no se usan mucho”, dice. “En una empresa como un banco con 5000-10 000 bases de datos, muchas de ellas no hacen tanto. Muchas de esas bases de datos tienen 1 GB o menos y es posible que solo tengan unas pocas transacciones por día”.
Jonathan Bridges es director de innovación del proveedor de la nube Exponential-e, que tiene presencia en 34 centros de datos del Reino Unido. Él dice que reducir la alimentación de servidores inactivos es crucial para los centros de datos que buscan ser más sostenibles y ahorrar, con tantas cargas de trabajo, incluidos los entornos de nube, inactivos durante grandes períodos de tiempo, y la escalabilidad horizontal a menudo no se ha diseñado de manera efectiva.
“Estamos encontrando muchas máquinas virtuales fantasma [virtual machines]”, dice Puentes. “Vemos personas que intentan instalar tecnología de software para que las plataformas de gestión de la nube normalmente federen esos entornos múltiples”.
El monitoreo persistente puede revelar cargas de trabajo infrautilizadas y otras brechas que pueden abordarse con automatización y lógica de procesos comerciales para permitir el apagado o al menos una opción comercial más estratégica en torno al gasto en TI.
Sin embargo, lo que suele suceder especialmente con la prevalencia de la TI en la sombra es que los departamentos de TI en realidad no saben lo que está sucediendo. Además, estos problemas pueden volverse más frecuentes a medida que las organizaciones crecen, se expanden y se dispersan globalmente y administran múltiples sistemas listos para usar que no fueron diseñados originalmente para trabajar juntos, señala Bridges.
“Por lo general, monitoreas las cosas que están disponibles, más monitoreas el rendimiento de las cosas. Realmente no estás investigando esos para determinar si no se están consumiendo”, dice. “A menos que estén configurados para revisar todos los departamentos y no solo para monitorear y verificar de manera tradicional”.
La refactorización de aplicaciones para convertirlas en nativas de la nube para la nube pública o la creación de contenedores en las instalaciones podría presentar una oportunidad a este respecto para crear aplicaciones de manera más eficaz para ampliaciones (o reducciones) eficientes que ayuden a reducir el consumo de energía por servidor.
Si bien se han logrado mejoras en la eficiencia energética y la densidad, la industria ahora debería buscar mejorar aún más, y rápidamente, sugiere Bridges.
Las organizaciones que se proponen evaluar lo que está sucediendo pueden descubrir que ya son bastante eficientes, pero la mayoría de las veces pueden encontrar un exceso de aprovisionamiento que se puede abordar sin esperar nuevos avances tecnológicos.
“Estamos en un momento en el que los desafíos que hemos tenido en todo el mundo, que han afectado la cadena de suministro y una gran cantidad de cosas, hacen que el costo de la energía se dispare”, dice Bridges. “La inflación de costos solo en la energía puede agregar entre un 6 y un 10 % a su costo”.
Ori Pekelman, director de productos del proveedor de plataforma como servicio (PaaS) Platform.sh, está de acuerdo en que se pueden abordar los problemas de inactividad del servidor. Sin embargo, insiste en que se debe volver a reconsiderar la mentalidad general sobre las mejores formas de consumir los recursos informáticos.
“Cuando ves cómo se ejecuta el software hoy en día en la nube, el nivel de ineficiencia que ves es absolutamente ridículo”, dice.
Ineficiencia no aislada
No solo los servidores se ejecutan inactivos, sino que existen todas las demás consideraciones en torno a la sostenibilidad, como los cálculos de Alcance 3. Por ejemplo, las actualizaciones pueden tener un efecto neto negativo, incluso si los niveles de consumo de energía del servidor son más bajos diariamente después de instalar un nuevo kit.
El paso a la nube en sí mismo puede oscurecer algunas de estas consideraciones, simplemente porque las facturas por el uso de energía y agua, etc., se abstraen y no están en la cara del usuario final.
Y los propios proveedores de centros de datos también pueden tener incentivos para ocultar algunos de esos costos en el impulso del crecimiento comercial y de clientes.
“No se trata simplemente de servidores inactivos”, dice Pekelman. “Y las emisiones de los centros de datos no se han disparado en los últimos 20 años. La única forma de pensar en esto es tomarse un tiempo para construir los modelos: modelos robustos que tengan en cuenta una cantidad de años y no se concentren solo en el uso de energía por servidor”.
La solución de estos problemas requerirá más ingeniería y “ciencia real”, advierte. Los proveedores todavía usan técnicas que tienen 20 años y aún no pueden compartir y escalar cargas mejor utilizadas cuando los patrones de uso ya están “muy llenos”. Esto podría significar, por ejemplo, reducir las imágenes duplicadas si es posible y, en su lugar, tener solo una copia en cada servidor.
Las cargas de trabajo también podrían localizarse o cambiarse dinámicamente en todo el mundo, por ejemplo, a Suecia para que, en lugar de a Francia, se le suministre energía nuclear, según su perspectiva de los beneficios de esas fuentes de energía. Parte de esto puede requerir compensaciones en otras áreas, como la disponibilidad y las latencias requeridas, para lograr la flexibilidad necesaria.
Es posible que esto no sea lo que los proveedores de centros de datos quieren para sí mismos, pero en última instancia debería ayudarlos a ofrecer lo que los clientes probablemente busquen cada vez más.
“En general, si no es un proveedor de centros de datos, sus intereses están más alineados con los del planeta”, sugiere Pekelman. “Intercambiar objetivos versus eficiencia, tal vez no ahora sino más adelante. La buena noticia es que significa hacer mejor el software”.