Hacer que el centro de datos y la nube funcionen mejor juntos en la empresa

La infraestructura del centro de datos empresarial no ha cambiado drásticamente en las últimas décadas, pero la forma en que se utiliza sí lo ha hecho. Los servicios en la nube han cambiado las expectativas sobre lo fácil que debería ser aprovisionar y administrar recursos, y también que las organizaciones solo necesitan pagar por los recursos que están utilizando.

Con las herramientas adecuadas, los centros de datos empresariales podrían volverse más ágiles y fluidos en el futuro, a medida que las organizaciones equilibren el uso de la infraestructura interna con los recursos de la nube para obtener el equilibrio óptimo. Hasta cierto punto, esto ya está sucediendo, como ya lo documentó Computer Weekly.

La adopción de la computación en la nube, por supuesto, ha ido creciendo durante al menos una década. Según cifras de IDC, el gasto mundial en computación y almacenamiento para infraestructura en la nube aumentó un 12,5% interanual durante el primer trimestre de 2021 a $ 15,1 mil millones. Las inversiones en infraestructura no basada en la nube aumentaron un 6,3% en el mismo período, a 13.500 millones de dólares.

Aunque la primera cifra corresponde al gasto de los proveedores de la nube en su propia infraestructura, esto se debe a la demanda de servicios en la nube por parte de los clientes empresariales. De cara al futuro, IDC dijo que espera que el gasto en infraestructura de computación y almacenamiento en la nube alcance los $ 112,9 mil millones en 2025, lo que representa el 66% del total, mientras que se espera que el gasto en infraestructura no en la nube sea de $ 57,9 mil millones.

Esto muestra que la demanda de la nube está superando a la de la infraestructura que no es la nube, pero pocos expertos creen ahora que la nube reemplazará por completo la infraestructura local. En cambio, es cada vez más probable que las organizaciones mantengan un conjunto básico de servicios de misión crítica operando en la infraestructura que controlan, con la nube utilizada para cargas de trabajo menos sensibles o donde se requieren recursos adicionales.

Las herramientas de gestión y TI más flexibles también están haciendo posible que las empresas traten los recursos en la nube y la TI local como intercambiables, hasta cierto punto.

La TI moderna es mucho más flexible

“La TI en el sitio ha evolucionado tan rápido como los servicios en la nube”, dice Tony Lock, analista distinguido de Freeform Dynamics. En el pasado, era bastante estático, con infraestructura dedicada a aplicaciones específicas, agrega. “Eso ha cambiado enormemente en los últimos 10 años, por lo que ahora es mucho más fácil expandir muchas plataformas de TI que en el pasado.

Más contenido para leer:  IBM tiene como objetivo permitir el control de la infraestructura multinube con Hybrid Cloud Mesh

“No tiene que quitarlos durante un fin de semana para instalar físicamente nuevo hardware; puede ser que simplemente instale nuevo hardware en su centro de datos, lo conecte y funcionará”.

Otras cosas que han cambiado dentro del centro de datos son la forma en que los usuarios pueden mover aplicaciones entre diferentes servidores físicos con virtualización, por lo que hay mucha más portabilidad de aplicaciones. Y, hasta cierto punto, las redes definidas por software lo hacen mucho más factible de lo que era hace cinco o diez años, dice Lock.

La rápida evolución de las herramientas de automatización que pueden manejar tanto los recursos en el sitio como en la nube también significa que la capacidad de tratar ambos como un solo grupo de recursos se ha convertido en una realidad.

En junio, HashiCorp anunció que su herramienta Terraform para administrar la infraestructura había llegado a la versión 1.0, lo que significa que la arquitectura técnica del producto es lo suficientemente madura y estable para su uso en producción, aunque la plataforma ya ha sido utilizada operativamente por algún tiempo por muchos clientes.

Terraform es una herramienta de infraestructura como código que permite a los usuarios construir infraestructura utilizando archivos de configuración declarativos que describen cómo debería verse la infraestructura. Estos son proyectos que permiten que Terraform suministre la infraestructura para una aplicación o servicio específico de manera confiable, una y otra vez.

También puede automatizar cambios complejos en la infraestructura con una mínima interacción humana, requiriendo solo una actualización de los archivos de configuración. La clave es que Terraform es capaz de administrar no solo una infraestructura interna, sino también recursos a través de múltiples proveedores de nube, incluidos Amazon Web Services (AWS), Azure y Google Cloud Platform.

Y debido a que las configuraciones de Terraform son independientes de la nube, pueden definir el mismo entorno de aplicación en cualquier nube, lo que facilita el movimiento o la replicación de una aplicación si es necesario.

“La infraestructura como código es una buena idea”, dice Lock. “Pero de nuevo, eso es algo que está madurando, pero está madurando desde un estado mucho más juvenil. Pero está vinculado a toda esta cuestión de la automatización, y TI se automatiza cada vez más, por lo que los profesionales de TI pueden realmente centrarse en los elementos comerciales más importantes y potencialmente de mayor valor, en lugar de algunas de las cosas más mundanas, rutinarias y repetitivas que su el software puede funcionar igual de bien para usted “.

El almacenamiento se vuelve nativo de la nube

El almacenamiento empresarial también se está volviendo mucho más flexible, al menos en el caso de los sistemas de almacenamiento definidos por software que están diseñados para operar en clústeres de servidores estándar en lugar de en hardware propietario. En el pasado, las aplicaciones solían estar vinculadas a redes de área de almacenamiento fijas. El almacenamiento definido por software tiene la ventaja de poder escalar horizontalmente de manera más eficiente, generalmente simplemente agregando más nodos al clúster de almacenamiento.

Más contenido para leer:  Los ingresos del segundo trimestre caen mientras Virgin Media O2 enfrenta dificultades financieras

Debido a que está definido por software, este tipo de sistema de almacenamiento también es más fácil de aprovisionar y administrar a través de interfaces de programación de aplicaciones (API) o mediante una herramienta de infraestructura como código como Terraform.

Un ejemplo de lo sofisticado y flexible que se ha vuelto el almacenamiento definido por software es WekaIO y su plataforma de datos ilimitada, implementada en muchos proyectos de computación de alto rendimiento (HPC). La plataforma WekaIO presenta un espacio de nombres unificado para las aplicaciones y se puede implementar en servidores de almacenamiento dedicados o en la nube.

Esto permite la explosión en la nube, ya que las organizaciones pueden simplemente enviar datos desde su clúster local a la nube pública y aprovisionar un clúster Weka allí. Cualquier aplicación basada en archivos se puede ejecutar en la nube sin modificaciones, según WekaIO.

Una característica notable del sistema WekaIO es que permite tomar una instantánea de todo el entorno, incluidos todos los datos y metadatos asociados con el sistema de archivos, que luego se pueden enviar a un almacén de objetos, incluido el almacenamiento en la nube S3 de Amazon.

Esto hace posible que una organización construya y use un sistema de almacenamiento para un proyecto en particular, luego lo tome y guarde esa instantánea en la nube una vez que el proyecto esté completo, liberando la infraestructura que aloja el sistema de archivos para otra cosa. Si es necesario reiniciar el proyecto, se puede recuperar la instantánea y volver a crear el sistema de archivos exactamente como estaba, dice WekaIO.

Pero una mosca en el ungüento con este escenario es el costo potencial, no de almacenar los datos en la nube, sino de acceder a ellos si los necesita nuevamente. Esto se debe a las llamadas tarifas de salida que cobran los principales proveedores de la nube, como AWS.

“Algunas de las plataformas en la nube parecen extremadamente baratas solo en términos de sus costos de almacenamiento puro”, dice Lock. “Pero muchos de ellos en realidad tienen cargos de salida bastante altos. Si desea obtener esos datos para verlos y trabajar en ellos, le costará una gran cantidad de dinero. No le cuesta mucho mantenerlo allí, pero si desea verlo y usarlo, entonces se vuelve realmente costoso muy rápidamente.

“Hay algunas personas que le ofrecerán un archivo activo donde no hay cargos de salida, pero usted paga más por él de manera operativa”.

Más contenido para leer:  Resolver la crisis climática requerirá niveles de alunizaje de innovación tecnológica

Un proveedor de almacenamiento en la nube que se ha burlado de las convenciones de esta manera es Wasabi Technologies, que ofrece a los clientes diferentes formas de pagar por el almacenamiento, incluida una tarifa mensual fija por terabyte.

Manejándolo todo

Con la infraestructura de TI cada vez más fluida, flexible y adaptable, las organizaciones pueden descubrir que ya no necesitan seguir expandiendo la capacidad de su centro de datos como lo habrían hecho en el pasado. Con las herramientas adecuadas de administración y automatización, las empresas deberían poder administrar su infraestructura de manera más dinámica y eficiente, reutilizando su TI local para el próximo desafío en cuestión y utilizando servicios en la nube para extender esos recursos donde sea necesario.

Un área que puede tener que mejorar para que esto sea práctico es la capacidad de identificar dónde radica el problema si ocurre una falla o una aplicación está operando lentamente, lo cual puede ser difícil en un sistema distribuido complejo. Este ya es un problema conocido para las organizaciones que adoptan una arquitectura de microservicios. Las nuevas técnicas que involucran el aprendizaje automático pueden ayudar aquí, dice Lock.

“El monitoreo se ha vuelto mucho mejor, pero luego la pregunta es: ¿cómo ve realmente lo que es importante en la telemetría?” él dice. “Y eso es algo a lo que el aprendizaje automático está comenzando a aplicarse cada vez más. Es uno de los santos griales de la TI, el análisis de la causa raíz y el aprendizaje automático lo hace mucho más sencillo de hacer “.

Otro problema potencial con este escenario tiene que ver con la gobernanza de datos, como en cómo garantizar que, a medida que las cargas de trabajo se mueven de un lugar a otro, las políticas de seguridad y gobernanza de datos asociadas con los datos también viajen con ellos y continúen aplicándose.

“Si potencialmente puede mover todas estas cosas, ¿cómo puede mantener una buena gobernanza de datos, de modo que solo esté ejecutando las cosas correctas en el lugar correcto con la seguridad adecuada?” dice Lock.

Afortunadamente, ya existen algunas herramientas para abordar este problema, como el proyecto Apache Atlas de código abierto, que se describe como una solución integral para el gobierno de datos y la gestión de metadatos. Atlas se desarrolló para su uso con ecosistemas de datos basados ​​en Hadoop, pero se puede integrar en otros entornos.

Para las empresas, parece que el sueño prometido durante mucho tiempo de poder combinar su propia TI con los recursos de la nube y poder marcar las cosas como quieran, puede estar acercándose.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales