La misión de la infraestructura y operación de TI o I&O, como se conoce por sus siglas en inglés (Infrastructure and Operations), ha evolucionado de hacer diseños de arquitecturas, implementaciones de equipos y operación de componentes hacia la entrega de servicios escalables, flexibles y de alto desempeño que posibiliten cumplir con la estrategia y los objetivos del negocio.
Durante la conferencia de Gartner relacionada con las estrategias de I&O, Ross Winser, Director Senior en Gartner afirmaba que "Ya no se trata de hardware o software - se trata de entregar servicios que cumplen con las necesidades del negocio. El futuro de la infraestructura es en cualquier lugar y en todas partes, por su naturaleza será impulsada por el negocio."
Mientras los equipos de TI se acomodan a esta nueva perspectiva, las organizaciones deben prepararse para afrontar los retos y desafíos de TI, los cuales han posibilitado el surgimiento de tendencias en el mercado.
El nombre de esta tendencia puede prestarse para confusiones, puesto que no quiere decir que no exista la capa de procesamiento en este nuevo esquema de computación, sino que la complejidad de su aprovisionamiento, administración y asignación de recursos será completa responsabilidad del proveedor de servicios. Esto nos introduce un nuevo modelo de despliegue llamado funciones de plataforma como servicio o FPaaS, por sus siglas en inglés (Function Platform as a Service). Por lo tanto, esta nueva arquitectura posibilita que las organizaciones accedan a plataformas para el desarrollo, ejecución y gestión de aplicaciones, mientras se abstraen de la complejidad de la infraestructura subyacente.
FPaaS posibilita el uso de funciones que a través de código puedan ejecutar de manera rápida y automática las tareas de aprovisionamiento, configuración y gestión de la infraestructura, todo esto sin la intervención de las organizaciones ni del proveedor de servicios. El modelo de pago de esta tendencia típicamente es granular, es decir, pago por el consumo de los componentes involucrados en la arquitectura de TI de sus aplicaciones.
La computación sin servidor no reemplaza tendencias como contenedores o máquinas virtuales, cada uno de estos posee sus casos de uso específicos de acuerdo a la compatibilidad con la plataforma de sus aplicaciones, el nivel de visibilidad que se espera sobre la operación y desempeño de la infraestructura, el tamaño de las transacciones de su aplicación, entre otros. El que no sea reemplazable, quiere decir que en algunos escenarios es posible poder contar con la interacción de ambos enfoques, es decir, tanto contenedores como soluciones de computación sin servidor, lo que puede resultar en eficiencias en costos y en el procesamiento de sus transacciones de negocio.
La inteligencia artificial está impactando la infraestructura y la operación de TI para involucrarse en el reconocimiento de fallas, la analítica predictiva y otras funciones que posibilitarán que TI sea capaz de acceder rápidamente a información crítica de la infraestructura, las plataformas, las aplicaciones y los servicios.
Si nuestro negocio se encuentra en crecimiento y tenemos un plan de adopción de nueva infraestructura de TI, así como nuevas plataformas y tecnologías de computación, es esencial que nos podamos cuestionar, ¿Cuál es el valor que la inteligencia artificial le puede entregar no sólo a la creciente arquitectura de TI de sus aplicaciones sino también al equipo humano que lo administra y opera? ¿Qué tan crítico es para su negocio detectar de manera oportuna los problemas de operación?, ¿qué tal si recibe predicciones y recomendaciones sobre las acciones inmediatas que debe ejecutar su equipo para evitar degradaciones del servicio? Valdría la pena.
La red es la que posibilita todo lo que TI y el negocio necesita para la operación de sus aplicaciones y servicios digitales. Además, habilita la interacción entre los diferentes modelos de computación, sean servicios de nube híbrida, IoT, computación en el borde, entre otros.
La red se diseña para soportar una transferencia física de datos a través de un medio que puede ser cableado o inalámbrico. Este medio utiliza un protocolo de datos, que a una velocidad dada soporta el flujo de un conjunto de bits por una unidad de tiempo. Por ejemplo, Mbs (Megabits por segundo), GBs (Gigabyte por segundo), Gigae ( Gigabit por segundo en Ethernet).
Esta red se debe diseñar con alta disponibilidad y agilidad para atender de manera veloz las transacciones provenientes tanto de su centro de datos local como de la nube, lo cual se puede lograr con capacidades de automatización y orquestación. Por lo tanto, en el hoy, la red debe evolucionar para no convertirse en un cuello de botella para el negocio, sino que posibilite un mayor flujo de datos para atender las 'cosas', las terminales y las transacciones de los usuarios.
Surge una gran tendencia que lleva a TI a analizar si el centro de datos y la proyección esperada de crecimiento se debe alojar en arquitecturas tradicionales de TI, con las limitaciones que eso conlleva. Los negocios necesitan más agilidad y si el centro de datos actual no lo provee, entonces ha llegado la hora de migrar sus cargas de trabajo a otro lugar.
Esto no significa que todas las organizaciones contemplarán migrar todas sus aplicaciones a la nube, sino que esta decisión será realizada teniendo en cuenta criterios de agilidad, velocidad, regulaciones para la protección de los datos, fidelización de clientes, entre otras. Por lo tanto además de la nube pública, las organizaciones pueden considerar migrar sus cargas de trabajo a centros de datos de terceros que ofrezcan capacidades de nube privada, o centros de datos definidos por Software que entreguen la agilidad, elasticidad y velocidad que necesitan los negocios modernos.
Gartner predice que para el 2025 el 80% de las organizaciones cerrarán sus centros de datos tradicionales y que de hecho el 10% de las organizaciones ya lo han hecho.
Las aplicaciones y servicios digitales se basan en peticiones que son enviadas por los usuarios, capturadas por un sistema centralizado que las procesa para entregar una respuesta oportuna. Los estudios demuestran que después de 2 segundos de demora para entregar una respuesta, las empresas pueden estar perdiendo clientes. Este gran desafío ha introducido tendencias como la computación en el borde para eliminar el procesamiento centralizado de la información y en su lugar habilitar que cosas, equipos o dispositivos cercanos a los usuarios o consumidores sean capaces de procesar rápidamente la información, para entregar prontamente una respuesta y así evitar los tiempos de inactividad.
Gartner reporta que actualmente el 10% de los datos empresariales son creados y procesados fuera del centro de datos tradicional, pero que para el año 2025 se predice que esto corresponderá a un 75%. Por lo tanto, cada vez más el procesamiento de los datos estará cerca de la fuente que los genera. Estas fuentes típicamente corresponden a sensores que capturan los datos o sistemas más complejos que integran una gestionan una gran variedad de eventos. Por ejemplo, el boom de los relojes fitness que capturan señales de nuestro cuerpo y nos entregan en tiempo real un diagnóstico de nuestro estado de salud; o vehículos inteligentes que capturan información del sistema de semaforización, dispositivos GPS, datos de otros vehículos, sensores de proximidad entre otros.
La computación en el borde pasa a ser entonces la extensión descentralizada de las redes de su centro de datos o de la nube. Lo que a su vez simplificará los requerimientos computacionales centralizados necesarios para manejar un gran volumen de datos que se crea a gran velocidad y cada vez con mayor frecuencia.
Las empresas modernas son el resultado de la adopción de una gran variedad de activos y tecnologías, y se vuelve esencial identificar, supervisar y gestionar aquellas que impactan de manera directa la operación del negocio. Sin embargo la poca visibilidad y precisión en cuanto al estado de salud y operación de estos activos digitales, se resume en información que no es precisa y en decisiones erradas que conllevan a nuevas adquisiciones de hardware, software y licencias, es decir, pérdida de dinero, esfuerzos y tiempo. Por lo tanto, esta tendencia busca que las organizaciones mantengan un inventario preciso sobre los activos y las tecnologías de TI de diferente naturaleza para entregar un único panel de visibilidad y control.
Los servicios que entrega I&O para el negocio han evolucionado de modelos de computación en centros de datos tradicionales hacia la nube, de manera que ahora el nuevo rol de I&O es extender sus capacidades para soportar estrategias de nube híbrida, de manera que sean capaces de optimizar costos y simplificar el gobierno, la administración y operación de los servicios en la nube. El gran desafío de la adopción de los servicios en la nube son los controles de seguridad y la exposición a costos inesperados.
Entregar software como servicios (SaaS) suele ser muy atractivo para las organizaciones, sin embargo, en el mercado aún se percibe mucha resistencia de llegar a este modelo de despliegue por las carencias de conocimiento a nivel de seguridad y cumplimiento. Por lo tanto, Gartner predice una creciente adopción en la entrega y soporte de servicios basados en soluciones IaaS y PaaS. Mientras tanto, para la migración hacia un modelo SaaS se requiere que el equipo de I&O se prepare para ganar el conocimiento necesario, ofrecer las integraciones empresariales que sean requeridas y la capacidad de entregar los servicios SaaS que los negocios necesitan.
El área de TI está acostumbrada a estructurar su equipo humano basado en el nivel de experiencia, por lo que típicamente contamos con nivel 1, nivel 2 y hasta nivel 3 de conocimiento de alguna tecnología o plataforma. Aunque el modelo actual es contratar personal para que siga siendo experto, esta organización vertical ya no es suficiente, sino que ahora se requiere un alcance horizontal, es decir, un enfoque colaborativo en el que las personas tengan la capacidad de trabajar con varios equipos.
Este nuevo alcance requiere una transformación a nivel de la cultura tanto de la organización como de aquellos expertos dedicados a su tecnología o plataforma. El éxito de una estrategia híbrida TI está en el talento que lo soporta.
Los servicios y aplicaciones digitales tienen la capacidad de poder expandirse de manera global y para esto el equipo de I&O debe poder estar en la capacidad de entregar una infraestructura en cualquier lugar. Este enfoque global viene de la mano de un bien escogido ecosistema de partners que puedan acompañar a su organización en esa presencia global, para habilitar las capacidades de infraestructura y soporte que sean requeridas por sus usuarios globales.
[vc-vc-snippet id="30073"]