All posts by ivancho190

3 aspectos relevantes que aprendi del libro Cloud Computing

Recibi la recomendación de este libro por un amigo en una conversación  donde estabamos discutiendo acerca de como en America Latina la masificación de la computación en la nube ha ido a un ritmo muy lento, en comparación con otras regiones del mundo. Llegamos a una conclusión que no hemos podido comprender con detalle realmente los principios del Cloud Computing.

Algunos hace un tiempo (me incluyo) creiamos que la computación en la nube era algo así como la versión 2 de la virtualización, en donde utilizando algunas herramientas de tecnologia y virtualización, lograriamos vender el concepto en el mercado. ¡grave error!.. por eso creo que si hasta este momento usted en algun momento pensaba lo mismo, este libro le puede ayudar.

Este libro escrito por NAYAN RUPARELIA Chief Technologist en HP UK, presenta de manera sencilla y clara los conceptos principales de la computación en la nube (Ya se que son muy familiares para usted los terminos IAAS, SAAS, etc). Iniciando con una definición un poco más real de los modelos de cloud, las principales caracteristicas, los beneficios, casos de uso, transición, entre otros.

Pues bien quiero resaltar lo que queda en mi mente luego de leerlo y estudiar algunos articulos adicionales que a continuacion voy a compartir:

  1. Enfoque de Negocio y/o Empresarial: Cloud Computing como lo escribi hace unos dias en mi twitter: “La virtualizacion es un habilitador para el cloud computing, pero el cloud computing es mucho más que virtualización” En este punto creo que es uno de los grandes errores de nuestra región, el gran habilitador en mi opinión para el cloud computing son los casos de uso reales de negocio. Es decir que partiendo de necesidades y retos a solucionar con una perspectiva de negocio, se llega de mejor manera ha aprovechar los grandes beneficios.
  2. Estrategia: Tenemos grandes recursos técnicos capaces de desplegar cuanta herramienta tecnológica se libere en el mercado, sin embargo considero que lo más importante frente a cualquier proyecto que pretenda llevar a x cliente hacia un modelo privado, publico, hibrido, comunidad, blablabla , es la estrategia (conozco casos de clientes que compraron herramientas sofisticadas de cloud computing, pero no supieron potencializar el poder, y se quedaron con herramientas que nunca volvieron a utilizar (miles de dolares perdidos)).                 Recomiendo que le den una mirada a este interesante blog de una de las autoridades en materia de cloud computing, quien hace una reflexión con respecto a los expertos en computación en la nube que hay en el mercado. https://www.linkedin.com/pulse/hiring-cloud-strategists-miha-kralj. Estrategia, como arrancamos?, que problematica de negocio pretendo solucionar?, cuál es el plan de transición hacia la nube y roadmap, impacto económico del modelo, adopción, entre otros.
  3. DevOps: Los ultimos 3 meses me he dado a la tarea de evolucionar un poco la definición que tenia acerca de devops encontrandome con gran satisfacción un monton de información acerca de “Cultura DevOps”, “Herramientas DevOps”, “Estrategia”, “procesos de maduración”, lei 2 libros,  entre muchos de los que no hablaré en este post que pienso escribir en otros más adelante.     En ese camino la forma sencilla de explicar, luego de ver algunas diferencias en definición es la siguiente. Recuerda la famosa pelicula “FAST and FURIOUS”, bien para mi DevOps dentro de la computación en la nube es como el boton de NITRO que existia en los autos de la pelicula. Una vez que los autos iban a altas velocidades, solo oprimiendo sutilmente dicho boton, el auto lograba un impulso y aceleración woow. Me atreveria a decir que Cloud Computing sin DevOps seria desaprovechar muchos de los principales beneficios del modelo.

DevOps tambien es mucho más que herramientas tecnologicas ( he sido insistente en el termino “herramientas tecnologicas “, porque creo que necesitamos elevar la definición). DevOps encierra una cultura enfocada en la agilidad y mutua colaboración, entendiendo que dicha colaboración entre equipos, acompañada de una correcta estrategia y enfoque de negocio, sumado a herramientas y soluciones tecnologicas apropiadas, puede ayudar a las organizaciones a ser mejores y mucho más competitivas en el entorno actual,  donde la competitividad, orientación al servicio, y la disponibilidad hacen la diferencia en cualquier industria.

Personamente creo que hoy en dia los negocios son movidos por la tecnologia, en donde con una correcta orientación, interpretación de negocio y un buen conocimiento tecnológico de las soluciones se pueden masificar de una  mejor manera el cloud computing. Esto me lleva a pensar en que los perfiles de los que trabajamos en TI deben evolucionar y transformarse, Haciendo una ponderación sencilla me atreveria a decir y pudiendo equivocarme, que en un proyecto ideal de cloud computing deberia tener un 35% de estrategia, 35% de enfoque de negocio y un 30% de herramientas tecnologicas.

Me queda mucho por aprender, ya no quiero enfocarme tanto en la herramientas, quiero que mis proximos blogs sean entradas con mayor contenido de estrategia y metodologia para ayudar a construir un marco de trabajo real de adopción de cloud computing para las empresas en america latina.

 

 

Welcome to the 2017 Nutanix Technology Champions (NTC)

Fue para mi todo un placer recibir la comunicación por parte de Nutanix de haber sido elegido como NTC 2017.

https://next.nutanix.com/t5/Nutanix-Connect-Blog/Welcome-to-the-2017-Nutanix-Technology-Champions-NTC/ba-p/15978

Nutanix Technology Champion es un programa que busca reconocer  a las personas por sus  contribuciones en la tecnología,  son destacados alrededor del mundo.

Siendo muy honesto, fue un año de bastante trabajo y estudio con la tecnología de Nutanix, presentaciones, pruebas de concepto, horas de estudio, entre otros.

Ser el primer Colombiano en recibirlo me llena de mucho orgullo y satisfaccion. Quiero agradecer a Camilo Duran, Sergio Martin, Lino Rojas, Eduardo Franco y Oscar Villa por su especial apoyo.

Se viene un 2017 con muchos retos, espero poder continuar con el desarrollo de esta espectacular tecnología!

 

Soluciones 100% en software para casos de uso reales (Nutanix y Zerto)

Hace casi un año me enfrente a un gran reto. Nos encontrabamos reemplazando una solucion tradicional de 3 capas (Servidores, Almacenamiento y Switches SAN) en ambientes fisicos, la cual ibamos a virtualizar hacia Nutanix. Teniamos 2 grandes retos, primero que todo la virtualización de las bases de datos de mision critica y segundo el cambio de arquitectura hacia webscale.

Ya habiamos pasado la etapa de la prueba de concepto en donde teniamos ya varios criterios aprobados en Nutanix como Desempeño, Simplicidad, entre otros. Finalizando lo que ya para nosotros era casi otro proyecto, tuvimos un requerimiento bastante especial. Nuestro cliente requeria una solucion de protección local, que le permitiriera tener tiempos de RPO de segundos y RTO de minutos en su base de datos de mision critica que tenia un tamaño aproximado de 6TB con un alto nivel de transaccionabilidad, con puntos de recuperación máximo de 1 minuto por 5 dias. (Un requerimiento bastante exigente).

En principio exploramos varias opciones de protección tipo backup (Le quiero decir que tenemos en el equipo gente que conoce bastante de soluciones de backup) pero era evidente que era imposible recuperar 6TB en minutos, ni siquiera incluyendo tecnologias de backup y recuperación en disco optimizadas sin tener que hacer procesos de recuperación.
Pues bien, luego de varios dias de pensar como lograrlo tuvimos una idea, replicacion local con Zerto, aprovechando CDP, la replicacion a nivel de hipervisor y las técnicas que tiene para realizar test-failover muy rapidamente. Tenia ya alguna experiencia de proyectos con Zerto, conocia sus beneficios, pero evidentemente el requerimiento acá era muy exigente.

Si usted hasta este punto no conoce mucho de Zerto, quiero decirle que su CEO Ziv Kedem en mi opinion es uno de las personas sobre la faz de la tierra que más conoce de replicacion de datos. De hecho EMC adquirio su empresa Kashya http://israel.emc.com/about/news/press/us/2006/05092006-4371.htm en el 2006, justamente por su tecnologia de replicacion avanzada CDP. Despues de la adquisición Ziv fue VP en EMC para Recovery Point, posterior a esto y al mejor estilo de las mentes poderosas en tecnologia como Martin Casado, entre otros, Fundo Zerto. Asi que si hasta este momento usted pensaba de donde salio Zerto? Esta es mi version corta de la historia.
Volviendo al punto, voy a compartir lo que pasaba por mi cabeza en ese momento:
El overhead de tener 2 appliance tratando los datos en linea (CVM-VRA) ??
6TB evidentemente era un gran volumen de datos para una VM sobre vSphere, Zerto tendra algun impacto?
La base de datos tenia altos requerimientos en IOPS, Procesamiento y RAM, Zerto causara Latencias?

Luego de conversar y tener la opinion de algunos amigos y especialistas de la industria, (Michael Webster, Joshua Stenhouse, entre otros), llegamos a la conclusión que seria una buena idea. El equipo de Zerto decia que tiene bases de datos con esa cantidad de datos con RPO de segundos sin problemas, pero en ambientes tradicionales y sitios alternos,pero no replicando de manera local con una arquitectura webscale como Nutanix….acá era donde teniamos el reto.
Pues bien cual era el camino, realizar algunas pruebas antes de considerar la solución y proponerla a nuestro cliente.

A continuacion voy a compartir algunas imagenes de los resultados que obtuvimos en las pruebas. Si usted esta considerando o tiene un requerimiento similar la información que voy a compartir le será de mucha utilidad. (Este post tiene casi un año guardado….quisiera escribir más, pero el tiempo no lo permite)

Lo que yo queria probar con mayor urgencia era lo siguiente:

  1. Comportamiento de recursos en CVM y VRA con alta transaccionalidad en la base de datos.
  2. vMotion con alta transaccionalidad, observando los recursos en CVM y VRA en el host origen y destino.
  3. RPO y RTO de recuperación
  4. Consumo de datos
  5. Consistencia de recuperación (Zerto trabaja en modo crash consistency)
  6. Comportamiento de maquina virtual recuperada, puesto que sobre ella se ejecutarian proceso

Imagen 1 Configuracion de la maquina virtual:

Nota: Recomiendo tener presente el documento de mejores practicas para SQL, con el fin de tener presente todas las consideraciones.


Imagen 2: Carga de IOPS


Imagen 3: Monitoreo de recursos


Rojo:
Maquina virtual 3TB con carga  830 a 1000 IOPS 100% write, Latencia 1ms. CPU Usage 2%, Memory Usage 9%
Azul: VRA Zerto destino 334 IOPS Read Latencia 2.79ms. CPU Usage 91%, Memory Usage 6% (Config de CPU en esta máquina es 1 vCPU)
Verde: CMV local. CPU Usage 46.5%, Memory Usage 16%
Nota: Cuando vi esta imagen tuve un muy buen dia.
Imagen 4: Monitoreo de puntos de consistencia (Para cumplir con requerimientos de RPO e historico de 4 dias)

 

Nota: Como lo imaginada, aunque la maquina tenia alto nivel de transaccionalidad, los puntos de consistencia eran igual que en maquinas virtuales de propósito general. Es decir segundos, Sin afectar las 2 capas de control por software que estaban teniendo los datos CVM y VRA.


Imagen 5,6,7,8,9,10,11 : Monitoreo de fail-over test (Para cumplir con requerimiento de RTO)

Notas: Realice 4 pruebas de test-failover obteniendo en las 4 pruebas menos de 10 minutos de RTO. Lo más interesante de todo es que siempre la maquina virtual principal estuvo ejecutando procesos de escritura de datos.


Imagen 12,13 : Monitoreo de recursos en estado fail-over test generando carga en la maquina de recuperacion (testing-recovery)

Rojo: Maquina virtual 3TB con carga  800 iops 100% write, Latencia 3.2ms. CPU Usage 2%, Memory Usage 5%.
Azul: VRA Zerto destino 258 IOPS Read , 464 iops Write, Latencia 9.8ms. CPU Usage 5%, Memory Usage 14%.  (Configuración de CPU en esta máquina es 1 vCPU)
Verde: CMV local. CPU Usage 71%, Memory Usage 19%.
Amarillo: Maquina virtual iniciada en test fail-over 120 iops Read, 159 iops Write, Latencia 7ms, CPU Usage 5%, Memory Usage 14%.

Notas: Una de las cosas que más interesantes que se observan en la imagen es el poder de la localidad de los datos (Data Locality), el buen desempeño que pudimos obtener, teniendo en todo momento carga de datos.

Ahora entiendo porque a diferencia de otras HCI del mercado que tienen temor de ofrecer para misión critica sus soluciones, NUTANIX dice con toda tranquilidad, yo lo hago y lo hago muy bien.

Acá vemos trabajando los algoritmos de DFS de Nutanix realmente. Una de las pruebas que realice cuando tuve mis primeros nodos en frente fue vMotion hacia otro host con carga 100% write, en donde los principios de distribución se verian a profundidad. Pues bien una de las cosas que pude evidenciar es que la penalización (por llamarlo de algun modo) mientras el sistema de archivos detecta que la maquina esta trabajando en otro host y mueve los datos para que esten servidos de manera local fue unicamente del 20% un par de minutos. Es decir que sobre esta maquina con 100% write (lo cual seria el peor escenario) dando 1000 IOPS, una vez movida hacia otro host en caliente, pude observar que durante 1 o 2 minutos disminuyo su performance unicamente en un 20%, es decir paso de 1000 IOPS a 800 IOPS unicamente durante 2 o 3 minutos, luego de esto recupero nuevamente sus 1000 IOPS cual el sistema de archivos distribuido identifico que la maquina estaba en otro host. Interesante no?. En este aspecto Nutanix golpea fuertemente a cualquier solución HCI del mercado .
Para no hacer más larga esta gran historia, a nuestro cliente le gusto mucho la solución propuesta. Ya en producción tuvimos que hacer algunos ajustes para cumplir 100% como algunos scripts para mantener un poco más los CP (consistency Points).

Hoy en dia el cliente esta muy satisfecho con toda la solución propuesta. De hecho luego de esta muy buena experiencia, vinieron otros proyectos en donde la combinacion de Nutanix + Zerto es impresionante.

 

Rock on!

Buena combinación no creen? Nutanix + Zerto + PernixData será sobre lo que escribiré en el futuro.

Esta perdiendo importancia el hipervisor?

En este último tiempo en donde los términos cloud computing, croos-cloud, hybrid cloud, multi-cloud entre otros, que cada vez más se inventan los fabricantes para posicionar sus diferentes estrategias de nube, he observado y seguramente muchos de ustedes también que la base de muchas de estas tecnologías, que en un principio iniciaron siendo virtualización tradicional, fueron evolucionando y ofreciendo mejores funcionalidades, rompiendo paradigmas y hasta cambiando modelos de operación de tecnología dentro de las organizaciones.
Estos buenos resultados se lograron principalmente con los beneficios que obtuvimos con la virtualización, la cual en la mayoría de los casos tenia su éxito en  escoger el hypervisor que mejores funcionalidades pudiera ofrecer, garantizando que las diferentes aplicaciones corporativas pudieran estar en un ambiente que minimizara el impacto de la virtualización y los temores que en su momento tenia la virtualización.
Pues bien, en este mercado tenemos 2 jugadores principales:
VMware y Hyper-V. VMware acá tuvo un papel fundamente y hoy en día sin temor a equivocarme diría que es el hipervisor con mayor desarrollo, funcionalidades y como decía un conocido “es tan buen producto, que aun que lo instalen mal, funciona”.
Microsoft por su parte fue poniendo bastante foco en Hyper-v el cual también al día de hoy es una buena opción con beneficios económicos y de integración especialmente con plataformas Microsoft desde el punto de vista de licenciamiento.
Muy a la distancia de estos 2 grandes lideres, encontramos a Citrix con XenServer, Red Hat con KVM (Acrópolis para Nutanix), Oracle con OVM y otros más. Estos últimos con casos de uso un poco más cercanos a sus aplicaciones. Mejores, peores, baratos o no, pero eran una opción más para ofrecer a sus clientes.
Pues bien, luego de esta pequeña introducción, vuelvo al título de este post “Está perdiendo importancia el hipervisor”, mi respuesta rápida seria SI. De hecho, los grandes líderes de este mercado han declarado públicamente que el valor de sus nuevos productos está en las herramientas de automatización y orquestación que pueden ofrecer, viendo de alguna manera como un componente más “el hipervisor”.
Las grandes compañias de servicios de computación en la nube son muy conocidas por construir modelos costo efectivos que logran ofrecer grandes beneficios en tecnología a precios muy competitivos. ¿Cómo logran esto?, pues bien muchas de sus infraestructuras no ejecutan propiamente las mejores y más poderosas funcionalidades a nivel de hipervisores. Se ha dicho por ejemplo que AWS, Rackspace en gran parte utilizan hipervisores como XenServer, KVM, entre otros, los cuales les permiten tener una oferta muy competitiva (En otro post hablaremos porque estratégicamente hablando se enfocan en otras cosas con mayor importancia como las aplicaciones).
La pregunta es ¿cuales son los criterios más importantes que debería tener presente a la hora de escoger un hipervisor?, pues bien quise presentar en mi opinion los 8 cosas que debería tener en cuenta cualquier persona que este evaluando, comparando o pensando en cambiar su plataforma de virtualización (hipervisor):

1. Administración: La administración y gestión es fundamental para cualquier operación de TI. Aunque el hipervisor pareciera ser un componente que una vez implementado, no suele tener muchos cambios en el día a día, es importante considerar la carga administrativa y el impacto que podría tener sobre los administradores. Típicamente es uno de los puntos que se compara con el precio para buscar un costo/beneficio que apalanque la decision.

Mi recomendación es, si quieres optimizar tus tiempos en la gestión y operación de TI, busca opciones de hipervisor que faciliten esto, por ejemplo las que incluyan: herramientas para gestionar la capacidad, interfaces intuitivas y sencillas de operar y mecanismos propios de orquestación y automatización de tareas.
2. Madurez: Pareciera ser un punto relacionado al marketing, pero realmente es importante saber que cada hipervisor tiene un nivel de madurez. Eso significa que al menos debería validarse que no se encuentre en sus primeras versiones beta y que en la actualidad cuente con compañías que ya tengan dicho hypervisor en producción.
La madurez se podría medir por el tiempo de liberación del producto, el numero de parches o actualizaciones que se liberan para la corrección de errores, así como las versiones que han sido liberadas a la fecha. Solo el tiempo dirá, lo que el marketing no.
Mi recomendación pregunta cuantas versiones han sido liberadas del producto, que clientes lo ejecutan a la fecha y tómate el tiempo de hacer algunas llamadas con el fin de preguntar acerca de su experiencia y lo más importante que tu caso de uso haya sido probado.
Ahora, no esta mal un poco de riesgo si quieres ser uno de los primeros en adoptar la tecnología y cuentas con el apoyo del fabricante no?
3. Experiencia y conocimiento: En este punto hago referencia al conocimiento técnico que pueda tener y desarrollar el personal técnico. Por ejemplo es mucho más fácil para un administrador de Windows, ir hacia Hyper-v que seguramente hacia una plataforma de virtualización como KVM y viceversa. He tenido amigos y clientes que no titubean al pensar en una plataforma OpenSource, mientras que en otros casos no se considera, por los altos riesgos y complejidades en el soporte. Se convierte en un tema de comodidad y afinidad, el cual en mi opinion es fundamental.
Mi Recomendación es si crees que tienes la experiencia y estas dispuesto a tener que lanzar algunas lineas de código adicionales. atrévete a probar algo nuevo o porque no?


4.Esquemas de licenciamiento y precios: El punto critico de esta discusión, tenemos lo mejor a costos altos y/o en el otro extremo opciones de virtualización básicas que ofrecen beneficios asociados a licenciamiento de aplicaciones ó bases de datos. Ambos en mi opinion con un enfoque un poco extorsionista.  Entender los esquemas de licenciamiento, las versiones y los precios van a poder ayudar a escoger el adecuado. He visto muchos casos en donde clientes y amigos adquieren el mejor licenciamiento sin utilizarlo. En este punto también es importante entender con mayor nivel de detalle el licenciamiento en las aplicaciones que vas a ejecutar (Oracle, Microsoft SQL, etc).
Mi Recomendación “asegurate” de entender las políticas de licenciamiento y tomar el tiempo necesario para leerlo por ti mismo. He visto casos en donde fue mejor tomar un tiempo para entender esta información , con el fin de elaborar un buen diseño que cubriera por supuesto una viabilidad económica y técnica de un proyecto de virtualización de aplicaciones de misión critica. Algunas veces el desconocimiento del mismo, podría hacerte caer en multas o pagos adicionales.


5. Necesidades y requerimientos: El que más me gusta evaluar, ¿Qué requiero y espero del hipervisor? ¿Qué esperan mis maquinas virtuales? Que esperan mis aplicaciones?. Este punto es fundamental y debería tener un porcentaje alto de calificación en una matriz de evaluación. Por ejemplo si necesito en mi compañía funcionalidades avanzadas desde el hypervisor para cumplir con los requerimientos y servicios tecnológicos, debo pensarlo muy bien. Ahora , si por el contrario esas funcionalidad en el hipervisor me importa poco y defino que me interesa invertir en una capa más critica de mis aplicaciones, por ejemplo rendimiento, acceso, etc, es otra historia.
Por ejemplo tuvimos un caso de virtualizacion con una base de datos de misión critica SQL Server, la cual requería de configuraciones especiales, gestión avanzada de recursos virtuales, aseguramiento ante comportamientos atípicos y funcionalidad avanzadas en redes, era evidente que nos daba mucha más confianza un mejor hipervisor, caso contrario un caso de uso en donde la capa más importante del servicio era el acceso a las aplicaciones y la experiencia de usuario, contando con una configuración bastante tradicional a nivel de conectividad y acceso a recursos, en donde se necesitaba una inversion en una capa más critica, por supuesto nuestra decisión fue un hipervisor con funcionalidades básicas. Resumiendo un bueno diseño como dice Josh Odgers es aquel que cumple con requerimientos y casos de uso, más que con mejores practicas, etc.
Mi Recomendación asegurate de tener una persona a tu lado que esta comprendiendo el requerimiento y las necesidades reales de tu proyecto de virtualización, que pueda desde la experiencia emitir un concepto honesto y real de las necesidades.


6. Funcionalidades avanzadas: Existen algunos casos de uso que requieren de funcionalidad avanzadas como integración y soporte con tarjetas gráficas en 3D, dispositivos externos, gestión avanzada y proactiva de recursos a nivel de hypervisor, así como la integración con herramientas de terceros. En ese aspecto debes asegurar dicho soporte. Típicamente las funcionalidad avanzadas están en las versiones de licenciamiento más completas, por lo que su inversion debe estar debidamente argumentada.
Mi recomendación asegurate de validar los puntos críticos de los servicios a virtualizar, con el objetivo de evitar sorpresas y hacer inversiones apropiadas. Conozco de varias historias de clientes y amigos que están subutilizando el licenciamiento por desconocimiento.


7. Compatibilidad y soporte: Este punto es bastante critico, puesto que suele ser el más valorado, pero el cual podría hacer fracasar cualquier iniciativa de virtualización de no contar con el nivel de detalle requerido. En sistemas tradicionales de 3 capas (servidores, almacenamiento, switches) es aun más complejo dicha validación, puesto que el soporte debe validarse contra todos los diferentes componentes de hardware y software. (HBA´s, Firmware, etc,) En sistemas webscale definitivamente es más sencillo, pero no menos importante.
Mi Recomendación solicita la conocida HCL o Matriz de compatibilidad la cual debe incluir las versiones de hypervisor y hardware , las  versiones de sistemas operativos  (invitados o guest) soportados sobre el hypervisor.


8. Estrategia: La vision que tienen las compañías acerca de su apuesta en el componente de hipervisor es importante, puesto que permite tener la confianza de que la compañía tiene un alto interés en seguir desarrollando su producto y mejorarlo, para habilitar nuevas funcionalidad. En ese sentido y con algunos de los casos de uso que tenemos el día de hoy, como por ejemplo tener una version de hipervisor en el centro de datos alterno y otra en el sitio secundario para optimizar costos, cobra mucho sentido tener posibilidades para conversion y/o integración entre diferentes plataformas.
Por ejemplo, Si una compañía no se esfuerza por ofrecer a sus clientes alternativas y casos de uso que se ven traducidos en beneficios económicos y técnicos que extienden en nuevas funcionalidades, incluso sabiendo que podría vender menos, pero mejor. contrario a eso la compañía que centra su mensaje en ofrecer y bloquear a sus clientes hacia su única plataforma de virtualización. Acá tendríamos 2 posibles síntomas, o te quiere extorsionar o sencillamente esta desconocimiento los requerimientos de los clientes en el siglo XXI.
Mi recomendación preguntarle a tu proveedor como ha sido el desarrollo del producto en las ultimas versiones, que tantas funcionalidad se han ido adicionando y sobre todo cual es el roadmap del producto a futuro.


Si me lo permite querido lector que luego de un blog tan largo lo mínimo que espera en este punto es que concluya. Quiero decirle a usted que tal vez es un administrador de virtualización en una compañía muy grande con cientos de maquinas virtuales, consultor, empresario, o sencillamente paso por acá y se encontró este blog,  después de leer este blog, le tengo una buena noticia. Tiene diferentes alternativas que puede evaluar para su compañía. Seguramente usted debe tener otros factores importantes para evaluar a la hora de escoger un hipervisor, pero definitivamente creo que con la alta adopción que ha tenido la virtuaizacion en los últimos 5 años, el hypervisor es un componente muy importante dentro de su arquitectura y lo habilitara para nuevos desafios , sin embargo con un buen asesoramiento tecnológico, podría encontrar el balance ideal entre el precio y los beneficios.

Impresiones acerca de el ultimo reporte de Gartner 2016 “Integrated Systems”

El pasado 10 de Octubre fue Liberado el ultimo reporte de Gartner 2016 en donde tipicamente analizan las tecnologias de sistemas integrados. Por mi actual posición como Arquitecto de Soluciones y Pre-Sales, he tenido la oportunidad de venir siguiendo estos analisis de gartner, incluso desde antes que lo hubieran denominado systemas integrados. Recuerdo que hace unos años Garner tenia 2 categorias “Almacenamiento de proposito General y Servidores de Blade”. Este cambio transcendental surgio en mi opinion, por que los fabricantes se dieron cuenta que seguir vendiendo sistemas que los clientes tenian que armar y configurar no estaba teniendo buenos resultados. Por esta Razon se empezaron a ver Alianzas como CISCO-NETAPP (FlexPod), CISCO-EMC-VMware (VCE), Oracle, etc, con el tiempo surgieron las tecnologias de Hyperconvergencia como Nutanix, Simplivity y el tema se fue haciendo un poco más complejo de analizar, porque de por si en mi opinion la Convergencia y la Hyperconvergencia son bastante diferentes.

Pues bien, en la siguiente imagen se puede observar el panorama del analisis realizado por Garner, en muchos casos despreciado por algunos que a veces piensan que es una herramienta de mercadeo para vender (No lo comparto del todo) por otro lado, tambien es utilizado por los mismos fabricantes para analizar sus proximas adquisiciones con el proposito de avanzar o en el terreno de mejorar su visión o en su capacidad de ejecucion en el mercado.

El analizar este reporte suele  ser un poco complejo año tras año, la razón “adquisiciones”. Esto puede facilmente mover a una compañia desde el terreno de los visionarios hacia los lideres. Lo importante tambien creo yo para analizar en muchos casos, más alla de la imagen es lo que contiene el documento. En donde se hace un pequeño resumen de las fortalezas de cada una de las tecnologias y las debilidades o precauciones.

Estos ultimos 2 puntos, suelen ser en donde se hace un resumen muy general de los aspectos encontrados en el analisis. Siendo muy importante recalcar lo que el mismo Gartner Analiza y sus criterios de evaluación:

Como se puede observar no solo se analizan aspectos técnicos y de ventas, recuerdo que incluso hace unos años en un reporte se mostraban las deficiencias que tenia un fabricante que tomo la desicion de cambiar un componente muy importante de Software, el cual estaba impactando negativamente los proceso de sus clientes.

Pues bien, luego de esta corta pero clara introducción (espero) y entrando un poco a analizar el reporte desde un punto de vista global y sin el proposito de sonar vendedor de tecnologia (seriamente ja!), lo que si muestra evidentemente el reporte es como la Hyperconvergencia se ha tomado una parte del mercado, arrancando por el mismo documento  el cual se puede ver en linea en el siguiente link:

https://www.gartner.com/doc/reprints?id=1-3JMR7FG&ct=161010&st=sb

El resumen del reporte arranca con hyperconvergencia, luego SDS (Software Defined Storage).  Sin embargo un 60% de las soluciones que se estan comparando, no son Hyperconvergencia y dentro de ese 40% restante que si es HCI, diria que solo hay unas 2 o máximo 3 alternativas decentes de hyperconvergencia.

En mi sección de arquitectura, trato de no tocar mucho fabricantes porque busco dar un punto de vista un poco más agnóstico, a continuacion voy a presentar algunas de las conclusiones principales que veo luego de leer todo el reporte:

1. Como lo dice el mercado hoy unicamente un 5% cuenta con soluciones de SDS y HCI  especificamente para soluciones de almacenamiento y para el 2020 el 20% de las aplicaciones de mision critica estara corriendo sobre HCI. En mi opinion muy lenta la adopción y penetracion de mercado, conociendo los beneficios cual es el problema? Intereses economicos? desarrollo de tecnologias? I don´t Know.

2. Las adquisiciones han sido parte fundamental, aunque en este reporte no se tuvo en cuenta la adquisicion de EMC por parte de DELL, se espera que con la union de estos 2 grandes del mercado de tecnologia, pareciera al menos que en ejecucion serán los grandes lideres.

3. Nutanix y Simplivity han tenido un papel muy importante en el desarrollo de este mercado, con soluciones desde el punto de vista de arquitectura y componentes completamente diferentes, al ser start-ups con tan poco tiempo en el mercado ya estan apareciendo claramente frente a los grandes que llevan más de 20 años en el mercado.

4.  Por otro lado me sorprende un poco el adormecimiento que tienen algunas compañias frente a esta realidad y solo por nombrar a algunas (Hitachi, Oracle, NetApp, Teradata, etc) que siendo parte fundamente del mercado de almacenamiento parecieran no haber entendido el paradigma que rompio la virtualización y las soluciones de HCI. Mi comentario es una critica fuerte al concepto de arquitectura de 3 capas en  ambientes de virtualización.

5. Asi como hago una critica constructiva en el punto anterior, tambien reconozco que hubo compañias que si entendieron este nuevo paradigma (HPE, CISCO, DELL, EMC) quienes bien o mal, con soluciones maduras o no,  ya estan entrando con al mercado de HCI. Para mi eso es innovación y estrategia, y sobre todo entender que el mundo cambia. Sin embargo, critico de estos mismos su afan por desprestigiar los nuevos startups, quienes abrieron un camino en este mercado y aunque sea dificil aceptarlo, en algunos casos cuentan con mejor visión tecnológica e innovación.

Pues bien, queria compartir con ustedes un análisis rapido de mi punto de vista frente a este ultimo reporte de Gartner, como siembre los que estamos involucrados en este hermoso mundo de la tecnologia, tenemos la responsabilidad de reinventarnos y buscar hacer cada dia mejor las cosas.

Saludos,

IvánC.

VMworld 2016 vBrownBag TechTalk Nutanix (Las Vegas, Nevada)

Este año tuve la oportunidad de compartir una pequeña charla acerca de las principales diferencias desde el punto de vista de Arquitectura entre Nutanix vs Arquitecturas tradicionales.  Algunos me decian “Como se te ocurre hablar de un tema como estos en un evento en donde VMware esta considerando a Nutanix como su principal competencia”, Pues bien, en medio de todos los temas que comercialmente podrian afectar, me atrevi a preparar algunos slides bastante sencillos que permitieran en menos de 15 minutos, compartir a los que no han tenido la oportunidad de conocer estas tecnologias, el valor y los principales beneficios. Como lo dije en medio de la presentación, me falto tanto por mencionar, que seguramente tendre unas proximas sesiones para hablar de algunos puntos importantes y caracteristicas que hacen, que hoy en dia Nutanix en mi opinion y con respecto a los principales competidores en el mercado de HCI, tenga una ventaja considerable, no solo como producto, tambien como Visión.

Les comparto el video que muy amablemente ha sido compartido por los amigos de la comunidad de vBrownBag.

 

Resumen VMworld 2016 Las Vegas, Nevada

El VMworld 2016 regreso a las Vegas luego de unos buenos años en San Francisco, según me contaron algunos amigos la razón fue que el Moscone Center se encontraba en remodelación, lo cual no es información oficial. tengo que confesar también, que me agrada mucho más el ambiente de San Francisco.

Entrando en materia, fue una semana bastante cargada de diferentes sesiones principales, eventos de los fabricantes, relacionamiento con expertos, entre otras actividades. Aproximadamente 23.000 personas alrededor de todos el mundo.

Quiero empezar resaltando lo que más me gusto del evento. en este caso fue conocer al toda la comunidad de vbrownbag y vbrownbagLATAM. Compartimos varios momentos muy especiales con grandes personas en LATINOAMERICA y ESTADOS UNIDOS. Tuvimos la oportunidad de conversar con el CEO y el Presidente de VMUG a nivel mundial, pudiendo comentarla algunas de nuestras impresiones acerca de las comunidades en America latina. Lo más interesante de la sesión que comparto a continuación, es que iniciamos el proceso para tener por primera vez el VMUG en Colombia!, Excelente noticia para todos los entusiastas de la virtualización en el país. Les estaré contando más detalles las próximas semanas. SI estas interesado en participar en la comunidad VMUG en Colombia escríbeme un correo ivancho190@gmail.com o buscame en twitter @ivanrcamargo.

Por otra parte dentro de los anuncios principales en el eventos resalto lo siguiente:

VMware Cloud Foundation que aparenta ser un anuncio muy importante, también porque IBM anuncio una fuerte alianza con VMware para ofrecer servicios.

https://www.vmware.com/products/cloud-foundation.html

Cross-Cloud Architecture también fue uno de los anuncios importantes los cuales buscan facilitar a los clientes las posibilidades de mover sus cargas de trabajo hacia las diferentes nubes.

http://www.vmware.com/company/vmwonecloud/uhc.html

En General fue como siempre una muy bonita experiencia la cual termino en Las Vegas Motor Speedway.

Les comparto algunas de las fotos con amigos en el evento:

El Software se está comiendo al mundo

Cuando era niño nunca olvidaré el sonido del famoso y aclamado juego de pacman. Una de las cosas que disfrutaba mucho era comer

“Power Pellets” para salir a cazar a Shadow (Blinky), Speedy (Pinky), Bashful (Inky) y Pokey (Clyde) mientras solo les quedaba correr.

Luego de la anterior analogía la cual me permitió hacer un símil entre lo que hoy en día estamos presenciando en el apasionante mundo de la tecnología.  Hace unos años vengo trabajando alineado en la conocida estrategia “El datacenter definido por software” (software defined datacenter) Reconozco haber sido uno de los que decía, no será un camino tan fácil para el software. Pues bien, así como pac-man disfrutaba de comer fantasmas, hoy en día el software está comiéndose el mundo y de paso a muchos fantasmas que no han reaccionado. En el siguiente video Jeffrey S. Hammond explica de manera sencilla el mismo principio (contenido en Ingles).

Me sorprende lo que la virtualización logro en sus primeros años y lo que hoy en dia tenemos ante nuestros ojos. Tecnologías emergentes y compañías startups , así como compañías tradicionales de todo tipo moviéndose hacia las ventajas y beneficios del software. En esa misma línea otros fantasmas que sencillamente no entienden lo que está pasando a su alrededor y lo que las nuevas compañías de este siglo están esperando de la tecnología para sus negocios.

Quisiera compartir con ustedes una experiencia que tuve hace unos meses. Enfrentado ante un proyecto muy importante en donde tenía un caso de uso bastante extraño e incluso no tan claro para mi cliente.  Un sistema de hardware con una funcionalidad nativa estaba impidiendo que el cliente diera un salto hacia la virtualización del 100% de su infraestructura sobre un modelo basado en arquitectura webscale. Comprendiendo claramente el caso de uso, entendiendo algunos conceptos de virtualización y combinando algunas tecnologías de software (tengo que reconocer que no parecía fácil), lo logramos BOOM!,  lo mejor del caso fue que el fabricante de software encontró en el caso de uso desarrollado, una funcionalidad muy interesante para pulir en las versiones posteriores. Soluciones a problemas de la vida cotidiana en las compañias, basadas 100% en software y totalmente independientes al hardware. (ahora si empieza a tener sentido  el nombre de mi sitio…LOL)

En el apasionante mundo del software uno de los tantos componentes que esta generando esta transformación y del cual quiero hablar un poco el dia de hoy el cual como decimos en mi pais, “esta sacándola del estadio” Son los conocidos virtual appliance  que hoy en dia tienen muchas plataformas tecnológicas de aplicaciones. Si usted no esta tan familiarizado con este componente, déjeme decirle que son los responsables de que hoy en dia muchas empresas estén empaquetando sus funcionalidades en este diminuto elemento de software.

Hace unos años en sus primeras versiones los virtuales appliances tenían funcionalidades básicas y componentes que  a lo sumo ofrecían funcionalidades  de gestión y administración, estos mismos fueron evolucionando cubriendo funcionalidades de gestión, control y  operación en ambientes de virtualización, llegando a funcionalidades de hoy en dia como redes virtuales (NFV y SDN), almacenamiento distribuido y extendiéndose a servicios de automatización y cloud,  tenemos toda esta poderosa tecnología escondida detrás de virtual appliances en todos los colores y sabores que logran:

Gestionar y controlar el almacenamiento y replicación de datos
Gestionar y controlar las redes
Gestionar los servicios y aplicaciones corporativas
Gestionar plataformas de Cloud y automatización (como el nuevo ova de vRA y sus casi 7GB..), entre otros.

Acá listo mi top 5 de virtual appliance que están comiendo algunos fantasmas:

Controller VM (Nutanix)
VRA (Zerto)
NSX Manager (VMware)
VRA (VMware)
VROPS (VMware)

Algunos de los beneficios de los virtual appliance son portabilidad, fácil despliegue, alta disponibilidad al ser ejecutados sobre una plataforma de virtualización,  componentes preinstalados que permiten que muchos clientes tengan poderosas funcionalidades en minutos, lo que se traduce en simplicidad con poder.

Lo invito a que disfrute de su “Power Pellets” para salir a disfrutar la libertad del mundo basado en software, es real y más cerca de lo que usted se imagina.

Como siempre sus comentarios son bienvenidos.

Iván C.

¿Es tiempo de virtualizar mis aplicaciones de misión crítica?

Algunos de los temores y mitos que muchos clientes me han manifestado en conversaciones donde recomiendo virtualizar aplicaciones de misión crítica como (SAP, Oracle, Microsoft SQL, Microsoft Exchange) son:

  • Mi base de datos es muy grande y no me da seguridad ponerla en un ambiente virtual.
  • El tenerla en un servidor físico dedicado me da tranquilidad, porque sé que el desempeño es mejor.
  • El fabricante de la aplicación me ha dicho que no la soporta en ambientes virtuales por el tamaño de la máquina física y que adicionalmente los costos de licenciamiento no me lo permitiran. Recomiendo el blog de Michael Webster (http://longwhiteclouds.com/2016/01/13/oracle-licensing-and-support-on-vmware-awaken-the-fud-in-your-datacenter/) en donde explica con un poco más detalle este punto que muchos fabricantes han utilizado para impedir la virtualizacion de sus aplicaciones.

Gartner estima que al final del 2016 el 84% de las aplicaciones que actualmente se ejecutan sobre plataforma x86 estarán virtualizadas. Esto es de por si una realidad. Me atrevería a decir solo algunas de las empresas de software de aplicación que llevan su nombre en el hardware levantan su voz (obvias razones tienen).

 

La virtualización también ha tenido un desarrollo exponencial aumentando también las limitantes que hace algunos años se tenían. Ese es el caso de vSphere que desde su primera versión en el año 2002 ya se hacía presente en el mercado. A continuación, una recopilación de las características a nivel de máquinas virtuales que tenemos hasta las versiones actuales:

Como ven las características de los hypervisores al día de hoy permiten no solo asegurar el rendimiento, la disponibilidad y la integración con estrategias de recuperación de desastres, también permiten tener máquinas virtuales de unos tamaños realmente sorprendentes para las aplicaciones críticas (Monster VM´s), las cuales usualmente requieren de unos recursos de cómputo y almacenamiento significativos. Ahora lo que si es cierto es que el proceso de virtualizacion de aplicaciones de mision critica requiere de un buen análisis para tener buenos resultados, yo personalmente recomiendo tener en cuenta los siguientes puntos principalmente:

  • Conocer en detalle el tipo de desempeño que requiere la maquina virtual (CPU, Memoria RAM, IOPS), esto muchas veces se logra analizando el comportamiento actual que tienen las aplicaciones en ambientes fisicos.
  • Entender con claridad las caracteristicas que brinda el hypervisor para optimizar el desempeño de los recursos (caracteristicas para el manejo de los recursos que tiene el hypervisor, por ejemplo la reserva de recursos o limitacion de recursos del cluster.)
  • Utilizar herramientas de monitoreo y correlación de eventos  como vRealize operations para asegurar la mejor distribucion de maquinas virtuales sobre el cluster una vez se han virtualizado las cargas de trabajo, entendiendo que es importante conocer la utilización y el comportamiento final que estan teniendo las maquinas recientemente virtualizadas.
  • Realizar un buen diseño teniendo en cuenta las capas principales en un ambiente virtual, almacenamiento, redes y computo. es justamente en este punto en donde he encontrado grandes fortalezas en las tecnologias de hyperconvergencia, si bien tecnicamente podria hacerse sobre arquitecturas tradicionales de servidores y almacenamiento, la probabilidad de tener un impacto más alto en el cambio podria ser mayor.

La plataforma de hyperconvergencia Nutanix nos ha permitido lograrlo de una manera más sencilla, dandole a algunos de nuestros clientes grandes beneficios:

Reducción de costos en datacenter
Alto Rendimiento
Alta disponibilidad
Simplicidad
Recuperación de Desastres

¿Qué espera para virtualizar sus aplicaciones de misión crítica y aprovechar todos estos beneficios? En mi opinion la conclusión más importante que me queda es que la arquitectura de hyperconvergencia facilita y simplifica el proceso de virtualizacion de aplicaciones de misión critica.

Iván C.