Category Archives: Nutanix

Welcome to the 2017 Nutanix Technology Champions (NTC)

Fue para mi todo un placer recibir la comunicación por parte de Nutanix de haber sido elegido como NTC 2017.

https://next.nutanix.com/t5/Nutanix-Connect-Blog/Welcome-to-the-2017-Nutanix-Technology-Champions-NTC/ba-p/15978

Nutanix Technology Champion es un programa que busca reconocer  a las personas por sus  contribuciones en la tecnología,  son destacados alrededor del mundo.

Siendo muy honesto, fue un año de bastante trabajo y estudio con la tecnología de Nutanix, presentaciones, pruebas de concepto, horas de estudio, entre otros.

Ser el primer Colombiano en recibirlo me llena de mucho orgullo y satisfaccion. Quiero agradecer a Camilo Duran, Sergio Martin, Lino Rojas, Eduardo Franco y Oscar Villa por su especial apoyo.

Se viene un 2017 con muchos retos, espero poder continuar con el desarrollo de esta espectacular tecnología!

 

Soluciones 100% en software para casos de uso reales (Nutanix y Zerto)

Hace casi un año me enfrente a un gran reto. Nos encontrabamos reemplazando una solucion tradicional de 3 capas (Servidores, Almacenamiento y Switches SAN) en ambientes fisicos, la cual ibamos a virtualizar hacia Nutanix. Teniamos 2 grandes retos, primero que todo la virtualización de las bases de datos de mision critica y segundo el cambio de arquitectura hacia webscale.

Ya habiamos pasado la etapa de la prueba de concepto en donde teniamos ya varios criterios aprobados en Nutanix como Desempeño, Simplicidad, entre otros. Finalizando lo que ya para nosotros era casi otro proyecto, tuvimos un requerimiento bastante especial. Nuestro cliente requeria una solucion de protección local, que le permitiriera tener tiempos de RPO de segundos y RTO de minutos en su base de datos de mision critica que tenia un tamaño aproximado de 6TB con un alto nivel de transaccionabilidad, con puntos de recuperación máximo de 1 minuto por 5 dias. (Un requerimiento bastante exigente).

En principio exploramos varias opciones de protección tipo backup (Le quiero decir que tenemos en el equipo gente que conoce bastante de soluciones de backup) pero era evidente que era imposible recuperar 6TB en minutos, ni siquiera incluyendo tecnologias de backup y recuperación en disco optimizadas sin tener que hacer procesos de recuperación.
Pues bien, luego de varios dias de pensar como lograrlo tuvimos una idea, replicacion local con Zerto, aprovechando CDP, la replicacion a nivel de hipervisor y las técnicas que tiene para realizar test-failover muy rapidamente. Tenia ya alguna experiencia de proyectos con Zerto, conocia sus beneficios, pero evidentemente el requerimiento acá era muy exigente.

Si usted hasta este punto no conoce mucho de Zerto, quiero decirle que su CEO Ziv Kedem en mi opinion es uno de las personas sobre la faz de la tierra que más conoce de replicacion de datos. De hecho EMC adquirio su empresa Kashya http://israel.emc.com/about/news/press/us/2006/05092006-4371.htm en el 2006, justamente por su tecnologia de replicacion avanzada CDP. Despues de la adquisición Ziv fue VP en EMC para Recovery Point, posterior a esto y al mejor estilo de las mentes poderosas en tecnologia como Martin Casado, entre otros, Fundo Zerto. Asi que si hasta este momento usted pensaba de donde salio Zerto? Esta es mi version corta de la historia.
Volviendo al punto, voy a compartir lo que pasaba por mi cabeza en ese momento:
El overhead de tener 2 appliance tratando los datos en linea (CVM-VRA) ??
6TB evidentemente era un gran volumen de datos para una VM sobre vSphere, Zerto tendra algun impacto?
La base de datos tenia altos requerimientos en IOPS, Procesamiento y RAM, Zerto causara Latencias?

Luego de conversar y tener la opinion de algunos amigos y especialistas de la industria, (Michael Webster, Joshua Stenhouse, entre otros), llegamos a la conclusión que seria una buena idea. El equipo de Zerto decia que tiene bases de datos con esa cantidad de datos con RPO de segundos sin problemas, pero en ambientes tradicionales y sitios alternos,pero no replicando de manera local con una arquitectura webscale como Nutanix….acá era donde teniamos el reto.
Pues bien cual era el camino, realizar algunas pruebas antes de considerar la solución y proponerla a nuestro cliente.

A continuacion voy a compartir algunas imagenes de los resultados que obtuvimos en las pruebas. Si usted esta considerando o tiene un requerimiento similar la información que voy a compartir le será de mucha utilidad. (Este post tiene casi un año guardado….quisiera escribir más, pero el tiempo no lo permite)

Lo que yo queria probar con mayor urgencia era lo siguiente:

  1. Comportamiento de recursos en CVM y VRA con alta transaccionalidad en la base de datos.
  2. vMotion con alta transaccionalidad, observando los recursos en CVM y VRA en el host origen y destino.
  3. RPO y RTO de recuperación
  4. Consumo de datos
  5. Consistencia de recuperación (Zerto trabaja en modo crash consistency)
  6. Comportamiento de maquina virtual recuperada, puesto que sobre ella se ejecutarian proceso

Imagen 1 Configuracion de la maquina virtual:

Nota: Recomiendo tener presente el documento de mejores practicas para SQL, con el fin de tener presente todas las consideraciones.


Imagen 2: Carga de IOPS


Imagen 3: Monitoreo de recursos


Rojo:
Maquina virtual 3TB con carga  830 a 1000 IOPS 100% write, Latencia 1ms. CPU Usage 2%, Memory Usage 9%
Azul: VRA Zerto destino 334 IOPS Read Latencia 2.79ms. CPU Usage 91%, Memory Usage 6% (Config de CPU en esta máquina es 1 vCPU)
Verde: CMV local. CPU Usage 46.5%, Memory Usage 16%
Nota: Cuando vi esta imagen tuve un muy buen dia.
Imagen 4: Monitoreo de puntos de consistencia (Para cumplir con requerimientos de RPO e historico de 4 dias)

 

Nota: Como lo imaginada, aunque la maquina tenia alto nivel de transaccionalidad, los puntos de consistencia eran igual que en maquinas virtuales de propósito general. Es decir segundos, Sin afectar las 2 capas de control por software que estaban teniendo los datos CVM y VRA.


Imagen 5,6,7,8,9,10,11 : Monitoreo de fail-over test (Para cumplir con requerimiento de RTO)

Notas: Realice 4 pruebas de test-failover obteniendo en las 4 pruebas menos de 10 minutos de RTO. Lo más interesante de todo es que siempre la maquina virtual principal estuvo ejecutando procesos de escritura de datos.


Imagen 12,13 : Monitoreo de recursos en estado fail-over test generando carga en la maquina de recuperacion (testing-recovery)

Rojo: Maquina virtual 3TB con carga  800 iops 100% write, Latencia 3.2ms. CPU Usage 2%, Memory Usage 5%.
Azul: VRA Zerto destino 258 IOPS Read , 464 iops Write, Latencia 9.8ms. CPU Usage 5%, Memory Usage 14%.  (Configuración de CPU en esta máquina es 1 vCPU)
Verde: CMV local. CPU Usage 71%, Memory Usage 19%.
Amarillo: Maquina virtual iniciada en test fail-over 120 iops Read, 159 iops Write, Latencia 7ms, CPU Usage 5%, Memory Usage 14%.

Notas: Una de las cosas que más interesantes que se observan en la imagen es el poder de la localidad de los datos (Data Locality), el buen desempeño que pudimos obtener, teniendo en todo momento carga de datos.

Ahora entiendo porque a diferencia de otras HCI del mercado que tienen temor de ofrecer para misión critica sus soluciones, NUTANIX dice con toda tranquilidad, yo lo hago y lo hago muy bien.

Acá vemos trabajando los algoritmos de DFS de Nutanix realmente. Una de las pruebas que realice cuando tuve mis primeros nodos en frente fue vMotion hacia otro host con carga 100% write, en donde los principios de distribución se verian a profundidad. Pues bien una de las cosas que pude evidenciar es que la penalización (por llamarlo de algun modo) mientras el sistema de archivos detecta que la maquina esta trabajando en otro host y mueve los datos para que esten servidos de manera local fue unicamente del 20% un par de minutos. Es decir que sobre esta maquina con 100% write (lo cual seria el peor escenario) dando 1000 IOPS, una vez movida hacia otro host en caliente, pude observar que durante 1 o 2 minutos disminuyo su performance unicamente en un 20%, es decir paso de 1000 IOPS a 800 IOPS unicamente durante 2 o 3 minutos, luego de esto recupero nuevamente sus 1000 IOPS cual el sistema de archivos distribuido identifico que la maquina estaba en otro host. Interesante no?. En este aspecto Nutanix golpea fuertemente a cualquier solución HCI del mercado .
Para no hacer más larga esta gran historia, a nuestro cliente le gusto mucho la solución propuesta. Ya en producción tuvimos que hacer algunos ajustes para cumplir 100% como algunos scripts para mantener un poco más los CP (consistency Points).

Hoy en dia el cliente esta muy satisfecho con toda la solución propuesta. De hecho luego de esta muy buena experiencia, vinieron otros proyectos en donde la combinacion de Nutanix + Zerto es impresionante.

 

Rock on!

Buena combinación no creen? Nutanix + Zerto + PernixData será sobre lo que escribiré en el futuro.

Esta perdiendo importancia el hipervisor?

En este último tiempo en donde los términos cloud computing, croos-cloud, hybrid cloud, multi-cloud entre otros, que cada vez más se inventan los fabricantes para posicionar sus diferentes estrategias de nube, he observado y seguramente muchos de ustedes también que la base de muchas de estas tecnologías, que en un principio iniciaron siendo virtualización tradicional, fueron evolucionando y ofreciendo mejores funcionalidades, rompiendo paradigmas y hasta cambiando modelos de operación de tecnología dentro de las organizaciones.
Estos buenos resultados se lograron principalmente con los beneficios que obtuvimos con la virtualización, la cual en la mayoría de los casos tenia su éxito en  escoger el hypervisor que mejores funcionalidades pudiera ofrecer, garantizando que las diferentes aplicaciones corporativas pudieran estar en un ambiente que minimizara el impacto de la virtualización y los temores que en su momento tenia la virtualización.
Pues bien, en este mercado tenemos 2 jugadores principales:
VMware y Hyper-V. VMware acá tuvo un papel fundamente y hoy en día sin temor a equivocarme diría que es el hipervisor con mayor desarrollo, funcionalidades y como decía un conocido “es tan buen producto, que aun que lo instalen mal, funciona”.
Microsoft por su parte fue poniendo bastante foco en Hyper-v el cual también al día de hoy es una buena opción con beneficios económicos y de integración especialmente con plataformas Microsoft desde el punto de vista de licenciamiento.
Muy a la distancia de estos 2 grandes lideres, encontramos a Citrix con XenServer, Red Hat con KVM (Acrópolis para Nutanix), Oracle con OVM y otros más. Estos últimos con casos de uso un poco más cercanos a sus aplicaciones. Mejores, peores, baratos o no, pero eran una opción más para ofrecer a sus clientes.
Pues bien, luego de esta pequeña introducción, vuelvo al título de este post “Está perdiendo importancia el hipervisor”, mi respuesta rápida seria SI. De hecho, los grandes líderes de este mercado han declarado públicamente que el valor de sus nuevos productos está en las herramientas de automatización y orquestación que pueden ofrecer, viendo de alguna manera como un componente más “el hipervisor”.
Las grandes compañias de servicios de computación en la nube son muy conocidas por construir modelos costo efectivos que logran ofrecer grandes beneficios en tecnología a precios muy competitivos. ¿Cómo logran esto?, pues bien muchas de sus infraestructuras no ejecutan propiamente las mejores y más poderosas funcionalidades a nivel de hipervisores. Se ha dicho por ejemplo que AWS, Rackspace en gran parte utilizan hipervisores como XenServer, KVM, entre otros, los cuales les permiten tener una oferta muy competitiva (En otro post hablaremos porque estratégicamente hablando se enfocan en otras cosas con mayor importancia como las aplicaciones).
La pregunta es ¿cuales son los criterios más importantes que debería tener presente a la hora de escoger un hipervisor?, pues bien quise presentar en mi opinion los 8 cosas que debería tener en cuenta cualquier persona que este evaluando, comparando o pensando en cambiar su plataforma de virtualización (hipervisor):

1. Administración: La administración y gestión es fundamental para cualquier operación de TI. Aunque el hipervisor pareciera ser un componente que una vez implementado, no suele tener muchos cambios en el día a día, es importante considerar la carga administrativa y el impacto que podría tener sobre los administradores. Típicamente es uno de los puntos que se compara con el precio para buscar un costo/beneficio que apalanque la decision.

Mi recomendación es, si quieres optimizar tus tiempos en la gestión y operación de TI, busca opciones de hipervisor que faciliten esto, por ejemplo las que incluyan: herramientas para gestionar la capacidad, interfaces intuitivas y sencillas de operar y mecanismos propios de orquestación y automatización de tareas.
2. Madurez: Pareciera ser un punto relacionado al marketing, pero realmente es importante saber que cada hipervisor tiene un nivel de madurez. Eso significa que al menos debería validarse que no se encuentre en sus primeras versiones beta y que en la actualidad cuente con compañías que ya tengan dicho hypervisor en producción.
La madurez se podría medir por el tiempo de liberación del producto, el numero de parches o actualizaciones que se liberan para la corrección de errores, así como las versiones que han sido liberadas a la fecha. Solo el tiempo dirá, lo que el marketing no.
Mi recomendación pregunta cuantas versiones han sido liberadas del producto, que clientes lo ejecutan a la fecha y tómate el tiempo de hacer algunas llamadas con el fin de preguntar acerca de su experiencia y lo más importante que tu caso de uso haya sido probado.
Ahora, no esta mal un poco de riesgo si quieres ser uno de los primeros en adoptar la tecnología y cuentas con el apoyo del fabricante no?
3. Experiencia y conocimiento: En este punto hago referencia al conocimiento técnico que pueda tener y desarrollar el personal técnico. Por ejemplo es mucho más fácil para un administrador de Windows, ir hacia Hyper-v que seguramente hacia una plataforma de virtualización como KVM y viceversa. He tenido amigos y clientes que no titubean al pensar en una plataforma OpenSource, mientras que en otros casos no se considera, por los altos riesgos y complejidades en el soporte. Se convierte en un tema de comodidad y afinidad, el cual en mi opinion es fundamental.
Mi Recomendación es si crees que tienes la experiencia y estas dispuesto a tener que lanzar algunas lineas de código adicionales. atrévete a probar algo nuevo o porque no?


4.Esquemas de licenciamiento y precios: El punto critico de esta discusión, tenemos lo mejor a costos altos y/o en el otro extremo opciones de virtualización básicas que ofrecen beneficios asociados a licenciamiento de aplicaciones ó bases de datos. Ambos en mi opinion con un enfoque un poco extorsionista.  Entender los esquemas de licenciamiento, las versiones y los precios van a poder ayudar a escoger el adecuado. He visto muchos casos en donde clientes y amigos adquieren el mejor licenciamiento sin utilizarlo. En este punto también es importante entender con mayor nivel de detalle el licenciamiento en las aplicaciones que vas a ejecutar (Oracle, Microsoft SQL, etc).
Mi Recomendación “asegurate” de entender las políticas de licenciamiento y tomar el tiempo necesario para leerlo por ti mismo. He visto casos en donde fue mejor tomar un tiempo para entender esta información , con el fin de elaborar un buen diseño que cubriera por supuesto una viabilidad económica y técnica de un proyecto de virtualización de aplicaciones de misión critica. Algunas veces el desconocimiento del mismo, podría hacerte caer en multas o pagos adicionales.


5. Necesidades y requerimientos: El que más me gusta evaluar, ¿Qué requiero y espero del hipervisor? ¿Qué esperan mis maquinas virtuales? Que esperan mis aplicaciones?. Este punto es fundamental y debería tener un porcentaje alto de calificación en una matriz de evaluación. Por ejemplo si necesito en mi compañía funcionalidades avanzadas desde el hypervisor para cumplir con los requerimientos y servicios tecnológicos, debo pensarlo muy bien. Ahora , si por el contrario esas funcionalidad en el hipervisor me importa poco y defino que me interesa invertir en una capa más critica de mis aplicaciones, por ejemplo rendimiento, acceso, etc, es otra historia.
Por ejemplo tuvimos un caso de virtualizacion con una base de datos de misión critica SQL Server, la cual requería de configuraciones especiales, gestión avanzada de recursos virtuales, aseguramiento ante comportamientos atípicos y funcionalidad avanzadas en redes, era evidente que nos daba mucha más confianza un mejor hipervisor, caso contrario un caso de uso en donde la capa más importante del servicio era el acceso a las aplicaciones y la experiencia de usuario, contando con una configuración bastante tradicional a nivel de conectividad y acceso a recursos, en donde se necesitaba una inversion en una capa más critica, por supuesto nuestra decisión fue un hipervisor con funcionalidades básicas. Resumiendo un bueno diseño como dice Josh Odgers es aquel que cumple con requerimientos y casos de uso, más que con mejores practicas, etc.
Mi Recomendación asegurate de tener una persona a tu lado que esta comprendiendo el requerimiento y las necesidades reales de tu proyecto de virtualización, que pueda desde la experiencia emitir un concepto honesto y real de las necesidades.


6. Funcionalidades avanzadas: Existen algunos casos de uso que requieren de funcionalidad avanzadas como integración y soporte con tarjetas gráficas en 3D, dispositivos externos, gestión avanzada y proactiva de recursos a nivel de hypervisor, así como la integración con herramientas de terceros. En ese aspecto debes asegurar dicho soporte. Típicamente las funcionalidad avanzadas están en las versiones de licenciamiento más completas, por lo que su inversion debe estar debidamente argumentada.
Mi recomendación asegurate de validar los puntos críticos de los servicios a virtualizar, con el objetivo de evitar sorpresas y hacer inversiones apropiadas. Conozco de varias historias de clientes y amigos que están subutilizando el licenciamiento por desconocimiento.


7. Compatibilidad y soporte: Este punto es bastante critico, puesto que suele ser el más valorado, pero el cual podría hacer fracasar cualquier iniciativa de virtualización de no contar con el nivel de detalle requerido. En sistemas tradicionales de 3 capas (servidores, almacenamiento, switches) es aun más complejo dicha validación, puesto que el soporte debe validarse contra todos los diferentes componentes de hardware y software. (HBA´s, Firmware, etc,) En sistemas webscale definitivamente es más sencillo, pero no menos importante.
Mi Recomendación solicita la conocida HCL o Matriz de compatibilidad la cual debe incluir las versiones de hypervisor y hardware , las  versiones de sistemas operativos  (invitados o guest) soportados sobre el hypervisor.


8. Estrategia: La vision que tienen las compañías acerca de su apuesta en el componente de hipervisor es importante, puesto que permite tener la confianza de que la compañía tiene un alto interés en seguir desarrollando su producto y mejorarlo, para habilitar nuevas funcionalidad. En ese sentido y con algunos de los casos de uso que tenemos el día de hoy, como por ejemplo tener una version de hipervisor en el centro de datos alterno y otra en el sitio secundario para optimizar costos, cobra mucho sentido tener posibilidades para conversion y/o integración entre diferentes plataformas.
Por ejemplo, Si una compañía no se esfuerza por ofrecer a sus clientes alternativas y casos de uso que se ven traducidos en beneficios económicos y técnicos que extienden en nuevas funcionalidades, incluso sabiendo que podría vender menos, pero mejor. contrario a eso la compañía que centra su mensaje en ofrecer y bloquear a sus clientes hacia su única plataforma de virtualización. Acá tendríamos 2 posibles síntomas, o te quiere extorsionar o sencillamente esta desconocimiento los requerimientos de los clientes en el siglo XXI.
Mi recomendación preguntarle a tu proveedor como ha sido el desarrollo del producto en las ultimas versiones, que tantas funcionalidad se han ido adicionando y sobre todo cual es el roadmap del producto a futuro.


Si me lo permite querido lector que luego de un blog tan largo lo mínimo que espera en este punto es que concluya. Quiero decirle a usted que tal vez es un administrador de virtualización en una compañía muy grande con cientos de maquinas virtuales, consultor, empresario, o sencillamente paso por acá y se encontró este blog,  después de leer este blog, le tengo una buena noticia. Tiene diferentes alternativas que puede evaluar para su compañía. Seguramente usted debe tener otros factores importantes para evaluar a la hora de escoger un hipervisor, pero definitivamente creo que con la alta adopción que ha tenido la virtuaizacion en los últimos 5 años, el hypervisor es un componente muy importante dentro de su arquitectura y lo habilitara para nuevos desafios , sin embargo con un buen asesoramiento tecnológico, podría encontrar el balance ideal entre el precio y los beneficios.

VMworld 2016 vBrownBag TechTalk Nutanix (Las Vegas, Nevada)

Este año tuve la oportunidad de compartir una pequeña charla acerca de las principales diferencias desde el punto de vista de Arquitectura entre Nutanix vs Arquitecturas tradicionales.  Algunos me decian “Como se te ocurre hablar de un tema como estos en un evento en donde VMware esta considerando a Nutanix como su principal competencia”, Pues bien, en medio de todos los temas que comercialmente podrian afectar, me atrevi a preparar algunos slides bastante sencillos que permitieran en menos de 15 minutos, compartir a los que no han tenido la oportunidad de conocer estas tecnologias, el valor y los principales beneficios. Como lo dije en medio de la presentación, me falto tanto por mencionar, que seguramente tendre unas proximas sesiones para hablar de algunos puntos importantes y caracteristicas que hacen, que hoy en dia Nutanix en mi opinion y con respecto a los principales competidores en el mercado de HCI, tenga una ventaja considerable, no solo como producto, tambien como Visión.

Les comparto el video que muy amablemente ha sido compartido por los amigos de la comunidad de vBrownBag.

 

¿Es tiempo de virtualizar mis aplicaciones de misión crítica?

Algunos de los temores y mitos que muchos clientes me han manifestado en conversaciones donde recomiendo virtualizar aplicaciones de misión crítica como (SAP, Oracle, Microsoft SQL, Microsoft Exchange) son:

  • Mi base de datos es muy grande y no me da seguridad ponerla en un ambiente virtual.
  • El tenerla en un servidor físico dedicado me da tranquilidad, porque sé que el desempeño es mejor.
  • El fabricante de la aplicación me ha dicho que no la soporta en ambientes virtuales por el tamaño de la máquina física y que adicionalmente los costos de licenciamiento no me lo permitiran. Recomiendo el blog de Michael Webster (http://longwhiteclouds.com/2016/01/13/oracle-licensing-and-support-on-vmware-awaken-the-fud-in-your-datacenter/) en donde explica con un poco más detalle este punto que muchos fabricantes han utilizado para impedir la virtualizacion de sus aplicaciones.

Gartner estima que al final del 2016 el 84% de las aplicaciones que actualmente se ejecutan sobre plataforma x86 estarán virtualizadas. Esto es de por si una realidad. Me atrevería a decir solo algunas de las empresas de software de aplicación que llevan su nombre en el hardware levantan su voz (obvias razones tienen).

 

La virtualización también ha tenido un desarrollo exponencial aumentando también las limitantes que hace algunos años se tenían. Ese es el caso de vSphere que desde su primera versión en el año 2002 ya se hacía presente en el mercado. A continuación, una recopilación de las características a nivel de máquinas virtuales que tenemos hasta las versiones actuales:

Como ven las características de los hypervisores al día de hoy permiten no solo asegurar el rendimiento, la disponibilidad y la integración con estrategias de recuperación de desastres, también permiten tener máquinas virtuales de unos tamaños realmente sorprendentes para las aplicaciones críticas (Monster VM´s), las cuales usualmente requieren de unos recursos de cómputo y almacenamiento significativos. Ahora lo que si es cierto es que el proceso de virtualizacion de aplicaciones de mision critica requiere de un buen análisis para tener buenos resultados, yo personalmente recomiendo tener en cuenta los siguientes puntos principalmente:

  • Conocer en detalle el tipo de desempeño que requiere la maquina virtual (CPU, Memoria RAM, IOPS), esto muchas veces se logra analizando el comportamiento actual que tienen las aplicaciones en ambientes fisicos.
  • Entender con claridad las caracteristicas que brinda el hypervisor para optimizar el desempeño de los recursos (caracteristicas para el manejo de los recursos que tiene el hypervisor, por ejemplo la reserva de recursos o limitacion de recursos del cluster.)
  • Utilizar herramientas de monitoreo y correlación de eventos  como vRealize operations para asegurar la mejor distribucion de maquinas virtuales sobre el cluster una vez se han virtualizado las cargas de trabajo, entendiendo que es importante conocer la utilización y el comportamiento final que estan teniendo las maquinas recientemente virtualizadas.
  • Realizar un buen diseño teniendo en cuenta las capas principales en un ambiente virtual, almacenamiento, redes y computo. es justamente en este punto en donde he encontrado grandes fortalezas en las tecnologias de hyperconvergencia, si bien tecnicamente podria hacerse sobre arquitecturas tradicionales de servidores y almacenamiento, la probabilidad de tener un impacto más alto en el cambio podria ser mayor.

La plataforma de hyperconvergencia Nutanix nos ha permitido lograrlo de una manera más sencilla, dandole a algunos de nuestros clientes grandes beneficios:

Reducción de costos en datacenter
Alto Rendimiento
Alta disponibilidad
Simplicidad
Recuperación de Desastres

¿Qué espera para virtualizar sus aplicaciones de misión crítica y aprovechar todos estos beneficios? En mi opinion la conclusión más importante que me queda es que la arquitectura de hyperconvergencia facilita y simplifica el proceso de virtualizacion de aplicaciones de misión critica.

Iván C.