Sistemas de almacenamiento y servicios de datos en el cloud (es)

8 minutos de lectura

Questo post è disponibile anche in Italiano

El cloud ha experimentado un desarrollo considerable en los últimos años a medida que siempre más organizaciones y usuarios comienzan a evaluar estrategias que permitan la adopción de tecnologías cloud en diversas líneas de negocios. Sin embargo, la implementación de datos en cloud públicos, vista como una extensión del almacenamiento local, presenta una serie de desafíos a la TI.

Para resolver este problema es imprescindible una estrategia cloud que permita, partiendo de los datos distribuidos on-prem y off-prem, de acceder a estos y gestionar la entera infraestructura en modo integrado. En otras palabras, la estrategia hacia un multi-cloud debe necesariamente tener en consideración como primera instancia los datos y sistemas de almacenamiento de datos con funcionalidades de cloud integradas, o sea, storage multi-cloud-enabled.

Una infraestructura storage habilitada para el cloud tiene la capacidad no solo de extender, en el sentido de movimentar los datos del privado al público, sino también de extender las operaciones (come trabajo sobre estos datos) hacia el multi-cloud.  De este modo, el cloud no es una alternativa, sino una manera de aumentar las capacidades del data center con recursos adicionales disponibles a pedido.

En este post veremos algunos de las capacidades cloud implementadas a nivel de los sistemas de storage de Dell EMC con un focus particular sobre las funcionalidades che permiten de «consumir» storage en forma de servicios.

Continuar leyendo «Sistemas de almacenamiento y servicios de datos en el cloud (es)»

Database machine, soluciones de tipo “open” (es)

10 minutos tiempo de lectura

Questo post è disponibile anche in Italiano

El soporte a las cargas de trabajo generadas de las grandes bases de datos requiere muchas veces de arquitecturas especializadas o DB machine.
Consideremos la siguiente definición de DB machine según Wikipedia
«Un database machine (máquina de base de datos) o procesador de back-end es un hardware especial que almacena y recupera datos de una base de datos. Un database machine está especialmente diseñado para el acceso a la base de datos con los servidores de front-end estrechamente acoplados (tighly coupled) por un canal de alta velocidad mientras que el servidor de la base de datos está acoplado libremente (loosely coupled) a través de la red. El front-end recibe los datos y los muestra, el back-end, por otro lado, analiza y almacena los datos de los procesadores de front-end. Los database machine dan como resultado un mayor rendimiento, un aumento de la memoria principal del host, un aumento de la seguridad de la base de datos y una disminución del costo de fabricación».

Es claro que el término clave para definir un DB machine es “solución integrada” hardware (server, network, storage) y software (DBMS). Según esta definición existen 2 implementaciones posibles: un appliance software preconfigurado con el hardware necesario para ejecutar dicho software (propuesta típica del DBMS vendor) o un appliance hardware preconfigurado con el software necesario para ser ejecutado en ese hardware (propuesta típica del hardware vendor).
Aunque a primera vista las dos arquitecturas pueden parecer similares, cada una de ellas presenta ventajas y desventajas y las implicaciones sobre su implementación en un datacenter son bien diferentes.

db machine open - definition
db machine open – definition

En este post analizaremos ambas arquitecturas con la idea de proporcionar algunos puntos de reflexión para orientarse en la decisión de cual “appliance” representa una arquitectura valida según exigencias aplicativas y de business.

Continuar leyendo «Database machine, soluciones de tipo “open” (es)»

CloudIQ, monitoreo proactivo y analítica predictiva con el Machine Learning (es)

Questo post è anche disponibile in italiano

No es ninguna novedad que en lo que se refiere a la gestión de un sistema de storage, uno de los factores más importantes de tener en consideración es, después de la simplicidad de uso, la cualidad y capacidades del monitoring.

La cantidad de métricas generada internamente a un sistema de almacenamiento es enorme. Muchas veces todas estas variables de comportamiento e indicadores de performance no son fáciles de relacionar entre si para obtener una visión inmediata sobre el real estado del sistema. El motivo principal de esta dificultad está en que se basa en los conocimientos del responsable del sistema de storage y en el tiempo en que este análisis puede ser llevado adelante a fin que las conclusiones sean lo más precisas posibles.

La clave para obtener valor de esta información es a través de un análisis inteligente. El sistema debe ser capaz de analizar en modo autónomo los datos y generar, en modo preventivo, indicadores en grado de anticipar futuros requisitos de capacidad o rendimiento mientras, al mismo tiempo, anticipar posibles anomalías.

En un post precedente había tratado el uso del Machine Learning “al interno” de un sistema de storage (PowerMax, la definición de un array Tier 0 con uso de ML). En este post examinaremos en vez un software “externo”  al sistema de sistema de almacenamiento. Veremos como este software, CloudIQ, gracias al uso del ML nos permite pasar de un monitoring reactivo a un enfoque predictivo.

Continuar leyendo «CloudIQ, monitoreo proactivo y analítica predictiva con el Machine Learning (es)»

PowerMax, la definición de un array Tier 0 con uso de ML (es)

Questo post è disponibile anche in Italiano

No cabe duda que las aplicaciones han evolucionado en el tiempo para generar siempre más valor de los datos. Hoy en día mucho del software se desarrolla para obtener “insights” al interno de los datos, utilizando técnicas de AI (Inteligencia Artificial) que permitan de ofrecer ventajas competitivas al business.

Las nuevas aplicaciones inteligentes de tipo “heavy analytics” con análisis de datos en tiempo real representarán,  según los analistas de mercado, una parte siempre más importante dentro el datacenter. Se estima que para el 2020 el 60-70% de los centros de datos tendrán al menos una aplicación de este tipo. Los datacenter deberán encontrar un modo para gestionar aplicaciones de tipo tradicional junto con este nuevo tipo de aplicaciones.

Debido a la siempre mayor creciente capacidad de los sistemas de storage actuales, una práctica común podría ser hacer convivir los dos tipos de aplicaciones en un único sistema. De hecho, la respuesta del mercado a este tipo de problemática ha sido la consolidación de los datos en un único storage. En particular, los sistemas de tipo AFA se presentan como una buena opción ya que cuando se realiza una consolidación de datos se obtiene un “I/O blend”. Un “I/O blend” es un tipo de workload de tipo random,  donde, los storage de tipo AFA, son los más indicados.

Sin embargo, no será posible predecir el workload de las nuevas aplicaciones que requerirán un altísimo rendimiento y tendrán necesidad de “aprender” de los datos y adaptarse automáticamente a ellos.  En este escenario, los array AFA tradicionales tendrán dificultad a mantener niveles di servicio (SLA) adecuados. Será necesario un tipo de storage, un storage Tier 0 capaz de satisfacer los nuevos requisitos aplicativos. Más allá de la criticidad de mantener los SLA, existe un segundo aspecto de tener en consideración: para poder obtener el máximo beneficio de aplicaciones inteligentes basadas en el uso de algoritmos de Machine Learning (ML) el sistema de storage debe a su vez ser capaz de interactuar al mismo modo.

En este post veremos cosa significa un array de tipo “Tier 0”, el rol del ML en una arquitectura Tier 0,  y cuáles son los desafíos en la realización de un sistema de storage de este tipo.

Continuar leyendo «PowerMax, la definición de un array Tier 0 con uso de ML (es)»

La replicación de datos en XtremIO X2, mecanismos evolucionados de copia remota (es)

Questo post è anche disponibile in Italiano

Uno de los motivos principales por los cuales nos orientamos a la compra de un array de tipo AFA es el rendimiento. Sin embargo, el business tiene también otras exigencias, entre ellas de particular importancia es la protección del dato.

Como protección del dato me refiero a la posibilidad de realizar copias remotas del sitio de producción en un segundo array. Una vez que implementamos un mecanismo de copia remota, el rendimiento de un array AFA disminuye.

Con una replicación síncrona, agregamos el tiempo de latencia de la distancia. En el caso de una replicación asíncrona debemos considerar cuidadosamente el «bandwidth» del link para permitir al array de producción de no «estar demasiado atrás» con las escrituras, caso contrario, el array de producción deberá realizar un trabajo adicional para mantener el RPO.

En este post examinaremos como XtremIO X2, gracias a una implementación única y particular del mecanismo de copia asíncrona, es en grado de mantener un bajísimo RPO disminuyendo al mismo tiempo el bandwidth necesario para realizar las copias.

Continuar leyendo «La replicación de datos en XtremIO X2, mecanismos evolucionados de copia remota (es)»