Dell Technologies Cloud (it)

8 minuti de lettura

Este post también está disponible en Español

Un gran numero di data center eseguono le proprie applicazioni in ambienti virtualizzati e pertanto elaborare queste applicazioni in locale o in un cloud provider dipende da una serie di considerazioni che hanno più a che fare con l’efficienza e i costi piuttosto che con un una determinata posizione fisica.

L’uso del cloud continua a crescere rapidamente perché i modelli operativi cloud aumentano l’agilità e consentono l’accesso all’uso di ambienti di sviluppo di applicazioni che accelerano l’innovazione creando vantaggi competitivi.  Secondo alcuni studi di Gartner il mercato del cloud crescerà quasi il doppio entro il 2022 e i costi dell’IT saranno molto più elevati in questo settore che nell’IT “tradizionale”.

È solo una questione di tempo prima che i cloud pubblici e privati si integrino in un unico ambiente Software Defined Data Center (SDDC). Infatti,  sono stati i più grandi cloud provider  a portare avanti questo modello e oggi non c’è dubbio che le soluzioni Software Defined sono il miglior approccio per aver successo nella progettazione di una architettura cloud ibrida.

Se da un lato il cloud fornisce agilità mentre un maggior utilizzo di cloud offre flessibilità, questo crea anche dei silos operativi a causa delle differenze nell’infrastruttura sottostante e all’uso di strumenti di gestione eterogenei. Per risolvere questi problemi Dell Technologies propone una chiara strategia: Dell Technolgies Cloud.

In questo post analizzeremo i componenti principali della strategia cloud di Dell Technologies e in che modo questa sia in grado di offrire un singolo e coerente “esercizio” cloud.

Leggi tutto “Dell Technologies Cloud (it)”

Sistemi di storage e servizi dati nel cloud (it)

8 minuti di lettura

Este post también está disponible en Español

Il cloud ha subito un notevole sviluppo negli ultimi anni, in quanto sempre più organizzazioni e utenti iniziano a valutare strategie che consentono l’adozione di tecnologie cloud in varie linee di business. Tuttavia, la distribuzione dei dati nei cloud pubblici, vista come un’estensione dell’archiviazione locale, presenta una serie di sfide per l’IT.

Per risolvere questo problema, è essenziale una strategia cloud che consenta, partendo dai dati distribuiti on-prem e off-prem, di accedere a questi e gestirli in modalità integrata. In altre parole, la strategia verso un multi-cloud deve necessariamente prendere in considerazione come prima istanza sistemi di archiviazione con funzionalità cloud integrate, vale a dire sistemi di storage multi-cloud-enabled.

Un’infrastruttura di storage abilitata per il cloud è in grado di non solo estendere, nel senso di spostare i dati da private a public, ma anche nel senso di estendere le operations (come lavoro su quei dati) verso il multi-cloud. In questo modo, il cloud non è un’alternativa, ma un modo per aumentare le funzionalità del data center con risorse aggiuntive disponibili su richiesta.

In questo post esamineremo alcune delle funzionalità cloud implementate a livello di sistemi di storage Dell EMC con particolare attenzione alle capacità che ci consentono di “consumare” lo storage sotto forma di servizi.

Leggi tutto “Sistemi di storage e servizi dati nel cloud (it)”

Database machine, soluzioni di tipo “open” (it)

10 minuti tempo di lettura

Este post también está disponible en Español

Il supporto per i workload generati da database di grandi dimensioni richiede spesso architetture specializzate o DB machine.
Consideriamo la seguente definizione di DB machine secondo Wikipedia
“Un DB machine o processore di back-end è un hardware specializzato che memorizza e recupera dati da un database. Un DB machine è appositamente progettato per l’accesso al database con i server di front-end strettamente accoppiati (tighly coupled) da un canale ad alta velocità mentre i server di database sono accoppiati liberamente (loosely coupled) attraverso la rete. Il front-end riceve i dati e li visualizza, il back-end, d’altra parte, analizza e memorizza i dati provenienti dai processori di front-end. Un DB machine fornisce prestazioni superiori, incremento della memoria host, maggiore sicurezza per i database e costi di produzione ridotti”.

È chiaro che il termine chiave che definisce  un DB machine è “soluzione integrata” hardware (server, rete, storage) e software (DBMS). Secondo questa definizione, ci sono 2 possibili implementazioni: un appliance software preconfigurato con l’hardware necessario per eseguire tale software (proposta tipica del fornitore DBMS) o un appliance hardware preconfigurato con il software necessario per essere eseguito su tale hardware (tipica proposta hardware del fornitore).

Anche se a prima vista le due architetture possono sembrare simili, ognuna di esse presenta vantaggi e svantaggi e le implicazioni della loro implementazione in un data center sono molto diverse.

db machine open - definition
db machine open – definition

In questo post analizzeremo entrambe le architetture con l’idea di fornire alcuni spunti di riflessione per orientarsi nella decisione di quale “appliance” rappresenta un’architettura valida in base ai requisiti applicativi e di business.

Leggi tutto “Database machine, soluzioni di tipo “open” (it)”

CloudIQ, monitoraggio proattivo e analisi predittiva con il Machine Learning (it)

Este post también está disponible en Español

Non è una novità che, quando si prende in considerazione la gestione di un sistema di storage, uno dei fattori più importanti da esaminare sia, dopo la semplicità di utilizzo, la qualità e le sue capacità del monitoraggio.

La quantità di metriche generate internamente da un’array è enorme. Molte volte tutte queste variabili comportamentali e gli indicatori di prestazione non sono facili da relazionare tra loro per ottenere una visione immediata dello stato reale del sistema.

Il motivo principale di questa difficoltà è che si basa sulla conoscenza della persona responsabile dello storage e sulla durata di tale analisi in modo che le conclusioni siano le più accurate possibili.

La chiave per ottenere valore da queste informazioni è attraverso l’analisi intelligente. Il sistema deve essere in grado di analizzare autonomamente i dati e generare, in modalità preventiva, indicatori in grado di anticipare i futuri requisiti di capacità o prestazioni e, allo stesso tempo, anticipare possibili anomalie.

In un post precedente avevo discusso l’uso del Machine Learning “all’interno” di un sistema di storage (PowerMax, la definizione di un array di Tier 0 con l’uso di ML).

In questo post esamineremo invece un software “esterno” all’array. Vedremo come questo software, CloudIQ, grazie all’uso di ML ci consenta di passare da un monitoraggio reattivo ad un approccio predittivo.

Leggi tutto “CloudIQ, monitoraggio proattivo e analisi predittiva con il Machine Learning (it)”

PowerMax, la definizione di un array di Tier 0 con l’uso di ML (it)

Este post también está disponible en Español

Non c’è dubbio che le applicazioni si siano evolute nel tempo per generare sempre più valore dai dati. Oggigiorno gran parte del software viene sviluppato per ottenere “insight” (approfondimenti) all’interno dei dati, utilizzando tecniche di intelligenza artificiale (AI) che consentono di offrire vantaggi competitivi alle imprese. Le nuove applicazioni intelligenti di “heavy analytics” (con analisi dei dati in tempo reale) rappresenteranno, secondo gli analisti di mercato, una parte sempre più importante all’interno del datacenter. Si stima che entro il 2020 il 60-70% dei data center avrà almeno un’applicazione di questo tipo. I datacenter dovrebbero trovare un modo per gestire le applicazioni tradizionali insieme a questo nuovo tipo di applicazioni.

Dovuto alla sempre maggiore capacità degli attuali sistemi di storage, una pratica comune potrebbe essere quella di far coesistere i due tipi di applicazioni in un unico sistema. Di fatto, la risposta del mercato a questo tipo di problematica è stato il consolidamento dei dati in un unico sottosistema di storage. In particolare, i sistemi di tipo AFA si presentano come una buona opzione poiché quando si esegue un consolidamento dei dati si ottiene un “mix di I/O”. Questo “mix” è un tipo di carico di lavoro casuale, (random workload) per il quale gli storage AFA sono i più indicati. Tuttavia, non sarà possibile prevedere il carico di lavoro delle nuove applicazioni che richiederanno prestazioni molto elevate e dovranno “apprendere” dai dati e adattarsi automaticamente a loro. In questo scenario, gli array AFA tradizionali avranno difficoltà a mantenere livelli di servizio adeguati (SLA). Sarà necessario un tipo di archiviazione, uno storage di livello 0 in grado di soddisfare i nuovi requisiti applicativi. Al di là della criticità del mantenimento degli SLA, vi è un secondo aspetto da considerare: al fine di ottenere il massimo beneficio dalle applicazioni intelligenti basate sull’uso di algoritmi di Machine Learning il sistema di storage deve essere in grado di interagire allo stesso modo.

In questo post scopriremo cosa significa un array  “Tier 0”, il ruolo del ML in un’architettura Tier 0 e quali sono le sfide nella realizzazione di un sistema di storage di questo tipo.

Leggi tutto “PowerMax, la definizione di un array di Tier 0 con l’uso di ML (it)”