Il mercato dei server e l’ambiente dei Data Center stanno vivendo un profondo cambiamento. Nuovi prodotti, servizi e tecnologie cambieranno le modalità di utilizzo delle risorse IT. Per comprendere questo scenario è necessario fare un passo indietro e considerare le dinamiche di mercato di base e le sfide affrontate da CIO e responsabili dei Data Center.

Di Alessandro de Bartolo, Country General Manager Lenovo Data Center Group, Italia

Alessandro de Bartolo, Country General Manager Lenovo Data Center Group, Italia data center big data

Alessandro de Bartolo, Country General Manager Lenovo Data Center Group, Italia

La quantità di dati che circolano in tutto il mondo sta crescendo esponenzialmente grazie alle potenzialità e alle capacità dei dispositivi, a una maggiore accessibilità e al loro più diffuso utilizzo. Alcuni analisti del settore ritengono che questi fattori porteranno a sestuplicare la quantità di dati in circolazione da qui al 2020.
Posto che i dati sono elaborati dai server nei Data Center, il concetto per cui è l’azienda o l’organizzazione a determinare la struttura, il valore e la quantità dei dati, oltre a regolarne l’accessibilità, è oggi in discussione. Il problema sono i dati non strutturati che circolano in internet, la maggior parte dei quali ha scarso valore e deve essere scremata.

Che cosa c’è dietro ai Big Data

Big Data, analisi e intelligenza artificiale offrono una soluzione tecnica al problema, fornendo gli strumenti necessari a dare valore ai dati non strutturati. In un’azienda è infatti necessario considerare i Big Data dal punto di vista della loro capacità di fornire un quadro più dettagliato dei clienti esistenti, oltre che informazioni relative ai potenziali clienti futuri.
Dietro all’evidente crescita dei dati si nascondono le applicazioni, che rappresentano probabilmente la componente più importante del Data Center. La modifica di un processo aziendale richiede un cambiamento nell’applicazione a esso associata, con il conseguente miglioramento delle prestazioni del processo. Le applicazioni stanno diventando sempre più flessibili e dinamiche, definite dai modelli di utilizzo degli utenti finali e questo rende il compito di CIO e responsabili dei Data Center più complesso. Infatti, oltre alla manutenzione dell’esistente, è anche necessario fornire un ambiente per le applicazioni di nuovo tipo. In molti casi, la mancanza di un’infrastruttura idonea per supportare queste richieste ha portato gli sviluppatori a usare sistemi di cloud pubblico sia per lo sviluppo che per l’hosting delle applicazioni.

Migliorare il Data Center per i Big Data

Quando fu introdotto il cloud computing, il pensiero diffuso era che avrebbe sostituito i Data Center aziendali. Tutti i dati sarebbero stati ospitati in pochi grandi Data Center che avrebbero soppiantato tutto il resto. In realtà, la capacità di hosting iniziale era adeguata per macchine virtuali di base, non per applicazioni aziendali complete e complesse, e molti enti pubblici e organizzazioni iniziarono a preoccuparsi della posizione e della protezione dei dati dei clienti. Hanno obbligato così i provider di servizi cloud a soddisfare le esigenze di ambienti applicativi più complessi, senza comunque riuscire ad avere un controllo completo su applicazioni e dati, lasciandoli esposti ad attacchi orchestrati da parte di hacker, furto e ransomware. Per questi motivi, il cloud ibrido è attualmente visto come la soluzione migliore. Da un lato, infatti, offre la facilità di distribuzione e i vantaggi del cloud pubblico, dall’altro fornisce la protezione e il controllo tipici di un Data Center classico.

Come si inserisce Lenovo in questo quadro?

L’approccio di Lenovo nel fornire infrastrutture di Data Center si basa su tre fattori:
1) Il primo sono le partnership. Lenovo ha un approccio “agnostico” che ci consente di collaborare con i più importanti technology provider durante la fase di sviluppo. Ad esempio, SAP ha scelto i nostri server non solo per lo sviluppo di SAP HANA, ma anche per la creazione di tre sistemi cloud per SAP HANA. Di conseguenza, Lenovo è leader globale nel mercato delle soluzioni SAP HANA, con una quota di mercato superiore al 50%.
2) Il secondo fattore è correlato alla trasformazione dei Data Center. Non essendo legata a soluzioni legacy di storage e networking, le aree che stanno subendo i cambiamenti più significativi, Lenovo – attraverso un approccio software-defined – può rimanere più agevolmente al passo con le necessità dei clienti, adottando le tecnologie più recenti e andando a influire in positivo (con economie e ritorni migliori sull’investimento) sulla struttura di costo dei Data Center.
3) Terzo fattore è l’HPC (High Performance Computing), dove Lenovo è il numero due nella classifica TOP500 dei supercomputer (Dati Top500.org). Si tratta di ambienti informatici tra i più sfidanti al mondo e Lenovo ha indubitabilmente, come dimostra la classifica, le migliori competenze per la pianificazione, la distribuzione e il supporto per creare una nuova classe di sistemi server.
Einstein disse che “follia è fare sempre la stessa cosa aspettandosi risultati diversi”. Lenovo offre ai clienti un modo per fare le cose diversamente, ottenendo un miglioramento. Non per niente, il nostro motto in Lenovo è #differentisbetter – anche nel Data Center.

Lenovo data center big data

Il ruolo del Data Center nella gestione dei Big Data ultima modifica: 2018-04-26T11:11:58+00:00 da Web Digitalic
IQ Test WIFI

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!