Piergiorgio Grossi: “Fog Computing, utilizziamo le risorse disponibili localmente”

ZAC! Il Cloud si avvicina alla nostra vita e ai dispositivi di tutti i giorni, abbassandosi e diventando una nuvola vicina al suolo e cioè nebbia (Fog). L’intervista all’ex Cio Ferrari, ora Direttore dell’Innovazione in Iconsulting di Emanuela Zaccone* Nebbia non è sempre sinonimo di mancanza di visibilità e confusione. Non quando si parla di […]

ZAC!

Il Cloud si avvicina alla nostra vita e ai dispositivi di tutti i giorni, abbassandosi e diventando una nuvola vicina al suolo e cioè nebbia (Fog). L’intervista all’ex Cio Ferrari, ora Direttore dell’Innovazione in Iconsulting

di Emanuela Zaccone*

Nebbia non è sempre sinonimo di mancanza di visibilità e confusione. Non quando si parla di Fog Computing e il concetto si associa a quello di distribuzione per tradursi in efficienza. Facciamo chiarezza con Piergiorgio Grossi, ex Cio Ferrari, oggi Direttore di Better Decisions e Direttore dell’Innovazione in Iconsulting, azienda che risolve problemi complessi attraverso i Big Data Analytics e la Business Intelligence.

Immagina di dover spiegare cosa sia il Fog Computing a chi non ne ha mai sentito parlare. Come lo definiresti e perché è importante?

L’informatica ci ha abituato a un “effetto pendolo” continuo: si va periodicamente da una centralizzazione delle risorse (ad esempio i mainframe), all’utilizzo di risorse di periferia (come i personal computer). Negli ultimi anni le tecnologie hanno dato una spinta molto forte in direzioni apparentemente opposte. Da una parte ci sono i sistemi Cloud e quindi la disponibilità di potenza di calcolo e di memorizzazione dati praticamente infinita, fornita da grandi provider di tecnologia (Google, Amazon, Microsoft, IBM per citarne alcuni). Sul Cloud sono nate e vivono quotidianamente le più grandi aziende di quella che una volta si chiamava new economy e non solo: Airbnb, Uber esistono grazie a queste tecnologie.

Dall’altra parte abbiamo avuto un’evoluzione tecnologica che ha portato a un incremento della potenza di elaborazione e memorizzazione di piccoli dispositivi, spesso a bassissimo costo, trainata dall’esplosione del fenomeno smartphone.

Quindi, se da un lato il Cloud attrae sempre di più gli investimenti delle aziende, dall’altro iniziamo a percepire come uno spreco tutta questa potenza di elaborazione che abbiamo ormai nelle nostre mani (smartphone), negli orologi intelligenti, nelle centraline delle auto sempre più connesse, negli apparati che installiamo in casa per gestire la rete o il riscaldamento. Per non parlare dei dispositivi industriali già fortemente connessi da tempo.

Ecco quindi che nasce il concetto di Fog Computing: la nuvola (Cloud) si avvicina alla nostra vita e ai dispositivi di tutti i giorni, si abbassa diventando così nebbia (Fog). Sicuramente un concetto poco romantico ma che rende l’idea di vicinanza con le cose terrene o con la periferia, se pensiamo alla metafora di una rete che collega tutti gli oggetti del mondo.

Per andare nella nuvola si può usare un razzo della Nasa o un palloncino gonfiato ad elio: abbiamo sempre il mezzo giusto al costo giusto? Forse no! Forse ha senso pensare di rimanere vicini al terreno, nel Fog, ed utilizzare le risorse che sono disponibili localmente.

Il Fog Computing (concetto introdotto da Cisco) è quindi una piattaforma che collega i dispositivi di quella che viene chiamata Internet delle Cose: gli oggetti della nostra vita che hanno un processore in grado di fare calcoli, una memoria in grado di archiviare informazioni e un collegamento di rete in modo da permettere la comunicazione. Il Fog Computing è un paradigma che estende il concetto di Cloud portandolo alla periferia della rete sfruttando la capacità computazionale dei singoli oggetti che al Cloud sono connessi e di dispositivi ad hoc che hanno la caratteristica di avere una prossimità con la periferia della rete stessa e che agiscono da coordinatori.

Fog Computing e IoT: perché l’uno ha bisogno dell’altro?

Perché il Fog Computing abbia senso e possa essere un vero complemento al Cloud, è necessario che i dispositivi che lo animano siano milioni: tanti, piccoli, distribuiti e potenti a sufficienza.

E qui entra l’IoT, l’Internet delle Cose: una rete di oggetti fisici (things) connessi, che possono avere sensori e interagire con l’ambiente e che tipicamente hanno quello che serve al Fog: la capacità di interagire tra di loro e con quelli che vengono chiamati “edge servers”, cioè server distribuiti in grado di coordinare le attività Fog nella periferia della rete.

La domanda è quindi: abbiamo bisogno di andare sempre nel Cloud per fare i calcoli che ci servono in periferia? Dobbiamo mandare tutte le informazioni dalla periferia alla nuvola? C’è il tempo necessario per inviare i dati nel Cloud, fare le analisi che servono e mandare la risposta sul campo per prendere le decisioni?

La risposta è quella che viene chiamata “Data Gravity”: facciamo cadere le applicazioni dal Cloud al campo. I nostri sistemi IoT beneficeranno di una nuova risorsa di calcolo e memorizzazione vicina, veloce, sufficientemente potente per espletare alcuni servizi magari critici (e che devono poter funzionare, per esempio, senza una connettività verso il Cloud).

“Big data” è diventato un termine di tendenza, quali sono gli esempi virtuosi?

Ricordiamoci sempre che tra un buon dato e una buona decisione esiste un elemento non neutro: il decisore. Tutto questo focus sulla tecnologia deve essere accompagnato da uno sforzo verso l’uomo, la sua competenza e la capacità di utilizzare i dati per prendere decisioni migliori. La vera miniera d’oro non sono solo i dati, ma anche gli algoritmi che sanno e sapranno elaborare per fornire indicazioni utili ai decisori.

Mi piace pensare al contributo che siamo stati in grado di dare per allocare meglio le risorse per la sanità in alcune regioni, permettendo un risparmio per lo Stato ma allo stesso tempo minimizzando il disagio al cittadino. E questo è stato possibile utilizzando il dato con forte componente geografica. Sapendo infatti dove le persone vivono e dove vengono curate, gli organi sanitari possono ottimizzare l’allocazione delle risorse, i percorsi, i servizi.

Pensiamo anche al fenomeno criminalità: quante informazioni geografiche sono a disposizione delle Polizie? La storia dei crimini e delle loro tipologie, la posizione degli agenti sul territorio, la segnalazione dei reati: siamo così distanti da algoritmi che aiutino una miglior disposizione delle forze sul territorio per minimizzare la probabilità che un reato abbia luogo? Secondo noi no, anzi: questo è già realtà.

Il futuro di reti, dati e la sicurezza: come lo immagini?

Negli ultimi anni gli sviluppi in termini di reti e dati hanno fatto passi da gigante ma il tema della sicurezza, sebbene molto citato, è stato forse trascurato. O meglio, le nuove tecnologie e le relative connessioni (vedi proprio il Fog che è un paradigma legato alla relazione tra oggetti) danno potenzialmente il fianco a problemi di sicurezza che non siamo preparati ad affrontare. Le tecnologie si evolvono velocemente, tendono a essere sempre più trasparenti e poco invasive, cambiano il nostro modo di relazionarci a loro, di conseguenza la sicurezza diventa un processo che evolve continuamente, di pari passo ai paradigmi e ai dispositivi.

*Emanuela Zaccone, Digital Entrepreneur, Co-founder e Social Media Strategist di TOK.tv. Ha oltre 7 anni di esperienza come consulente e docente in ambito Social Media Analysis e Strategy per grandi aziende, startup e università. Nel 2011 ha completato un Dottorato di Ricerca tra le università di Bologna e Nottingham con una tesi su Social Media Marketing e Social TV.

Piergiorgio Grossi

Piergiorgio Grossi


Piergiorgio Grossi: “Fog Computing, utilizziamo le risorse disponibili localmente” - Ultima modifica: 2016-04-26T07:55:13+00:00 da Francesco Marino
e-book guida ecm

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!