Studiare i Big Data per salvare il pianeta

Il gelsomino è un fiore che, secondo una leggenda di origine araba, era precedentemente una stella incappata nelle ire del re Micar, che la cacciò dal firmamento e la gettò nel fango. La madre di tutte le stelle, Kitza, temendo che gli uomini avrebbero umiliato la stella caduta, chiese soccorso a Bertso, signora dei giardini, che la trasformò in un fiore profumatissimo. Ma grazie ai Big Data il gelsomino, potrebbe tornare a splendere.

Big Data: numeri da capogiro

Secondo la rivista Nature, infatti, Jasmin, che è super computer e data center e anche una piattaforma open data del Centre for Environmental Data Analysis (Ceda), a dicembre 2018 ha raddoppiato la sua capacità consentendo agli scienziati di tutto il mondo di accedere a una vera e propria miniera di informazioni e analisi: 44 petabyte che serviranno a studiare la terra e l’ambiente.La serie di satelliti Sentinel della European Space Agency (Esa) generano da soli oltre 10 petabyte all’anno.
E un enorme quantità di dati è prodotta ogni giorno da strumenti di rilevazione in terra, in mare e nello spazio. Sono tanti, provenienti da fonte diversa, e questo rende difficile classificare e condividere le informazioni. Jasmin raccoglie i dati prodotti nel mondo da diversi gruppi di ricerca, dall’Esa e da altre agenzie, oltre ai risultati delle simulazioni climatiche generate nei centri di supercalcolo nel Regno Unito e in Germania, che sono stati sponsorizzati dalla Partnership for Advanced Computing in Europa, un’organizzazione senza scopo di lucro che cerca di fornire capacità di supercalcolo ai paesi europei.

Big Data: un aiuto per la salvaguardia del pianeta

Si tratta di un’operazione che potrebbe aiutarci ad affrontare il cambiamento climatico con consapevolezza. Per esempio, secondo le ricerche di un gruppo di scienziati di Cina, Corea del Sud e Svezia si è visto, in base a 27 modelli climatici diversi, come la terra arabile si trasforma in deserto. Lo studio ha confermato che la transizione si verifica a un aumento medio della temperatura globale compreso tra 1,5 e 2°C.
Non solo BigRendere i “numeri” utilizzabili deve essere necessariamente la promessa insita nei Big Data, l’essere grandi e basta non è sufficiente. Utilizzabili e condivisi è anche meglio. Secondo Jeanne Behnke, vice project manager per il progetto Esdis (Earth Science Data and Information System) della Nasa, che detiene 24 petabyte di dati nel suo archivio e ha distribuito 1,3 miliardi di file a circa 3 milioni di utenti nel 2017, la condivisione sta diventando più semplice. “Abbiamo cercato di partire dal selvaggio west per convincere la gente a seguire tre o quattro formati”.

L’omogeneità è un fattore chiave per rendere i dati accessibili. Attualmente non esiste uno standard universale per le informazioni sulle scienze della terra, ma ci sono tentativi di condividere buone pratiche. La stessa Nasa sta promuovendo la standardizzazione dei metadati. Esdis ha adottato standard internazionali per i metadati sviluppati dall’International Organization for Standardization (Iso), che specificano in che modo devono essere etichettati i set e suggeriscono le parole chiave per descriverli.

Big Data: alcune ricerche

La combinazione di set diversi ci permette di conoscere il mondo in modi nuovi. Nel 2016 alcuni ricercatori della Stanford University hanno acquisito le immagini satellitari di cinque paesi africani confrontando le aree luminose durante il giorno e la notte, analizzando come la presenza di infrastrutture possa migliorare le condizioni di vita. All’Università di Wuhan in Cina hanno studiato i risultati del telerilevamento satellitare di Shanghai.
Oltre a determinare la crescita della città e la velocità del cambiamento rispetto alla costruzione di nuovi edifici e strade, hanno anche esaminato i messaggi di social media geolocalizzati. La combinazione di queste informazioni ha restituito un’immagine granulare dell’interazione tra urbanizzazione e attività umane, fornendo dettagli sulla crescita delle città e la qualità della vita utili in termini di pianificazione politica. In questo caso si tratta di dati disponibili gratuitamente per utenti specifici.

 

Ma il tema dei Big Data ha a che fare anche con il valore delle informazioni. A dicembre è stato pubblicato lo studio Green Data Center Market con dati suddivisi per aree geografiche, mercati, impiego dei Data Center e i trend da qui al 2025, per un mercato il cui tasso annuo di crescita composto dovrebbe essere di circa il 23%. Si parla di ottimizzazione degli investimenti, di prodotti, servizi e innovazione.Informazioni che di per sé hanno un valore, evidentemente, dato che il rapporto è in vendita online per tremila e trecento dollari per un utente singolo, che diventano seimila e seicento per l’acquisto multiutenza.

di Antonella Tagliabue


Studiare i Big Data per salvare il pianeta - Ultima modifica: 2019-03-03T08:29:45+00:00 da antonella.tagliabue

Giornalista, collabora con numerose testate sui temi del non profit e della sostenibilità quali Il Sole 24 Ore, Metro e Digitalic. Managing Director e Senior Advisor di Un-Guru, coordina il team di Un-Guru per i progetti di responsabilità sociale e ambientale di impresa, non profit e di sviluppo sostenibile, ed è responsabile dell'area marketing e comunicazione. Coordinatore e docente del Master per il Non Profit de Il sole 24 Ore, docente per il Master di Marketing e Comunicazione Ambientale di CTS, oltre che per numerose Università

Recent Posts

Kaspersky ha rilevato mezzo milione di file dannosi al giorno nel 2025

I sistemi di rilevamento di Kaspersky hanno intercettato una media di 500.000 file dannosi al…

2 giorni ago

I ponti dell’innovazione europea, la visione di Ilaria Tagliavini di EIT

Ilaria Tagliavini, responsabile Operations di EIT, racconta la sua visione sull’innovazione europea: imprenditorialità, educazione, gender…

7 giorni ago

Kolsquare acquisisce Inflead: nasce un nuovo capitolo nell’Influencer Marketing europeo

Kolsquare acquisisce Inflead e rafforza la propria strategia europea nell’influencer marketing data-driven. Un’operazione che unisce…

1 settimana ago

IBM acquisisce Confluent per 11 miliardi: nasce la piattaforma intelligente per l’AI d’impresa

L'operazione da 11 miliardi di dollari posiziona IBM come leader nella gestione dei dati in…

1 settimana ago

HDD e AI: perché gli hard disk tradizionali sono più strategici che mai secondo WD

Nel mondo dell'intelligenza artificiale, la tecnologia "vecchia scuola" si rivela insostituibile. Ecco perché gli hard…

2 settimane ago

Vilnius è la capitale europea della sharing economy: il modello che sta cambiando le città

Vilnius si posiziona al primo posto in Europa e al secondo nel mondo per sharing…

2 settimane ago

Digitalic © MMedia Srl

Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135

Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011