Quanto dev’essere grande un insieme di informazioni per essere definito Big Data?
La definizione dice che si può parlare di Big Data quando sono necessari strumenti diversi da quelli tradizionali per raccoglierli, conservarli, analizzarli e visualizzarli. La definizione quindi è molto ampia, anche perché non è facile stabilire cosa sia uno “strumento tradizionale” in informatica.
Per convenzione si parla di Big Data quando si ragiona nell’ordine di uno ZettaByte (1021 byte). Ad oggi la misura più grande individuata per i dati è il BrontoByte, ovvero 1027. Non è ancora uno standard certificato, secondo alcuni dovrebbe infatti chiamarsi GoogolByte. Sembrava una misura lontanissima da raggiungere e invece si dice che l’NSA (National Security Agency) degli Sati Uniti abbia già raccolto almeno uno Yottabyte di dati sulle persone (per il cui storage servirebbero 100 miliardi di hard disk da 10 TB). In questa infografica potete vedere la grandezza relativa delle varie unità di misura dei dati.
Leggi anche: 5 modi in cui i Big Data stanno cambiando l’industria manifatturiera
GPT-5.4 raggiunge il 75% su OSWorld-Verified, superando i dati fatti segnare dagli umani del 72,4%…
Arriva il malware agentico, polimorfo, in grado di cambiare in pochi secondi. L’intelligenza artificiale non…
Ignite On Tour al Museo della Scienza di Milano, nelle sale dove Leonardo immaginava macchine…
Data poisoning: come funziona il nuovo attacco che manipola gli LLM nel tempo, influenzando il…
Il MacBook Neo a 699 euro segna una svolta strategica per Apple, che entra nella…
Uno scenario chiamato The 2028 Global Intelligence Crisis, elaborato da Citrini Research, immagina una crisi…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011