Nvidia è all’avanguardia nell’utilizzo di GPU per applicazioni di AI e di machine learning e ha da poco presentato l’architettura di calcolo Volta GPU e il data center GPU Tesla V100.
L’intelligenza artificiale (AI) e il machine learning rappresentano degli sviluppi tecnologici incredibilmente importanti che richiedono enormi quantità di potenza di calcolo. Microsoft – attualmente – sta tenendo la conferenza per gli sviluppatori Build 2017 e non figura alcun prodotto che, in un modo o nell’altro, non integri l’AI o l’apprendimento automatico.
Uno dei modi migliori per progettare il miglior tipo di infrastruttura di calcolo ad alta velocità è l’utilizzo delle GPU, che può essere più efficiente delle CPU di uso comune.
Nvidia ha definito Volta come la “più potente al mondo” e l’ha costruita con 21 miliardi di transistor che forniscono prestazioni di apprendimento approfondito pari a 100 CPU. Ciò equivale a cinque volte la performance dell’architettura Pascal in termini di picco di teraflops e 15 volte la performance di Maxwell. Secondo Nvidia, le prestazioni di Volta quadruplicano quel miglioramento che la legge di Moore prevede.
Secondo Jensen Huang, fondatore e amministratore delegato di Nvidia “L’apprendimento approfondito, ovvero la forma di approccio innovativo di AI che crea un software per computer che impara, ha una domanda insaziabile di potenza di elaborazione. Migliaia di ingegneri della Nvidia hanno impiegato tre anni a costruire Volta non solo per aiutare a soddisfare questa esigenza, ma anche per consentire all’industria di comprendere il potenziale in grado di cambiare la vita di tutti grazie all’AI”.
Oltre all’architettura Volta, Nvidia ha anche presentato data center GPU Tesla V100, che incorpora una serie di nuove tecnologie. Essi includono quanto segue, secondo quanto comunicato nell’annuncio da Nvidia:
– Tensor Cores, progettati per accelerare i carichi di lavoro dell’AI. Dotata di Tensor Cores 640, la V100 offre 120 teraflop di prestazioni di apprendimento approfondito, equivalenti alle prestazioni di 100 CPU.
– Nuova architettura delle GPU con oltre 21 miliardi di transistor. Unisce i nuclei CUDA e i Tensor Cores all’interno di un’architettura unificata, fornendo la prestazione di un supercomputer AI in una singola GPU.
– NVLink fornisce la prossima generazione di interconnessioni ad alta velocità che collegano le GPU e le GPU alle CPU, il doppio di NVLink di prima generazione.
– 900 GB / sec HBM2 DRAM, sviluppato in collaborazione con Samsung, raggiunge il 50% in più di larghezza di banda di memoria rispetto alle GPU della precedente generazione, essenziale per supportare la straordinaria velocità di elaborazione di Volta.
– Software ottimizzato per Volta, inclusi i software CUDA, cuDNN e TensorRT, che sia i framework che le applicazioni possono sfruttare per accelerare l’AI e la ricerca.
Alcune organizzazioni stanno progettando di utilizzare Volta nelle loro applicazioni, tra cui Amazon Web Services, Baidu, Facebook, Google e Microsoft. Poiché l’AI e il machine learning sono sempre più integrati nella tecnologia utilizzata ogni giorno, probabilmente saranno soluzioni come le GPU Volta e Tesla V100 ad alimentarle.
Il 22 aprile BlueIT porta l’AI Accelerator al Castello Visconteo di Pandino per la prima…
Presentato nella mostra Space Dreamers a Milano, l'ASUS ExpertBook Ultra pesa 0,99 kg, monta un…
Alla NVIDIA GTC 2026 Jensen Huang ha presentato Vera Rubin, Groq 3, Dynamo 1.0 e…
GPT-5.4 raggiunge il 75% su OSWorld-Verified, superando i dati fatti segnare dagli umani del 72,4%…
Arriva il malware agentico, polimorfo, in grado di cambiare in pochi secondi. L’intelligenza artificiale non…
Ignite On Tour al Museo della Scienza di Milano, nelle sale dove Leonardo immaginava macchine…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011