WaveNet è un sistema in grado di elaborare un linguaggio umano realistico. Le sue prestazioni superano del 50% la tecnologia esistente che fino a oggi non riusciva a riprodurre la voce umana.
Google non ha mai tenuto nascosta la propria passione per l’intelligenza artificiale e sono numerose le risorse che vengono destinate alla ricerca e allo sviluppo in questo ambito. Basti pensare a chatbot (simulatore di conversazione) e ai robot che attraverso l’AI (Artificial Intelligence) si cimentano nella stesura di misteriosi versi post-moderni, tanto per citarne un paio. Ma di pari passo ad un fervore sempre più crescente rivolto verso i robot, Google sa bene che sono molti a temere un apocalisse robotico, e a questo proposito è stato creato un sistema capace di neutralizzare queste macchine prima ancora che facciano (volontariamente o involontariamente) male a qualcuno.
DeepMind è stata acquisita da Google per 500 milioni di dollari nel 2014. Il sistema DeepMind, nello specifico, cerca di mimare il meccanismo di funzionamento della mente umana e può essere programmato per imparare informazioni e rielaborarne altre autonomamente.
Nonostante i continui miglioramenti, gli assistenti di AI non hanno ancora nulla di umanoide. Quando riproducono frasi, il loro suono robotico distintivo non accenna ad ammansirsi. Ma a dare una svolta a questo problema ci ha pensato DeepMind che con il suo nuovo WaveNet, che ha fatto sì che l’AI riuscisse a compiere grandi passi verso la riproduzione e l’imitazione del parlato umano.
Ovviamente, la resa non è perfetta, ma il miglioramento effettivo è del 50% maggiore di qualsiasi altra tecnologia.
DeepMind fa anche qualcos’altro: una volta appresi una serie di brani di musica classica al pianoforte, sa creare brani propri originali. E’ possibile ascoltarne qualcuno sul blog ufficiale di DeepMind e il risultato è sorprendente. Di certo occorrerà ancora molto tempo prima di vedere questa tecnologia sul mercato, uno dei limiti maggiori consiste nel dispendio energetico ancora troppo elevato.
Solitamente i ricercatori evitano di modellare degli audio in formato raw, perché ticchettano velocemente; in genere di tratta di 16.00 campioni al secondo, con strutture importanti a più scale temporali. Il fatto di essere riusciti a costruire un modello autoregressivo, in cui la previsione di ogni campione viene influenzata dalla serie che lo precede, è una sfida chiaramente impegnativa.
Soltanto il tempo saprà dire se questo sistema porterà a qualcosa di clamoroso. Forse in un futuro non troppo remoto avremo la possibilità di chiacchierare con i nostri dispositivi.
Nvidia svela il supercomputer DGX GH200 dedicato all'AI di grandi dimensioni per clienti come Meta…
Arriva l'intelligenza artificiale sugli iPhone con Claude: ecco come funziona e come sfruttarla al meglio
Immagini Festa della Mamma 2023 di auguri. Raccolta di foto da condividere, divertenti e simpatiche,…
GIF per la festa della mamma 2023, immagini animate da scaricare gratis e condividere su…
Star Wars è uscito al cinema per la prima volta il 25 maggio 1977, ma…
Pechino Express è un viaggio nell'umanità, quella delle persone che si incontrano nelle nazioni attraversate,…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011