WaveNet di Google DeepMind vicino a replicare il linguaggio umano

WaveNet è un sistema in grado di elaborare un linguaggio umano realistico. Le sue prestazioni superano del 50% la tecnologia esistente che fino a oggi non riusciva a riprodurre la voce umana.
Google non ha mai tenuto nascosta la propria passione per l’intelligenza artificiale e sono numerose le risorse che vengono destinate alla ricerca e allo sviluppo in questo ambito. Basti pensare a chatbot (simulatore di conversazione) e ai robot che attraverso l’AI (Artificial Intelligence) si cimentano nella stesura di misteriosi versi post-moderni, tanto per citarne un paio. Ma di pari passo ad un fervore sempre più crescente rivolto verso i robot, Google sa bene che sono molti a temere un apocalisse robotico, e a questo proposito è stato creato un sistema capace di neutralizzare queste macchine prima ancora che facciano (volontariamente o involontariamente) male a qualcuno.

DeepMind è stata acquisita da Google per 500 milioni di dollari nel 2014. Il sistema DeepMind, nello specifico, cerca di mimare il meccanismo di funzionamento della mente umana e può essere programmato per imparare informazioni e rielaborarne altre autonomamente.
Nonostante i continui miglioramenti, gli assistenti di AI non hanno ancora nulla di umanoide. Quando riproducono frasi, il loro suono robotico distintivo non accenna ad ammansirsi. Ma a dare una svolta a questo problema ci ha pensato DeepMind che con il suo nuovo WaveNet, che ha fatto sì che l’AI riuscisse a compiere grandi passi verso la riproduzione e l’imitazione del parlato umano.
Ovviamente, la resa non è perfetta, ma il miglioramento effettivo è del 50% maggiore di qualsiasi altra tecnologia.
DeepMind fa anche qualcos’altro: una volta appresi una serie di brani di musica classica al pianoforte, sa creare brani propri originali. E’ possibile ascoltarne qualcuno sul blog ufficiale di DeepMind e il risultato è sorprendente. Di certo occorrerà ancora molto tempo prima di vedere questa tecnologia sul mercato, uno dei limiti maggiori consiste nel dispendio energetico ancora troppo elevato.

Solitamente i ricercatori evitano di modellare degli audio in formato raw, perché ticchettano velocemente; in genere di tratta di 16.00 campioni al secondo, con strutture importanti a più scale temporali. Il fatto di essere riusciti a costruire un modello autoregressivo, in cui la previsione di ogni campione viene influenzata dalla serie che lo precede, è una sfida chiaramente impegnativa.
Soltanto il tempo saprà dire se questo sistema porterà a qualcosa di clamoroso. Forse in un futuro non troppo remoto avremo la possibilità di chiacchierare con i nostri dispositivi.


WaveNet di Google DeepMind vicino a replicare il linguaggio umano - Ultima modifica: 2016-09-13T10:00:49+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

Recent Posts

Digitalic © MMedia Srl

Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135

Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011