WaveNet di Google è un sistema in grado di elaborare in modo realiztico il linguaggio umano. Le sue prestazioni superano del 50% la tecnologia esistente
WaveNet è un sistema in grado di elaborare un linguaggio umano realistico. Le sue prestazioni superano del 50% la tecnologia esistente che fino a oggi non riusciva a riprodurre la voce umana.
Google non ha mai tenuto nascosta la propria passione per l’intelligenza artificiale e sono numerose le risorse che vengono destinate alla ricerca e allo sviluppo in questo ambito. Basti pensare a chatbot (simulatore di conversazione) e ai robot che attraverso l’AI (Artificial Intelligence) si cimentano nella stesura di misteriosi versi post-moderni, tanto per citarne un paio. Ma di pari passo ad un fervore sempre più crescente rivolto verso i robot, Google sa bene che sono molti a temere un apocalisse robotico, e a questo proposito è stato creato un sistema capace di neutralizzare queste macchine prima ancora che facciano (volontariamente o involontariamente) male a qualcuno.
DeepMind è stata acquisita da Google per 500 milioni di dollari nel 2014. Il sistema DeepMind, nello specifico, cerca di mimare il meccanismo di funzionamento della mente umana e può essere programmato per imparare informazioni e rielaborarne altre autonomamente.
Nonostante i continui miglioramenti, gli assistenti di AI non hanno ancora nulla di umanoide. Quando riproducono frasi, il loro suono robotico distintivo non accenna ad ammansirsi. Ma a dare una svolta a questo problema ci ha pensato DeepMind che con il suo nuovo WaveNet, che ha fatto sì che l’AI riuscisse a compiere grandi passi verso la riproduzione e l’imitazione del parlato umano.
Ovviamente, la resa non è perfetta, ma il miglioramento effettivo è del 50% maggiore di qualsiasi altra tecnologia.
DeepMind fa anche qualcos’altro: una volta appresi una serie di brani di musica classica al pianoforte, sa creare brani propri originali. E’ possibile ascoltarne qualcuno sul blog ufficiale di DeepMind e il risultato è sorprendente. Di certo occorrerà ancora molto tempo prima di vedere questa tecnologia sul mercato, uno dei limiti maggiori consiste nel dispendio energetico ancora troppo elevato.
Solitamente i ricercatori evitano di modellare degli audio in formato raw, perché ticchettano velocemente; in genere di tratta di 16.00 campioni al secondo, con strutture importanti a più scale temporali. Il fatto di essere riusciti a costruire un modello autoregressivo, in cui la previsione di ogni campione viene influenzata dalla serie che lo precede, è una sfida chiaramente impegnativa.
Soltanto il tempo saprà dire se questo sistema porterà a qualcosa di clamoroso. Forse in un futuro non troppo remoto avremo la possibilità di chiacchierare con i nostri dispositivi.