di Cecilia Cantadore

Su Twitter Elon Musk si è esposto lanciando un monito “Bisogna leggere Superintelligence di Bostrom, dobbiamo fare attenzione con l’AI. Potenzialmente è più pericolosa delle armi nucleari”Il libro Superintelligence a cui si riferisce Musk è quello scritto da Nick Bostrom, fondatore del Future of Humanity Institute di Oxford, che ha immaginato come i frutti del progresso in termini di nanotecnologia, robotica e intelligenza artificiale (AI) potranno arrivare un giorno a minacciarci. Il paragone alle armi nucleari e alla distruzione di massa ha immediatamente sollevato questioni e polemiche. Il 43enne imprenditore americano, qualche ora dopo, ha ribadito il concetto in un secondo tweet, in cui addirittura paragona il genere umano a un boot loader biologico per le macchine: “C’è da augurarsi di non essere solamente il boot loader biologico di una superintelligenza digitale. Sfortunatamente, è sempre più probabile”. 
Non è la prima volta che Musk affronta l’argomento.
In un’intervista alla CNBC, all’inizio dell’anno, aveva già sottolineato quanta attenzione fosse necessaria nello sviluppare questi sistemi, e aveva citato in modo scherzoso il film Terminator come esempio di ciò che potrebbe succedere con uno sbagliato utilizzo. Non è difficile immaginare uno scenario da fine del mondo, specialmente con Google che ha messo le mani sulla società di ingegneria e robotica Boston Dynamics e ha appena acquisito la startup londinese DeepMind, che si occupa proprio di intelligenza artificiale.
L’esperto di AI, Ray Kurzweil (dipendente Google, direttore della sezione ingegneria focalizzata sull’elaborazione del linguaggio e machine learnig) ha offerto invece un punto di vista diverso sull’argomento: “secondo me, l’intelligenza artificiale può arricchire ed espandere le capacità umane”.

Musk, da parte sua, nonostante questi suoi tweet non può certo essere definito “contrario” all’intelligenza artificiale, basti pensare che le macchine Tesla nel giro di qualche anno probabilmente andranno in giro senza bisogno di un pilota umano al volante. Il fatto che l’intelligenza artificiale sia “potenzialmente pericolosa”, ovviamente, non costituisce motivo sufficiente a rinunciare in questa fase a investire nella ricerca e sviluppo: proprio Elon Musk è infatti uno dei maggiori investitori alle spalle di Vicarious, startup di San Francisco il cui fine ultimo è proprio quello d’insegnare alle macchine a pensare come gli esseri umani. E nel mondo della tecnologia, anche se non si sono esposti apertamente, altri la pensano come Musk, tant’è che tra gli investitori in Vicarious ci sono anche Mark Zuckerberg di Facebook e Jeff Bezos di Amazon.

Elon Musk: “L’intelligenza artificiale è più pericolosa delle armi nucleari” ultima modifica: 2014-08-08T11:06:33+00:00 da Francesco Marino
Accenture Cristina

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!

Entra nella commmunity di Digitalic, seguici!