Elon Musk, Stephen Hawking, centinaia di ricercatori, hanno approvato una lista composta da 23 principi-guida per uno sviluppo dell’AI produttivo e sicuro
L’intelligenza artificiale è una tecnologia straordinaria che sta cambiando il mondo in modo impattante, ma chiunque abbia mai visto il film Terminator sa bene che ci sono alcuni pericoli connessi con l’intelligenza artificiale avanzata. Ecco perché Elon Musk, Stephen Hawking, centinaia di ricercatori, leader del settore tecnologico e scienziati hanno approvato una lista composta da 23 principi-guida che dovrebbero volgere ad uno sviluppo dell’AI in un modo produttivo, etico e sicuro.
Il testo si chiama “Asilomar AI Principles” (Principi Asilomar per AI) sono stati sviluppati dopo che l’Istituto Future of Life è riuscito a riunire insieme decine di esperti che hanno preso parte alla loro conferenza “Beneficial AI 2017”. Gli esperti, le cui specializzazioni spaziavano dalla robotica, alla fisica, all’economia, alla filosofia, hanno intercorso dibattiti accesi in tema della sicurezza dell’AI, ma anche sull’impatto economico tra i lavoratori umani e sull’etica della programmazione, solo per citarne alcuni. Al fine di rendere la lista di principi effettiva, il requisito era che almeno il 90% degli esperti fosse concorde.
“Abbiamo ottenuto un elenco composto da di 23 principi che vanno dalle strategie di ricerca per i diritti sui dati, ai problemi futuri, tra cui il potenziale della super-intelligenza. Il testo è stato firmato da coloro che desiderano associare il loro nome all’iniziativa. Questo insieme di principi non è affatto completo e si apre a diverse interpretazioni, ma evidenzia anche come l’attuale comportamento di ‘default’ intorno a molte questioni rilevanti, possa violare i principi che la maggior parte dei partecipanti ha concordato nel sostenere” come si spiega sul sito di Future of Life.
I principi sono stati approvati da 892 ricercatori di AI o robotica e 1445 altri esperti, tra cui il CEO di Tesla Elon Musk e il famoso fisico Stephen Hawking. Alcuni dei principi – come la trasparenza e la condivisione aperta della ricerca tra le imprese competitive, però sembrano essere meno probabili di altre. Anche se non verranno attuati pienamente, i 23 principi migliorare lo sviluppo dell’AI, garantendone un’etica condivisa.
La lista completa dei 23 Principi di Asilomar per l’AI
1. OBIETTIVO DELLA RICERCA: Lo scopo della ricerca sull’AI deve creare un’intelligenza della quale beneficiare e non un’intelligenza senza uno scopo.
2. FINANZIAMENTO DELLA RICERCA: Gli investimenti in materia di AI devono essere accompagnati dai finanziamenti per la ricerca al fine di assicurare un uso da cui trarre beneficio, includendo questioni spinose in materia di informatica, economia, legge, etica e studi economici come:
– Come possiamo rendere altamente solidi i sistemi di AI del futuro in modo che questi non siano malfunzionanti oppure oggetto di hacking?
– Come possiamo accrescere la nostra prosperità attraverso l’automazione pur mantenendo le risorse e gli scopi delle persone?
– Come possiamo aggiornare i nostri sistemi legali in modo da renderli più corretti ed efficienti al fine di andare di pari passo con l’AI e riuscendo a gestire i rischi ad essa associati?
– A quale tipo di valori dovremmo allineare l’AI e quali status legali ed etici dovremmo attribuirle?
3. COLLEGAMENTI TRA POLITICA E SCIENZA: Ci dovrebbe essere uno scambio costruttivo e sano tra i ricercatori di intelligenza artificiale e i politici.
4. CULTURA DELLA RICERCA: Una cultura di cooperazione, fiducia e trasparenza dovrebbe costituire la base di chi si occupa di ricerca e sviluppo dell’AI.
5. EVITARE LE CORSE: I team che si occupano dello sviluppo di sistemi AI devono cooperare attivamente per evitare scorciatoie a discapito dei sistemi di sicurezza.
6. SICUREZZA: I sistemi di AI dovrebbero essere sicuri e protetti nel corso di tutta la durata del loro ciclo di vita e verificabili nella loro fattibilità.
7. TRASPARENZA IN CASO DI INSUCCESSO: nel momento in cui un sistema di AI causasse un danno sarebbe possibile scoprirne le cause.
8. TRASPARENZA DEI GIUDIZI: Qualsiasi coinvolgimento da parte di un sistema decisionale autonomo in materia di giustizia dovrebbe fornire spiegazioni soddisfacenti e verificabili da parte delle autorità umane competenti.
9. RESPONSABILITÀ: I progettisti e i costruttori dei sistemi avanzati di AI sono parte attiva nelle implicazioni morali del loro uso e abuso, ma anche delle azioni e hanno la responsabilità e l’opportunità di plasmare tali implicazioni.
10. ALLINEAMENTO DEI VALORI: I sistemi di AI altamente autonomi dovrebbero essere progettati affinché i loro scopi e comportamenti possano garantire di essere allineati con i valori umani ad ogni operazione.
11. VALORI UMANI: i sistemi di AI devono essere progettati e gestiti in modo da essere compatibili con gli ideali di dignità umana, i diritti, le libertà e la diversità culturale.
12. PRIVACY PERSONALE: Le persone dovrebbero avere il diritto di accedere, gestire e controllare i dati che generano e, di pari passo, dare ai sistemi AI la possibilità di analizzare e utilizzare tali dati.
13. LIBERTÀ E PRIVACY: L’applicazione dell’AI ai dati personali non deve limitare irragionevolmente l’idea di libertà delle persone, sia reale che percepita.
14. BENEFICI CONDIVISI: Le tecnologie AI dovrebbero beneficiare e potenziale più persone possibili.
15. PROSPERITÀ CONDIVISA: La prosperità economica creata dall’AI dovrebbe essere condivisa in modo ampio, per dare beneficio a tutta l’umanità.
16. CONTROLLO UMANO: Gli esseri umani dovrebbero scegliere come e se delegare le decisioni ai sistemi di AI per raggiungere i propri obiettivi umani.
17. NON-SOVVERSIONE: Il potere conferito dal controllo dei sistemi di AI altamente avanzati dovrebbe rispettare e migliorare, piuttosto che sovvertire, i processi sociali e civili tra il benessere della società.
18. CORSA ALLE ARMI AI: Una corsa agli armamenti di armi letali autonome dovrebbe essere evitata.
19. GRADI DI PRECAUZIONE: In caso di mancato consenso, dovremmo evitare forti ipotesi riguardanti i limiti massimi sulle future capacità dell’AI.
20. IMPORTANZA: L’AI avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse commisurate.
21. RISCHI: I rischi associati ai sistemi AI, in particolare, i rischi catastrofici o esistenziali, devono essere oggetto di pianificazione e mitigazione degli sforzi, affinché siano commisurati con il loro impatto atteso.
22. MIGLIORAMENTO PERSONALE RICORSIVO: I sistemi di AI progettati per auto-migliorarsi o auto-replicarsi ricorrentemente in modo che possano portare ad un rapido aumento della qualità o delle quantità, devono essere oggetto di misure di sicurezza e di controllo severe.
23. BENE COMUNE: La Super-intelligenza dovrebbe essere sviluppata esclusivamente al servizio di ideali etici ampiamente condivisi e a beneficio di tutta l’umanità, anziché di un solo paese o organizzazione.