Elon Musk (e altri 1.800 leader): “L’intelligenza artificiale è un rischio per l’umanità bisogna fermarla per 6 mesi”

Una lettera aperta chiede di fermare gli esperimenti di intelligenza artificiale, tra i firmatari Elon Musk, Steve Wozniak (co-fondatore di Apple) e altri 1.800 leader della tecnologia e della società civile

L’intelligenza artificiale è pericolosa perché gli stessi laboratori che la stanno sviluppando non ne hanno il controllo, non sanno come può evolversi e non ci sono strumenti di verifica, per questo va fermato per sei mesi ogni tipo di sviluppo, in attesa di creare un sistema di analisi e controllo. Questo è il senso della lettera aperta pubblicata dall’associazione Future of Life Institute, sono più 1.800 i firmatati tra i quali spicca Elon Musk (ceo di Tesla, SpaceX e di Twitter).
Ma non solo, sono molti i nomi noti che hanno sottoscritto l’allarmante lettera aperta sull’AI. Il primo firmatario è Yoshua Bengio, Founder and Scientific Director di Mila, Vincitore del premio Turing e professore all’Università di Montreal.
Ci sono poi
Stuart Russell, professore di informatica alla Berkeley, direttore del Center for Intelligent Systems e coautore del libro di testo “Artificial Intelligence: a Modern Approach”
Elon Musk, CEO di SpaceX, Tesla e Twitter
Steve Wozniak, co-fondatore di Apple
Yuval Noah Harari, Autore e Professore, Università Ebraica di Gerusalemme
Andrew Yang, copresidente di Forward Party, candidato alle presidenziali del 2020, autore di bestseller per il NYT
Valerie Pisano, Presidente e CEO di MILA
Emad Mostaque, CEO di Stability AI
Connor Leahy, CEO di Congettura
Jaan Tallinn, co-fondatore di Skype
Evan Sharp, cofondatore di Pinterest
Chris Larsen, cofondatore di Ripple
Craig Peters, CEO, Getty Images.

Elon Musk Lettera intelligenza artificiale

Cosa dice la lettera che chiede di fermare l’AI

La lettera si rifà ai principi di Asilomar che Elon Musk aveva già sottoscritto insieme, tra gli altri, a Stephen Hawking.
La lettera chiede a “tutti i laboratori di AI a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4 . Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori coinvolti”. Ma perché questo allarme? Perché “I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili”.
Per evitare impatti devastanti sulla società, ora che l’AI ha dimostrato di poter competere con l’intelligenza umana, bisogna creare un sistema di valutazione controllo e verifica con la partecipazione dei governi senza lasciare che siano solo i responsabili delle aziende coinvolte nell’AI a deciderne lo sviluppo.

Stephen Hawking e Elon Musk firmano i 23 principi per l’ AI

Qui trovate il testo integrale della lettera

Mettete in pausa i giganteschi esperimenti di intelligenza artificiale : una lettera aperta

Chiediamo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4.

I sistemi di AI con intelligenza che competono con quella umana possono comportare gravi rischi per la società e l’umanità, come dimostrato da ricerche approfondite [1] e riconosciuto dai migliori laboratori di intelligenza artificiale. [2]
Come affermato nei Principi Asilomar AI ampiamente condivisi , l’AI avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate.
Sfortunatamente questo attezione alla pianificazione e gestione accurata non si sta realizzando anche se negli ultimi mesi i laboratori di intelligenza artificiale sono stati coinvolti in una corsa fuori controllo per sviluppare e implementare intelligenze digitali sempre più potenti che nessuno, nemmeno i loro creatori, sono in grado di capire, prevedere o controllare in modo affidabile.
I sistemi di intelligenza artificiale contemporanei stanno ora possono competere con l’uomo in attività generali, [3] e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazioni con informazioni di propaganda e fake news? Dovremmo automatizzare tutti i lavori, compresi quelli considerati soddisfacenti?
Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, più smart, renderci obsoleti e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti dalle persone. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili.
Questo livello di fiducia dovrebbe essere ben giustificato e aumentare con l’entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che “Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita della potenza calcolo utilizzata per creare nuovi Modelli.” Siamo d’accordo. Quel punto è adesso.
Pertanto, invitiamo tutti i laboratori di AI a sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4 . Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori coinvolti. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.
I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti.
Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio. [4] Ciò non significa una pausa nello sviluppo dell’AI in generale, ma semplicemente un passo indietro rispetto alla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con nuove capacità emergenti.
La ricerca e lo sviluppo dell’AI dovrebbero essere riorientati per rendere più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali i sistemi potenti e all’avanguardia di oggi.
Parallelamente, gli sviluppatori di intelligenza artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA.
Questi dovrebbero come minimo includere: nuove e capaci autorità di regolamentazione dedicate all’AI; supervisione e tracciamento dei sistemi di intelligenza artificiale e degli ampi pool di potenza computazionali; sistemi in grado di riconoscere di provenienza e fare il watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia degli errori nei modelli; un solido ecosistema di audit e certificazione; responsabilità per danni causati dall’AI; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’AI; istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l’AI causerà.
L’umanità può godere di un futuro fiorente con l’AI. Dopo essere riusciti a creare potenti sistemi di intelligenza artificiale, ora possiamo goderci un'”estate di intelligenza artificiale” in cui raccoglieremo i frutti, dobbiamo progettare questi sistemi per il bene di tutti e dobbiamo dare alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. [5] Possiamo farlo anche per l’AI. Godiamoci una lunga estate di AI, non precipitiamoci impreparati in un disastro

[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.
.

Elon Musk (e altri 1.800 leader): “L’intelligenza artificiale è un rischio per l’umanità bisogna fermarla per 6 mesi” - Ultima modifica: 2023-03-31T15:14:41+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

e-book guida ecm

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!