Il Rapporto Stanford AI Index 2024
L’intelligenza artificiale (AI) sta trasformando le industrie, influenzando le economie e alimentando dibattiti sull’etica e sull’impatto sociale. Il rapporto Stanford AI Index 2024, pubblicato dall’Istituto Stanford per l’Intelligenza Artificiale Umanocentrica (HAI), presenta una delle analisi più complete sullo stato attuale dell’AI a livello globale. Il rapporto copre numerosi aspetti dello sviluppo dell’AI, dai progressi tecnici e impatti economici alla creazione di politiche e alle sfide etiche. Di seguito è riportata una sintesi di alcune delle scoperte più significative del rapporto.
Progressi tecnici e tendenze della ricerca sull’AI
Una delle sezioni principali del rapporto esamina la rapida progressione tecnologica dei modelli di AI, in particolare i grandi modelli linguistici (LLM) come GPT-4 e Claude. Il rapporto indica che, sebbene questi modelli abbiano raggiunto traguardi impressionanti nella comprensione del linguaggio naturale, la loro performance ha anche evidenziato problemi come rischi etici, bias e occasionali inaffidabilità. Nonostante queste difficoltà, il rapporto sottolinea i sostanziali finanziamenti diretti all’avanzamento degli LLM, con le principali fonti di finanziamento provenienti sia da investimenti privati che da partenariati tra accademia e governo.
Oltre agli LLM, il rapporto esplora anche i progressi in aree come la visione artificiale, l’apprendimento per rinforzo e i sistemi di AI multi-modali, che possono gestire input di vari tipi (ad esempio, testo, immagini e audio). I dati di Stanford mostrano un forte interesse nello sviluppo di modelli più versatili e trasversali, con un passaggio verso sistemi di AI capaci di ragionare e prendere decisioni oltre i domini a compito singolo.
La crescente influenza economica dell’AI
Le implicazioni economiche dell’AI sono un altro focus significativo. Secondo il rapporto del 2024, gli investimenti globali legati all’AI sono continuati a crescere, raggiungendo nuovi record mentre i paesi riconoscono il potenziale della tecnologia per stimolare la crescita economica e l’innovazione. Una tendenza particolarmente rilevante è il crescente ruolo del capitale di rischio nel supportare le startup di AI, specialmente negli Stati Uniti e in Cina, che rimangono all’avanguardia delle economie guidate dall’AI.
L’AI sta anche rimodellando il mercato del lavoro. Il rapporto di Stanford sottolinea che l’AI è stata utilizzata già ampiamente nell’automazione di compiti ripetitivi e per “aumentare” di varie professioni, dalla sanità alla finanza, fino alla logistica. Tuttavia, questa tendenza all’automazione solleva preoccupazioni riguardo all’impiego delle persone, argomento che diventa una questione cruciale di politica. Il rapporto sottolinea la necessità di politiche che promuovano la riqualificazione e i programmi di transizione lavorativa per affrontare le potenziali interruzioni fornite della forza lavoro.
Etica dell’AI, governance e creazione di politiche
Con l’integrazione delle tecnologie AI nella società, le sfide etiche e di governance diventano sempre più significative. Il rapporto dettaglia l’aumento delle politiche legate all’AI a livello globale, con i governi di tutto il mondo che implementano nuove leggi sull’uso dell’AI, la privacy dei dati e la trasparenza sugli algoritmi. Europa, Stati Uniti e Cina sono leader negli sforzi di governance dell’AI, con l’AI Act europeo e l’AI Bill of Rights della Casa Bianca che rappresentano iniziative fondamentali per stabilire linee guida etiche e promuovono lo sviluppo responsabile dell’AI.
Un punto cruciale emerso dal rapporto Stanford 2024 è la necessità di un dialogo continuo tra i responsabili politici, gli sviluppatori tecnologici e il pubblico per garantire un’implementazione sicura ed equa dell’AI. Molti paesi stanno già creando di norme quadro per l’audit dei sistemi di AI, in particolare per le applicazioni in settori sensibili come la sanità, la giustizia e l’istruzione.
Percezione pubblica e rischi di disinformazione
L’opinione pubblica sull’AI è complessa e sempre più polarizzata, secondo i dati dei sondaggi citati nel rapporto. Mentre l’AI promette una moltitudine di benefici, c’è una crescente preoccupazione riguardo alla privacy, alla sicurezza del lavoro e al potenziale uso improprio dell’AI in settori quali la sorveglianza e l’informazione, o meglio la disinformazione. Le piattaforme social media, in particolare, sono state identificate come aree chiave dove la generazione e l’indicazione di contenuti provenienti dall’AI potrebbero contribuire alla diffusione di disinformazione, ponendo nuove sfide per gli organismi regolatori.
Il rapporto evidenzia anche il ruolo della trasparenza nella costruzione della fiducia pubblica nell’AI. Man mano che le persone diventano più consapevoli delle capacità e dei limiti dell’AI, si richiede una maggiore trasparenza e accessibilità delle informazioni su come vengono addestrati i modelli di AI, come vengono utilizzati i dati e come i processi decisionali vengono effettuati dai sistemi di AI.
Educazione e sviluppo della forza lavoro
Il rapporto enfatizza l’importanza dell’educazione e della formazione per rispondere alle esigenze di un futuro guidato dall’AI. Stanford sostiene l’integrazione dei curricula di AI e scienza dei dati nelle istituzioni educative per preparare la prossima generazione di ricercatori, ingegneri e responsabili politici nel campo dell’AI. Molte università a livello globale hanno ampliato i loro programmi di AI, con partenariati tra accademia e industria che garantiscono agli studenti esperienze pratiche e dirette.
Anche i programmi di riqualificazione per i lavoratori attuali sono considerati critici. Con l’AI destinata a rimodellare i ruoli in vari settori, i programmi di formazione che dotano i lavoratori di competenze in machine learning, analisi dei dati e alfabetizzazione digitale saranno essenziali per l’adattamento della forza lavoro.
Distribuzione globale dello sviluppo dell’AI
Geograficamente, il rapporto evidenzia la dominanza di Stati Uniti e Cina nella ricerca, nello sviluppo e nell’adozione dell’AI, sebbene l’Europa e molte nazioni asiatiche stiano investendo pesantemente in iniziative competitive. I dati di Stanford rivelano la disparità globale negli investimenti e nelle infrastrutture dell’AI, con le economie avanzate che fanno la parte del leone nei progressi. Tuttavia, anche alcune economie emergenti sono sempre più attive nello spazio dell’AI, supportate da collaborazioni internazionali e programmi di finanziamento.
Conclusione: plasmare responsabilmente il futuro dell’AI
Il rapporto Stanford AI Index 2024 fornisce una risorsa preziosa per comprendere il panorama attuale e la futura traiettoria dell’AI. Con il continuo avanzamento della tecnologia, cresce l’urgenza di uno sviluppo e una governance responsabili. I responsabili politici, i tecnologi e il pubblico devono collaborare per affrontare le sfide etiche e sociali poste dall’AI, promuovendo al contempo un’innovazione che possa portare a cambiamenti positivi per la società.
I punti essenziali del Rapporto Stanford AI Index 2024
- L’AI supera gli esseri umani in alcuni compiti, ma non in tutti. L’AI ha superato le prestazioni umane in diversi parametri di riferimento, inclusi alcuni nella classificazione delle immagini, ragionamento visivo e comprensione dell’inglese. Tuttavia, è indietro in compiti più complessi come la matematica a livello competitivo, il ragionamento visivo di senso comune e la pianificazione.
- L’industria continua a guidare la ricerca sull’AI. Nel 2023, il settore privato ha prodotto 51 modelli di machine learning significativi, mentre il mondo accademico ne ha costruiti solo 15. Ci sono stati anche 21 modelli risultanti da collaborazioni tra industria e università nel 2023, un nuovo record.
- I modelli all’avanguardia diventano molto più costosi. Secondo le stime dell’AI Index, i costi di creazione dei modelli AI all’avanguardia hanno raggiunto livelli senza precedenti. Ad esempio, GPT-4 di OpenAI ha richiesto 78 milioni di dollari in calcoli per l’addestramento, mentre il Gemini Ultra di Google è costato 191 milioni di dollari per il calcolo.
- Gli Stati Uniti superano la Cina, l’UE e il Regno Unito come principale fonte di modelli AI di alto livello. Nel 2023, 61 modelli AI sono stati originati da istituzioni con sede negli Stati Uniti, superando di gran lunga i 21 dell’Unione Europea e i 15 della Cina.
- Manca in modo preoccupante una valutazione solida e standardizzata sulla responsabilità degli LLM. Nuove ricerche dell’AI Index rivelano una significativa mancanza di standardizzazione nei rapporti sull’AI responsabile. I principali sviluppatori, tra cui OpenAI, Google e Anthropic, testano principalmente i loro modelli in contrasto con diversi parametri di AI responsabile. Questa pratica complica gli sforzi di confrontare sistematicamente i rischi e le limitazioni dei migliori modelli di AI.
- Gli investimenti nell’AI generativa aumentano vertiginosamente. Nonostante una diminuzione complessiva degli investimenti privati nell’AI lo scorso anno, il finanziamento per l’AI generativa è aumentato notevolmente, quasi di otto volte dal 2022 per raggiungere 25,2 miliardi di dollari. I principali attori nel settore dell’AI generativa, compresi OpenAI, Anthropic, Hugging Face e Inflection, hanno ricevuto importanti round di finanziamenti.
- I dati dimostrano che l’AI rende i lavoratori più produttivi e porta a il lavoro ad una qualità superiore. Nel 2023, diversi studi hanno valutato l’impatto dell’AI sul lavoro, suggerendo che l’AI consente alle persone di completare i compiti più rapidamente e di migliorare la qualità del loro output. Questi studi hanno anche dimostrato il potenziale dell’AI di colmare il divario di competenze tra lavoratori poco qualificati e altamente qualificati. Tuttavia, altri studi avvertono che l’uso dell’AI senza una supervisione adeguata può portare a prestazioni ridotte.
- Il progresso scientifico accelera ulteriormente, grazie all’AI. Nel 2022, l’AI ha iniziato ad produrre risultati importanti nella ricerca scientifica e il 2023 ha visto il lancio di applicazioni AI legate alla scienza ancora più significative—da AlphaDev, che rende più efficiente l’ordinamento algoritmico, a GNoME, che facilita il processo di ricerca sui materiali.
- L’AI riduce i costi e aumenta i ricavi. Un nuovo sondaggio di McKinsey rivela che il 42% delle organizzazioni intervistate segnala una riduzione dei costi derivante dall’implementazione dell’AI (inclusa l’AI generativa), e il 59% riporta aumenti dei ricavi. Rispetto all’anno precedente, c’è stato un aumento di 10 punti percentuali tra gli intervistati che riferiscono una diminuzione dei costi, questo suggerisce che l’AI porta significativi miglioramenti nell’efficienza aziendale.
- Le persone in tutto il mondo sono più consapevoli dell’impatto potenziale dell’AI—e più preoccupate. Un sondaggio dell’Ipsos mostra che, nell’ultimo anno, la percentuale di coloro che pensano che l’AI influenzerà drammaticamente le loro vite nei prossimi tre-cinque anni è aumentata dal 60% al 66%. Inoltre, il 52% esprime nervosismo nei confronti dei prodotti e servizi AI, con un aumento di 13 punti percentuali rispetto 2022. In America, i dati di Pew suggeriscono che il 52% degli americani si sente sentirsi più preoccupato che entusiasta riguardo all’AI, in aumento rispetto al 37% nel 2022.
- I ricercatori scoprono vulnerabilità più complesse negli LLM. In precedenza, la maggior parte degli sforzi per testare i modelli di AI si concentrava su prompt “ostili” che avevano senso per gli umani. Quest’anno, i ricercatori hanno trovato strategie meno ovvie per far eseguire artatamente comportamenti dannosi agli LLM, come chiedere ai modelli di ripetere all’infinito parole casuali.
- I rischi dell’AI stanno diventando una preoccupazione per le aziende in tutto il mondo. Un sondaggio globale sull’AI responsabile evidenzia che le principali preoccupazioni delle aziende legate all’AI includono privacy, sicurezza dei dati e affidabilità. Il sondaggio mostra che le organizzazioni stanno iniziando a prendere misure per mitigare questi rischi. Globalmente, tuttavia, la maggior parte delle aziende ha finora mitigato solo una piccola parte di questi rischi.
- Gli LLM possono produrre materiale protetto da copyright. Diversi ricercatori hanno dimostrato che gli output generativi degli LLM più diffusi possono contenere materiale protetto da copyright, come estratti del New York Times o scene di film. Se tale output costituisca una violazione del copyright sta diventando una questione legale centrale.
- Gli sviluppatori ottengono punteggi bassi sulla trasparenza, con conseguenze per la ricerca. Il nuovo Indice di Trasparenza dei Modelli di Fondazione mostra che gli sviluppatori di AI mancano di trasparenza, specialmente riguardo alla divulgazione dei dati di addestramento e delle metodologie. Questa mancanza di apertura ostacola gli sforzi per comprendere ulteriormente la robustezza e la sicurezza dei sistemi di AI.
- l’AI multimodale. Tradizionalmente i sistemi di intelligenza artificiale sono limitati nel loro campo d’azione, esistonp i modelli di linguaggio eccellenti nella comprensione del testo ma carenti nell’elaborazione delle immagini, e viceversa. Tuttavia, recenti progressi hanno portato allo sviluppo di potenti modelli multimodali, come Gemini di Google e GPT-4 di OpenAI. Questi modelli dimostrano flessibilità e sono in grado di gestire immagini e testi e, in alcuni casi, possono anche elaborare audio.