AI Act: cosa prevede la regolamentazione per l’Intelligenza Artificiale dell’Unione Europea

L’AI Act dell’Unione Europea è stato approvato: si tratta una regolamentazione innovativa che definisce l’uso etico e sicuro dell’Intelligenza Artificiale (AI), proteggendo diritti fondamentali e incentivando l’innovazione, ecco cosa prevede

L’AI Act è stato approvato dall’Unione Europea che ha così varato la prima legge al mando per la regolamentazione dell’Intelligenza artificiale e del suo sviluppo.
L’Intelligenza Artificiale (IA) ha preso piede in quasi tutti i settori della società. Dai servizi finanziari alla sanità, dall’istruzione all’intrattenimento, l’AI ha trasformato il modo in cui viviamo e lavoriamo. Tuttavia, a causa della mancanza di una regolamentazione specifica, sono emerse preoccupazioni su come potrebbe essere utilizzata o meglio abusata. In risposta a queste preoccupazioni, l’Unione Europea ha recentemente approvato un’innovativa regolamentazione nota come AI Act.

AI Act EU

AI Act, cosìè

L’AI Act è un regolamento approvato dall’Unione Europea , dopo estenuanti trattive tra i 27 stati membri, che stabilisce le norme per l’utilizzo dell’Intelligenza Artificiale. Il suo obiettivo è garantire che l’AI sia utilizzata in modo sicuro, etico e rispettoso della normativa vigente e dei Diritti Fondamentali. La proposta, presentata per la prima volta dalla Commissione Europea nel 2021, è uno degli strumenti più strutturati al mondo per regolare l’AI

Perché l’AI Act

L’Unione Europa riconosce che le tecnologie IA sono porteranno una vasta gamma di benefici economici e sociali in molti settori, tra cui ambiente e salute Pubblica amministrazione, finanza, mobilità e agricoltura (solo per citarne alcuni). L’AI è particolarmente utile per migliorare le previsioni, per ottimizzare le operazioni e l’allocazione delle risorse, e per personalizzare i servizi.
Tuttavia, le implicazioni dei sistemi AI per i diritti fondamentali protetti dalla Carta dei Diritti Fondamentali dell’UE, così come i rischi per la sicurezza degli utenti quando le tecnologie AI sono incorporate in prodotti e servizi, stanno suscitando preoccupazioni. L’Unione Europea pensa che in particolare, i sistemi di AI possono mettere a rischio diritti fondamentali come il diritto alla non discriminazione, la libertà d’espressione, la dignità umana, la protezione dei dati personali e la privacy.
Data la rapida evoluzione di queste tecnologie, negli ultimi anni la regolamentazione dell’AI è diventata una questione politica centrale nell’Unione Europea (UE). I responsabili politici si sono impegnati a sviluppare un approccio “centrato sull’uomo” all’AI per garantire che gli europei possano beneficiare delle nuove tecnologie sviluppate e funzionanti secondo i valori e i principi.
Per questo è stato varato l’AI Act.

AI Act, cosa prevede

L’AI Act adotta un approccio basato sul rischio. I sistemi di AI sono analizzati e classificati in base al rischio che rappresentano per gli utenti. I vari livelli di rischio determinano il grado di regolamentazione a cui devono attenersi.
Inoltre, l’AI Act mira ad armonizzare le regole sull’intelligenza artificiale in tutta l’Unione Europea, stabilendo un quadro normativo comune. Questo significa che le aziende che sviluppano o implementano sistemi di AI dovranno rispettare lo stesso insieme di regole, indipendentemente dal paese membro in cui operano.
L’UE ha suddiviso le varie tipologie di AI in base al rischio potenziale. Le aziende saranno obbligate ad autovalutar ee AI sviluppate e a collocarsi in una delle categorie previste: Rischio inaccettabile (di cui è vietato lo sviluppo e la commercializzazione), Alto rischio (soggette a valutazione prima della messa a disposizione del pubblico), a rischio limitato (dovere di trasparenza), Basso rischio (non soggette a limitazioni).
Ogni stato membro dovrà nominare una autorità Ai che avrà, sostanzialmente, poteri illimitati e avrà anche la facoltà di esaminare il codice sorgente delle AI per valutarne la conformità.

AI ACT testo integrale in PDF

AI ACT testo integrale allegati in PDF

 

AI Act: le regole

Le nuove regole stabiliscono obblighi per i fornitori e gli utenti a seconda del livello di rischio derivante dall’intelligenza artificiale.

Rischio inaccettabile

I sistemi di AI con rischio inaccettabile sono quelli considerati una minaccia per le persone e saranno vietati.
Pratiche AI proibite Il Titolo II (Articolo 5) della proposta sulla legge dell’IA vieta esplicitamente le pratiche AI dannose che sono considerate una chiara minaccia per la sicurezza

Manipolazione comportamentale cognitiva delle persone o di gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini.
Valutazione sociale: classificare le persone in base al comportamento, allo status socio-economico o alle caratteristiche personali.
Sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.
Potrebbero esserci alcune eccezioni consentite: ad esempio, i sistemi di identificazione biometrica “post” in cui l’identificazione avviene dopo un considerevole ritardo e saranno consentiti per perseguire reati gravi, ma solo dopo l’approvazione del tribunale.
Alto rischio

Sistemi AI ad alto rischio

Sono così definiti. i sistemi AI che influiscono negativamente sulla sicurezza o sui diritti fondamentali, regolamentati dal Titolo III (Articolo 6) saranno considerati ad alto rischio e saranno suddivisi in due categorie:

1. Sistemi AI utilizzati in prodotti soggetti alla legislazione dell’UE sulla sicurezza dei prodotti. Ciò include giocattoli, aviazione, automobili, dispositivi medici e ascensori.

2. Sistemi AI che rientrano in otto aree specifiche e che dovranno essere registrati in un database dell’UE:

Questi sistemi comprendono:

Identificazione biometrica e categorizzazione di persone fisiche;

Amministrazione e funzionamento delle infrastrutture critiche;

Educazione e formazione professionale;

Impiego, gestione dei lavoratori e accesso al lavoro autonomo;

Accesso e fruizione di servizi privati essenziali e servizi pubblici e benefici;

Applicazione della legge;

Gestione dell’immigrazione, dell’asilo e del controllo delle frontiere;

Amministrazione della giustizia e processi democratici.

Tutti questi sistemi AI ad alto rischio sono soggetti a un insieme di nuove regole che includono:
Requisito di una valutazione di conformità ex-ante: i fornitori di sistemi AI ad alto rischio sono essere tenuti a registrare i loro sistemi in un database di tutta l’UE gestito dalla Commissione prima di metterli sul mercato o di metterli in servizio. Qualsiasi prodotto o servizio AI regolato dalla legislazione esistente sulla sicurezza dei prodotti rientrerà nei quadri di conformità di terze parti già applicabili (ad esempio, per i dispositivi medici). I fornitori di sistemi AI attualmente non regolamentati dalla legislazione dell’UE dovranno condurre la loro valutazione di conformità (autovalutazione) dimostrando che rispettano i nuovi requisiti e possono utilizzare la marcatura CE. Solo i sistemi AI ad alto rischio utilizzati per l’identificazione biometrica richiedono una valutazione di conformità da parte di un “organismo notificato”.
Altri requisiti: tali sistemi AI ad alto rischio devono rispettare una serie di requisiti in ambito di gestione del rischio, test, robustezza tecnica, formazione e governance dei dati, trasparenza, supervisione umana e sicurezza informatica (Articoli 8 a 15). In questo senso, i fornitori, importatori, distributori e utenti di sistemi AI ad alto rischio dovranno adempiere a una serie di obblighi. I fornitori extra UE dovranno avere un rappresentante autorizzato in UE per (tra l’altro) garantire la valutazione di conformità, stabilire un sistema di monitoraggio post-vendita e prendere le misure correttive necessarie. I sistemi IA che rispettano i nuovi standard armonizzati dell’UE, attualmente in fase di sviluppo, beneficiano della presunzione di conformità con i requisiti del progetto di legge sull’IA.

Riconoscimento facciale

L’AI consente l’uso di tecnologie biometriche, incluso il riconoscimento facciale, che vengono utilizzate da attori privati o pubblici per scopi di verifica, identificazione e categorizzazione. Oltre alla legislazione attualmente applicabile (ad esempio, protezione dei dati e non discriminazione), il l’AI Act prevede di introdurre nuove regole per le tecnologie di riconoscimento facciale e differenziarle in base alle loro caratteristiche di utilizzo “ad alto rischio” o “a basso rischio”. L’uso di sistemi di riconoscimento facciale in tempo reale in spazi accessibili al pubblico per scopi di applicazione della legge è proibito, a meno che gli Stati membri scelgano di autorizzarli per importanti motivi di sicurezza pubblica, e siano concessi le adeguate autorizzazioni giudiziarie o amministrative. Un’ampia gamma di tecnologie di riconoscimento facciale utilizzate per scopi diversi dall’applicazione della legge (ad esempio, controllo delle frontiere, mercati, trasporti pubblici e persino scuole) potrebbe essere permessi, se soggette a una valutazione di conformità e rispetto degli requisiti di sicurezza prima di entrare nel mercato dell’UE.

AI generativa

L’AI generativa, come ChatGPT, deve rispettare i requisiti di trasparenza e cioè:

  • Mostrare che il contenuto è stato generato dall’IA
  • Progettare il modello di funzionamento in modo che le sia impedito di generare contenuti illegali
  • Pubblicare riassunti di dati protetti da copyright utilizzati per l’addestramento

 

AI a Rischio limitato

I sistemi AI a rischio limitato dovrebbero rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente potrà quindi decidere se continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l’AI. Ciò include sistemi AI che generano o manipolano contenuti di immagini, audio o video, ad esempio deepfake.

Rischio basso o minimo: nessun obbligo

Tutti gli altri sistemi AI che presentano un rischio basso o minimo possono essere sviluppati e utilizzati nell’UE senza dover rispettare alcun obbligo legale aggiuntivo. Tuttavia, l’AI Act prevede la creazione di codici di condotta per incoraggiare i fornitori di sistemi AI non ad alto rischio ad applicare volontariamente i requisiti obbligatori per i sistemi AU ad alto rischio.

Ai Act Sanzioni

L’AI Act richiede agli Stati membri di designare una o più autorità competenti, tra cui un’autorità di supervisione nazionale, che abbia il compito di supervisionare l’applicazione e l’attuazione del regolamento e istituisce un Consiglio Europeo per l’Intelligenza Artificiale (composto da rappresentanti degli Stati membri e della Commissione) a livello dell’UE. Le autorità nazionali di vigilanza del mercato sono responsabili di valutare la conformità degli operatori con gli obblighi e i requisiti per i sistemi AI ad alto rischio. Essi hanno accesso a informazioni confidenziali (incluso il codice sorgente dei sistemi AI) e sono soggetti a obblighi di riservatezza vincolanti. Inoltre, sono tenuti a prendere qualsiasi misura correttiva per proibire, limitare, ritirare o richiamare i sistemi AI che non rispettano l’AI ACT, o che, seppur conformi, presentano un rischio per la salute o la sicurezza delle persone o per i diritti fondamentali o altre protezioni dell’interesse pubblico.
In caso di persistente non conformità, gli Stati membri dovranno adottare tutte le misure appropriate per limitare, proibire, ritirare o richiamare dal mercato il sistema IA ad alto rischio in questione. Le sanzioni per la non conformità alla legge sull’IA sono fissate in multe amministrative di scala variabile (fino a 30 milioni di euro o il 6% del fatturato annuo totale mondiale), a seconda della gravità dell’infrazione. Gli Stati membri dovrebbero stabilire le norme relative alle sanzioni, tra cui sanzioni amministrative, e adottare tutte le misure necessarie per garantirne l’effettiva e corretta applicazione.

AI Act: Misure per sostenere l’innovazione

La Commissione propone che gli Stati membri, o il Garante Europeo della Protezione dei Dati, potrebbero istituire una sandbox normativa, cioè un ambiente controllato che facilita lo sviluppo, il test e la validazione di sistemi IA innovativi (per un periodo di tempo limitato) prima che vengano messi sul mercato. La sandbox consentirà ai partecipanti di utilizzare dati personali per favorire l’innovazione dell’AI, senza pregiudicare i requisiti del GDPR. Altre misure sono specificamente pensate per fornitori di piccole dimensioni e start-up.

AI Act: impatto sull’industria dell’IA

Questo regolamento avrà un impatto significativo sull’industria dell’IA. Le aziende dovranno affrontare nuovi obblighi normativi e, in alcuni casi, potrebbero dover adattare le loro tecnologie per rispettare le regole. Tuttavia, in molte situazioni, la chiarezza regolamentare potrebbe incoraggiare l’innovazione, poiché le aziende avranno una maggiore certezza sul quadro normativo in cui operano.

L’approvazione dell’AI Act segna l’inizio di una nuova era per la regolamentazione dell’IA. Mentre il regolamento porterà sicuramente delle sfide, offre anche un’opportunità unica per l’Unione Europea di guidare gli standard globali per l’IA. Esso sottolinea l’impegno dell’UE nel garantire che l’IA sia utilizzata in modo sicuro e etico, proteggendo i diritti dei cittadini e incoraggiando l’innovazione.
In un mondo sempre più guidato dall’intelligenza artificiale, l’AI Act costituisce un passo in avanti significativo, non solo per l’Unione Europea, ma per la comunità globale, man mano che lavoriamo tutti per navigare nel futuro dell’innovazione tecnologica.


AI Act: cosa prevede la regolamentazione per l’Intelligenza Artificiale dell’Unione Europea - Ultima modifica: 2023-12-16T09:32:17+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

e-book guida ecm

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!