Con il DDL 1146 l’Italia si prepara dotarsi della propria legge sull’Intelligenza artificiale e c’è qualcosa di profondamente italiano nel modo in cui abbiamo scelto di regolamentare l’intelligenza artificiale. Mentre altri paesi corrono verso l’automazione spinta, noi abbiamo fatto una scelta diversa. Il 25 giugno 2025, con l’approvazione alla Camera dei Deputati del DDL 1146, l’Italia ha detto una cosa molto semplice ma rivoluzionaria: l’intelligenza artificiale deve servire l’uomo, non sostituirlo. Non è solo una questione di regole, è una questione di visione del mondo.
Indice dei contenuti
La vera bomba del DDL 1146 non sta nei suoi 28 articoli o nelle sue definizioni tecniche. Sta in una frase che dovrebbe far riflettere chiunque: “È sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge”. Sembra banale? Non lo è affatto.
In un mondo dove algoritmi decidono cosa vediamo sui social, cosa compriamo online, persino chi assumere in un’azienda, l’Italia ha detto no alla giustizia predittiva. Niente algoritmi che suggeriscono sentenze. Niente “intelligenze” artificiali che valutano prove o interpretano codici. Il giudice resta umano, comunque.
Negli Stati Uniti alcuni stati usano già algoritmi per valutare il rischio di recidiva dei detenuti. In Cina, l’IA aiuta i tribunali a elaborare decisioni. Noi abbiamo scelto l’opposto. Abbiamo detto che la giustizia è troppo importante per lasciarla ai numeri, alle probabilità, alle correlazioni statistiche. L’IA può aiutare a gestire i fascicoli, organizzare le udienze, persino fare ricerche giurisprudenziali. Ma decidere? In Italia no.
Il testo, composto da 28 articoli suddivisi in sei capi, mira a disciplinare a livello nazionale l’uso dell’IA nei settori strategici e a garantire un approccio antropocentrico e responsabile. Questa legge non è solo un adeguamento alle normative europee, ma rappresenta una visione italiana specifica che pone l’essere umano al centro dello sviluppo tecnologico.
Uno degli aspetti più significativi del DDL 1146 è, come dicevamo, l’approccio antropocentrico all’intelligenza artificiale, volto a coglierne le opportunità garantendo al contempo la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali.
I principi generali sono contenuti negli articoli 3, 4, 5 del ddl che fanno riferimento, tra gli altri, a un approccio antropocentrico, al rispetto delle istituzioni democratiche, dei diritti fondamentali e al divieto di discriminazione. Questo approccio si distingue per la sua enfasi sulla centralità della persona umana, stabilendo che l’IA deve essere sempre al servizio dell’uomo e non viceversa.
La legge italiana pone particolare enfasi sulla trasparenza e sulla responsabilità nell’uso dell’IA. Promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, creando un framework che bilancia innovazione e protezione dei diritti fondamentali.
Una delle disposizioni più innovative e controverse riguarda l’utilizzo dell’AI nel sistema giudiziario. L’articolo 15 comma 1 del Ddl dispone che: “Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”.
Questo rappresenta un chiaro rifiuto della cosiddetta “giustizia predittiva”, con il divieto di impiego dei sistemi riconducibili alla c.d. “giustizia predittiva”. L’Italia prende una posizione netta: l’IA può essere uno strumento di supporto, ma mai di sostituzione del giudizio umano.
Un altro aspetto rivoluzionario è la competenza esclusiva del tribunale per le cause che hanno ad oggetto il funzionamento di un sistema AI. L’articolo 17 prevede infatti una modifica all’articolo 9 c.p.c., attribuendo la competenza esclusiva al tribunale per tutte le cause aventi ad oggetto il funzionamento di un sistema di intelligenza artificiale.
Questa disposizione crea una specializzazione giurisdizionale che riconosce la complessità tecnica delle controversie legate all’IA e la necessità di una competenza centralizzata.
Per quanto riguarda l’utilizzo professionale, il testo stabilisce che nell’attività professionale l’AI è utilizzabile solo per attività strumentali. Questa limitazione riflette la volontà del legislatore di mantenere il controllo umano sulle decisioni professionali più critiche, relegando l’IA a un ruolo di supporto piuttosto che di sostituzione.
La legge prevede importanti innovazioni nella governance dell’IA. Tra le principali modifiche, spicca la creazione di un Comitato interministeriale di coordinamento delle fondazioni, che suggerisce un approccio coordinato a livello governativo per la gestione delle questioni legate all’IA.
I punti di forza
Le criticità
Dietro ogni rivoluzione tecnologica si nasconde una rivoluzione giuridica. Il DDL 1146 sull’intelligenza artificiale non si limita a dettare principi etici e cornici di utilizzo. Si spinge a definire, con chiarezza crescente, cosa accade quando l’AI diventa strumento di inganno, manipolazione, crimine. E qui entra in gioco uno degli aspetti più rilevanti, ma meno dibattuti del testo: il sistema sanzionatorio.
Il cuore della sezione penale è l’articolo 25, che riscrive diverse norme del Codice Penale e introduce nuovi reati specifici legati all’uso dell’intelligenza artificiale. La logica è semplice ma potente: se l’AI viene usata come strumento per commettere un reato – che sia truffa, sostituzione di persona, frode informatica o manipolazione di mercato – allora la pena deve essere più severa. Non solo perché il crimine è più sofisticato, ma perché più difficile da individuare, più veloce da eseguire, più pervasivo nei suoi effetti.
Viene così introdotta un’aggravante generale: chiunque commette un reato utilizzando sistemi di AI, in modo da renderlo più insidioso o difficile da contrastare, o per aumentarne l’impatto, subirà pene più pesanti. È una novità giuridica che riconosce la specificità tecnologica come fattore di pericolosità. In parallelo, si aggiornano numerosi articoli: dalla truffa all’usurpazione di potere politico, dalla frode informatica al riciclaggio, ogni fattispecie diventa più grave se realizzata con strumenti algoritmici.
Reati esistenti con pena aumentata se commessi tramite AI
Ma c’è di più. Il DDL introduce un nuovo reato, su cui vale la pena soffermarsi: la diffusione illecita di contenuti falsificati o generati con l’AI. È una risposta chiara e netta al fenomeno dei deepfake, alla pornografia non consensuale creata artificialmente, alla manipolazione dell’identità. La pena prevista va da uno a cinque anni, ma soprattutto riconosce un principio fondamentale: la realtà digitale può fare danni molto reali, e va protetta con strumenti adeguati.
Il pacchetto sanzionatorio non si ferma al penale. Il legislatore ha messo mano anche al diritto civile, commerciale e alla normativa sul diritto d’autore. È il caso, ad esempio, della manipolazione di mercato: se l’AI viene impiegata per alterare intenzionalmente dati finanziari o diffondere informazioni false, si rischiano fino a sette anni di carcere. Allo stesso modo, la riproduzione non autorizzata di contenuti protetti – anche attraverso sistemi di intelligenza artificiale – è punita secondo le norme sulla proprietà intellettuale.
Un altro pilastro è la delega al Governo, prevista dall’articolo 22, che autorizza l’esecutivo a varare entro dodici mesi nuovi decreti legislativi per definire meglio le sanzioni amministrative, le misure cautelari e le fattispecie di reato connesse all’uso illecito dell’AI. È in questa fase che dovranno essere introdotti strumenti rapidi per rimuovere contenuti generati illegalmente, sospendere account, fermare la diffusione di falsificazioni digitali, colpire economicamente chi monetizza sull’inganno. È un terreno scivoloso, dove libertà di espressione e tutela della verità dovranno convivere, e non sarà semplice.
Nel contesto internazionale, l’Italia si muove con una certa originalità. L’AI Act europeo prevede sanzioni salatissime per i produttori e fornitori che violano le regole, fino a 35 milioni di euro o al 7% del fatturato globale. Gli Stati Uniti, invece, seguono un approccio per ora più soft, basato su linee guida e su un uso estensivo delle norme esistenti. La Cina, come da tradizione, ha scelto la via del controllo diretto: regole severe, etichettatura obbligatoria e responsabilità immediata in capo alle piattaforme. La Francia ha investito in un organismo indipendente – il Conseil de l’IA – che propone un bilanciamento tra innovazione e sorveglianza democratica.
In questo scenario, l’Italia sceglie una via intermedia: affida la vigilanza a due enti pubblici esistenti (AgID e ACN), rafforza la normativa penale, avvia una fase di sperimentazione normativa. È un primo passo, solido sul piano giuridico, ma ancora fragile sul piano operativo. Perché le norme sono utili solo se applicabili. E applicabili solo se chi deve farle rispettare ha le competenze, gli strumenti e i mezzi per distinguere un contenuto reale da uno sintetico, una prova autentica da una falsificazione perfetta.
Il DDL 1146, insomma, non si limita a dire cosa si può fare con l’AI. Inizia a dire cosa non si può fare. E soprattutto cosa succede se lo si fa lo stesso. È il segnale che l’era dell’intelligenza artificiale non sarà una terra senza legge. Ma sarà una terra nuova, dove il diritto dovrà imparare a pensare veloce quanto l’algoritmo.
L’articolo 6 del DDL 1146 riguarda l’utilizzo dell’intelligenza artificiale in ambito di sicurezza e difesa nazionale, e stabilisce una deroga importante: le attività svolte per fini di sicurezza, difesa e cybersicurezza sono escluse dall’applicazione della legge, pur nel rispetto dei diritti fondamentali. Ecco cosa prevede in sintesi:Esclusione dall’ambito della legge
Le attività svolte:
Queste attività rientrano però sotto i principi generali di rispetto dei diritti costituzionali (art. 3 comma 4), anche se agiscono in deroga.
Il trattamento dei dati da parte di questi organismi (es. ACN, intelligence, esercito):
Saranno emanati regolamenti specifici per:
L’art. 6 introduce una zona franca per l’intelligenza artificiale usata per la sicurezza e difesa, riconoscendo la necessità di flessibilità operativa in questi ambiti, ma senza derogare completamente ai valori costituzionali. Tuttavia, ciò potrebbe sollevare preoccupazioni in termini di trasparenza e accountability, soprattutto per l’uso dell’AI a fini di sorveglianza.
Stati Uniti: il Far West dell’IA Gli americani puntano su autoregolamentazione e mercato. Risultato: innovazione rapidissima ma anche controversie infinite. Dalle assunzioni discriminatorie ai prestiti negati da algoritmi opachi, stanno pagando il prezzo della corsa sfrenata.
Cina: controllo totale Pechino usa l’IA per controllo sociale e stabilità. Efficiente? Sicuramente. Rispettoso dei diritti individuali? Decisamente meno.
Francia: il compromesso europeo I francesi seguono una linea simile alla nostra ma con maggiore enfasi sull’innovazione industriale. Meno protezioni per la giustizia, più supporto per le imprese tech.
Paese | Focus | Approccio |
UE | AI Act (2024): approccio basato sul rischio | Regolazione verticale su categorie di rischio, con sanzioni chiare |
USA | Executive Order Biden (2023) + AI Bill of Rights | L’approccio è volontario e guidato dal mercato, ma con linee guida etiche |
Cina | Regole su AI generativa (2023) e contenuti sintetici | Controllo statale, forte regolazione preventiva, censura e responsabilità diretta dei fornitori |
Francia | Strategie nazionali dal 2018, Conseil IA, investimenti massicci | Governance indipendente, sviluppo accademico, focus etico e di inclusione sociale |
L’Italia ha fatto una scommessa: che si possa essere leader nell’innovazione tecnologica restando fedeli ai propri valori umanistici. Che la tecnologia migliore non sia quella più avanzata, ma quella più rispettosa dell’essere umano.
È una scommessa controcorrente. Mentre il mondo accelera verso l’automazione totale, noi rallentiamo e diciamo: aspettate, riflettiamo, scegliamo con cura dove mettere i paletti.
Funzionerà? Dipenderà dall’implementazione. I principi sono giusti, ma i principi senza azioni concrete restano belle parole.
È la strada giusta? Per chi scrive, assolutamente sì. In un mondo che rischia di perdere l’anima nell’algoritmo, qualcuno deve ricordare che dietro ogni numero c’è una storia umana.
I prossimi mesi saranno decisivi. Il DDL 1146 è solo l’inizio. Servono:
Dopo i primi esperimenti, i giudici del Regno Unito hanno chiarito che gli avvocati che…
Un viaggio attraverso dieci anni di trasformazione digitale, dalle OGR di Torino al futuro del…
L'intelligenza artificiale generale (AGI) non è più fantascienza, ma una realtà sempre più vicina. Meta…
Arriva ChatGPT 5, prima del previsto. Oltre 500 milioni di utenti ChatGPT aspettano il salto…
Sistema AI North Star: come un ex-professore di Harvard sta rivoluzionando la prevenzione dei conflitti…
L’elettrificazione non basta più. La vera sostenibilità dell’auto passa oggi per algoritmi intelligenti, dati in…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011