Arriva la legge italiana sull’AI (DDL 1146): cosa prevede

La camera ha approvato il DDL 1146 sull’intelligenza Artificiale, è la nuova legge italiana che stabilisce i principi generali e anche direttive specifiche e colma il vuoto normativo che esisteva nel nostro paese. Per essere promulgata deve fare un passaggio in Senato che l’aveva già approvata, nel suo copro, mesi fa


Con il DDL 1146 l’Italia si prepara dotarsi della propria legge sull’Intelligenza artificiale e c’è qualcosa di profondamente italiano nel modo in cui abbiamo scelto di regolamentare l’intelligenza artificiale. Mentre altri paesi corrono verso l’automazione spinta, noi abbiamo fatto una scelta diversa. Il 25 giugno 2025, con l’approvazione alla Camera dei Deputati del DDL 1146, l’Italia ha detto una cosa molto semplice ma rivoluzionaria: l’intelligenza artificiale deve servire l’uomo, non sostituirlo. Non è solo una questione di regole, è una questione di visione del mondo.

DDL 1146 AI Italia

DDL 1146 aI: il cambiamento parte dal tribunale

La vera bomba del DDL 1146 non sta nei suoi 28 articoli o nelle sue definizioni tecniche. Sta in una frase che dovrebbe far riflettere chiunque: “È sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge”. Sembra banale? Non lo è affatto.

In un mondo dove algoritmi decidono cosa vediamo sui social, cosa compriamo online, persino chi assumere in un’azienda, l’Italia ha detto no alla giustizia predittiva. Niente algoritmi che suggeriscono sentenze. Niente “intelligenze” artificiali che valutano prove o interpretano codici. Il giudice resta umano, comunque.

Negli Stati Uniti alcuni stati usano già algoritmi per valutare il rischio di recidiva dei detenuti. In Cina, l’IA aiuta i tribunali a elaborare decisioni. Noi abbiamo scelto l’opposto. Abbiamo detto che la giustizia è troppo importante per lasciarla ai numeri, alle probabilità, alle correlazioni statistiche. L’IA può aiutare a gestire i fascicoli, organizzare le udienze, persino fare ricerche giurisprudenziali. Ma decidere? In Italia no.

 

DDL 1146 sull’intelligenza artificiale: cosa prevede

Il testo, composto da 28 articoli suddivisi in sei capi, mira a disciplinare a livello nazionale l’uso dell’IA nei settori strategici e a garantire un approccio antropocentrico e responsabile. Questa legge non è solo un adeguamento alle normative europee, ma rappresenta una visione italiana specifica che pone l’essere umano al centro dello sviluppo tecnologico.

Cosa prevede il DDL 1146 sull’AI in 10 punti

 

  1. Un uso antropocentrico dell’AI
    L’articolo 1 è la bussola valoriale del disegno di legge: promuove “un utilizzo corretto, trasparente e responsabile” dell’AI in una dimensione antropocentrica. Questo significa che l’autonomia decisionale umana va sempre garantita (art. 3), e la cybersicurezza deve essere “precondizione essenziale” di ogni sistema AI.
  2. Diritti, privacy e minori tutelati
    Il trattamento dei dati deve essere lecito, chiaro e spiegabile (art. 4), e i minori sotto i 14 anni potranno accedere ai sistemi AI solo con il consenso dei genitori. Tra le tutele: diritto all’informazione, non discriminazione, accessibilità universale e rispetto della libertà di espressione.
  3. Sanità: l’AI non sostituirà i medici
    L’uso dell’AI in medicina è incoraggiato (artt. 7-9), ma la decisione clinica finale resta sempre in capo al professionista. Viene istituita una piattaforma nazionale AI gestita da AGENAS per supportare la medicina territoriale.
  4. AI e lavoro: arriva l’Osservatorio
    Il DDL prevede l’istituzione di un Osservatorio nazionale sull’AI nel lavoro (art. 11), per monitorare l’impatto sull’occupazione e promuovere la formazione. L’intelligenza artificiale non può violare la dignità umana, né discriminare in base a sesso, età o orientamento (art. 10).
  5. Uso nelle professioni, PA e giustizia
    Gli avvocati o consulenti che usano AI devono comunicarlo ai clienti (art. 12). Nella PA e nella giustizia, l’AI potrà solo supportare, non decidere (artt. 13-14). Nessun automatismo nella sentenza: la responsabilità resta umana.
  6. Identificare i contenuti AI-generated
    Chi diffonde contenuti audio, video, fotografici o testuali generati da AI dovrà indicarlo chiaramente con l’etichetta “IA” visibile (art. 23). Un primo tentativo concreto di contrastare i deepfake e l’informazione alterata.
  7. Diritto d’autore solo se l’opera ha contributo umano
    Le opere create con AI sono protette solo se frutto del “lavoro intellettuale dell’autore” (art. 24). La creatività senza creatore non è (ancora) legge.
  8. Reati AI: nuove aggravanti e reati specifici
    Il Codice Penale viene aggiornato: l’uso dell’AI può costituire aggravante in reati già esistenti (truffa, manipolazione di mercato, sostituzione di persona), e nasce un nuovo reato per la diffusione di contenuti falsi creati con AI (art. 25).
  9. Due Autorità nazionali: AGID e ACN
    L’Agenzia per l’Italia Digitale (AgID) vigilerà sullo sviluppo; quella per la Cybersicurezza Nazionale (ACN) su sicurezza e conformità. Insieme gestiranno i “sandbox normativi” (art. 18).
  10. Investimenti e strategia nazionale
    Viene autorizzato un fondo da 1 miliardo di euro per startup AI e quantum computing (art. 21) e confermata la predisposizione della Strategia nazionale AI (art. 17).

 

I principi fondamentali del DDL 1146

Uno degli aspetti più significativi del DDL 1146 è, come dicevamo, l’approccio antropocentrico all’intelligenza artificiale, volto a coglierne le opportunità garantendo al contempo la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali.

I principi generali sono contenuti negli articoli 3, 4, 5 del ddl che fanno riferimento, tra gli altri, a un approccio antropocentrico, al rispetto delle istituzioni democratiche, dei diritti fondamentali e al divieto di discriminazione. Questo approccio si distingue per la sua enfasi sulla centralità della persona umana, stabilendo che l’IA deve essere sempre al servizio dell’uomo e non viceversa.

Trasparenza e responsabilità dell’AI

La legge italiana pone particolare enfasi sulla trasparenza e sulla responsabilità nell’uso dell’IA. Promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, creando un framework che bilancia innovazione e protezione dei diritti fondamentali.

DDL 1146: norme per il sistema giudiziario

Una delle disposizioni più innovative e controverse riguarda l’utilizzo dell’AI nel sistema giudiziario. L’articolo 15 comma 1 del Ddl dispone che: “Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”.

Questo rappresenta un chiaro rifiuto della cosiddetta “giustizia predittiva”, con il divieto di impiego dei sistemi riconducibili alla c.d. “giustizia predittiva”. L’Italia prende una posizione netta: l’IA può essere uno strumento di supporto, ma mai di sostituzione del giudizio umano.

Competenza giurisdizionale specializzata

Un altro aspetto rivoluzionario è la competenza esclusiva del tribunale per le cause che hanno ad oggetto il funzionamento di un sistema AI. L’articolo 17 prevede infatti una modifica all’articolo 9 c.p.c., attribuendo la competenza esclusiva al tribunale per tutte le cause aventi ad oggetto il funzionamento di un sistema di intelligenza artificiale.

Questa disposizione crea una specializzazione giurisdizionale che riconosce la complessità tecnica delle controversie legate all’IA e la necessità di una competenza centralizzata.

Settori professionali e limitazioni d’uso dell’AI

Per quanto riguarda l’utilizzo professionale, il testo stabilisce che nell’attività professionale l’AI è utilizzabile solo per attività strumentali. Questa limitazione riflette la volontà del legislatore di mantenere il controllo umano sulle decisioni professionali più critiche, relegando l’IA a un ruolo di supporto piuttosto che di sostituzione.

 

Governance e coordinamento istituzionale dell’AI

La legge prevede importanti innovazioni nella governance dell’IA. Tra le principali modifiche, spicca la creazione di un Comitato interministeriale di coordinamento delle fondazioni, che suggerisce un approccio coordinato a livello governativo per la gestione delle questioni legate all’IA.

I punti di forza

  1. Chiarezza sui principi Il DDL 1146 non lascia spazio a interpretazioni. L’approccio antropocentrico non è solo dichiarato nell’articolo 1, è operativamente integrato in ogni disposizione. Quando leggi “è sempre riservata al magistrato”, quel “sempre” non ammette eccezioni.
  2. Protezione robusta della giustizia Mentre altri paesi sperimentano con l’automazione giudiziaria, noi la escludiamo categoricamente. Può sembrare conservatore, ma proteggere l’elemento umano nella giustizia è progressista quanto rivoluzionario.
  3. Specializzazione intelligente Creare una competenza specializzata per le controversie sull’IA dimostra lungimiranza. Questi contenziosi sono complessi, richiedono competenze tecniche specifiche. Meglio prepararsi ora che improvvisare dopo.
  4. Armonia europea Il DDL si integra perfettamente con l’AI Act europeo, evitando sovrapposizioni normative che creerebbero solo confusione per imprese e cittadini.

Le criticità 

  1. Il rischio conservatorismo La protezione può diventare immobilismo. Mentre noi ci tuteliamo, altri potrebbero sviluppare sistemi più efficienti. Il rischio è rimanere indietro nell’innovazione per eccesso di prudenza.
  2. Implementazione complessa Trasformare principi nobili in procedure concrete è sempre la parte più difficile. Il DDL avrà bisogno di decreti attuativi chiari e tempestivi, altrimenti resterà lettera morta.
  3. Definizioni ancora vaghe Cosa significa esattamente “utilizzo strumentale” nelle professioni? Quando un sistema diventa abbastanza sofisticato da non essere più “ausiliario”? Servono chiarimenti.

 

DDL 1146  sull’AI: le sanzioni

Dietro ogni rivoluzione tecnologica si nasconde una rivoluzione giuridica. Il DDL 1146 sull’intelligenza artificiale non si limita a dettare principi etici e cornici di utilizzo. Si spinge a definire, con chiarezza crescente, cosa accade quando l’AI diventa strumento di inganno, manipolazione, crimine. E qui entra in gioco uno degli aspetti più rilevanti, ma meno dibattuti del testo: il sistema sanzionatorio.

Il cuore della sezione penale è l’articolo 25, che riscrive diverse norme del Codice Penale e introduce nuovi reati specifici legati all’uso dell’intelligenza artificiale. La logica è semplice ma potente: se l’AI viene usata come strumento per commettere un reato – che sia truffa, sostituzione di persona, frode informatica o manipolazione di mercato – allora la pena deve essere più severa. Non solo perché il crimine è più sofisticato, ma perché più difficile da individuare, più veloce da eseguire, più pervasivo nei suoi effetti.

Viene così introdotta un’aggravante generale: chiunque commette un reato utilizzando sistemi di AI, in modo da renderlo più insidioso o difficile da contrastare, o per aumentarne l’impatto, subirà pene più pesanti. È una novità giuridica che riconosce la specificità tecnologica come fattore di pericolosità. In parallelo, si aggiornano numerosi articoli: dalla truffa all’usurpazione di potere politico, dalla frode informatica al riciclaggio, ogni fattispecie diventa più grave se realizzata con strumenti algoritmici.

Reati esistenti con pena aumentata se commessi tramite AI

  • Art. 294 c.p.Usurpazione di potere politico o comando: pena aumentata.
  • Art. 494 c.p.Sostituzione di persona: reclusione da 1 a 3 anni se fatta con AI.
  • Art. 501 c.p.Manovre speculative su mercato o prezzi: aggravante con AI.
  • Art. 640 c.p.Truffa e 640-terFrode informatica: aggravanti se commessi con AI.
  • Art. 648-bis / 648-ter / 648-ter.1 c.p.Riciclaggio e autoriciclaggio: aggravanti per uso di AI.

 

Ma c’è di più. Il DDL introduce un nuovo reato, su cui vale la pena soffermarsi: la diffusione illecita di contenuti falsificati o generati con l’AI. È una risposta chiara e netta al fenomeno dei deepfake, alla pornografia non consensuale creata artificialmente, alla manipolazione dell’identità. La pena prevista va da uno a cinque anni, ma soprattutto riconosce un principio fondamentale: la realtà digitale può fare danni molto reali, e va protetta con strumenti adeguati.

Il pacchetto sanzionatorio non si ferma al penale. Il legislatore ha messo mano anche al diritto civile, commerciale e alla normativa sul diritto d’autore. È il caso, ad esempio, della manipolazione di mercato: se l’AI viene impiegata per alterare intenzionalmente dati finanziari o diffondere informazioni false, si rischiano fino a sette anni di carcere. Allo stesso modo, la riproduzione non autorizzata di contenuti protetti – anche attraverso sistemi di intelligenza artificiale – è punita secondo le norme sulla proprietà intellettuale.

Un altro pilastro è la delega al Governo, prevista dall’articolo 22, che autorizza l’esecutivo a varare entro dodici mesi nuovi decreti legislativi per definire meglio le sanzioni amministrative, le misure cautelari e le fattispecie di reato connesse all’uso illecito dell’AI. È in questa fase che dovranno essere introdotti strumenti rapidi per rimuovere contenuti generati illegalmente, sospendere account, fermare la diffusione di falsificazioni digitali, colpire economicamente chi monetizza sull’inganno. È un terreno scivoloso, dove libertà di espressione e tutela della verità dovranno convivere, e non sarà semplice.

Nel contesto internazionale, l’Italia si muove con una certa originalità. L’AI Act europeo prevede sanzioni salatissime per i produttori e fornitori che violano le regole, fino a 35 milioni di euro o al 7% del fatturato globale. Gli Stati Uniti, invece, seguono un approccio per ora più soft, basato su linee guida e su un uso estensivo delle norme esistenti. La Cina, come da tradizione, ha scelto la via del controllo diretto: regole severe, etichettatura obbligatoria e responsabilità immediata in capo alle piattaforme. La Francia ha investito in un organismo indipendente – il Conseil de l’IA – che propone un bilanciamento tra innovazione e sorveglianza democratica.

In questo scenario, l’Italia sceglie una via intermedia: affida la vigilanza a due enti pubblici esistenti (AgID e ACN), rafforza la normativa penale, avvia una fase di sperimentazione normativa. È un primo passo, solido sul piano giuridico, ma ancora fragile sul piano operativo. Perché le norme sono utili solo se applicabili. E applicabili solo se chi deve farle rispettare ha le competenze, gli strumenti e i mezzi per distinguere un contenuto reale da uno sintetico, una prova autentica da una falsificazione perfetta.

Il DDL 1146, insomma, non si limita a dire cosa si può fare con l’AI. Inizia a dire cosa non si può fare. E soprattutto cosa succede se lo si fa lo stesso. È il segnale che l’era dell’intelligenza artificiale non sarà una terra senza legge. Ma sarà una terra nuova, dove il diritto dovrà imparare a pensare veloce quanto l’algoritmo.

 

L’articolo 6 e la zona franca per l’AI

 

L’articolo 6 del DDL 1146 riguarda l’utilizzo dell’intelligenza artificiale in ambito di sicurezza e difesa nazionale, e stabilisce una deroga importante: le attività svolte per fini di sicurezza, difesa e cybersicurezza sono escluse dall’applicazione della legge, pur nel rispetto dei diritti fondamentali. Ecco cosa prevede in sintesi:Esclusione dall’ambito della legge

Le attività svolte:

  • dagli organismi di sicurezza nazionale (come da legge n. 124/2007),
  • dall’Agenzia per la cybersicurezza nazionale (ACN),
  • dalle Forze armate per scopi di difesa,
    non sono soggette alle norme del DDL 1146.

Queste attività rientrano però sotto i principi generali di rispetto dei diritti costituzionali (art. 3 comma 4), anche se agiscono in deroga.

Il trattamento dei dati da parte di questi organismi (es. ACN, intelligence, esercito):

  • resta soggetto a normative speciali, come il Codice Privacy (D.lgs. 196/2003) e il Decreto-legge 82/2021 sull’ACN.
  • è sottoposto a controlli limitati, con regolamenti ad hoc.

Saranno emanati regolamenti specifici per:

  • definire come si applicano i principi generali del DDL 1146 alle attività di sicurezza nazionale;
  • disciplinare l’uso di AI da parte di soggetti pubblici e privati coinvolti in compiti di sicurezza.

L’art. 6 introduce una zona franca per l’intelligenza artificiale usata per la sicurezza e difesa, riconoscendo la necessità di flessibilità operativa in questi ambiti, ma senza derogare completamente ai valori costituzionali. Tuttavia, ciò potrebbe sollevare preoccupazioni in termini di trasparenza e accountability, soprattutto per l’uso dell’AI a fini di sorveglianza.

 

Il confronto che con gli altri paesi sull’AI

Stati Uniti: il Far West dell’IA Gli americani puntano su autoregolamentazione e mercato. Risultato: innovazione rapidissima ma anche controversie infinite. Dalle assunzioni discriminatorie ai prestiti negati da algoritmi opachi, stanno pagando il prezzo della corsa sfrenata.

Cina: controllo totale Pechino usa l’IA per controllo sociale e stabilità. Efficiente? Sicuramente. Rispettoso dei diritti individuali? Decisamente meno.

Francia: il compromesso europeo I francesi seguono una linea simile alla nostra ma con maggiore enfasi sull’innovazione industriale. Meno protezioni per la giustizia, più supporto per le imprese tech.

Paese Focus Approccio
UE AI Act (2024): approccio basato sul rischio Regolazione verticale su categorie di rischio, con sanzioni chiare
USA Executive Order Biden (2023) + AI Bill of Rights L’approccio è volontario e guidato dal mercato, ma con linee guida etiche
Cina Regole su AI generativa (2023) e contenuti sintetici Controllo statale, forte regolazione preventiva, censura e responsabilità diretta dei fornitori
Francia Strategie nazionali dal 2018, Conseil IA, investimenti massicci Governance indipendente, sviluppo accademico, focus etico e di inclusione sociale

 

La scommessa italiana

L’Italia ha fatto una scommessa: che si possa essere leader nell’innovazione tecnologica restando fedeli ai propri valori umanistici. Che la tecnologia migliore non sia quella più avanzata, ma quella più rispettosa dell’essere umano.

È una scommessa controcorrente. Mentre il mondo accelera verso l’automazione totale, noi rallentiamo e diciamo: aspettate, riflettiamo, scegliamo con cura dove mettere i paletti.

Funzionerà? Dipenderà dall’implementazione. I principi sono giusti, ma i principi senza azioni concrete restano belle parole.

È la strada giusta? Per chi scrive, assolutamente sì. In un mondo che rischia di perdere l’anima nell’algoritmo, qualcuno deve ricordare che dietro ogni numero c’è una storia umana.

Quello che succede ora al DDL 1146

I prossimi mesi saranno decisivi. Il DDL 1146 è solo l’inizio. Servono:

  • Decreti attuativi che traducano i principi in procedure
  • Formazione per magistrati, professionisti, pubblici ufficiali
  • Sistemi di controllo che verifichino il rispetto delle norme
  • Dialogo continuo tra istituzioni, imprese e cittadini

 


Arriva la legge italiana sull’AI (DDL 1146): cosa prevede - Ultima modifica: 2025-06-29T18:18:42+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

Arduino

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!