Il 10 ottobre è entrata in vigore la legge italiano sull’AI. L’entrata in vigore legge italiana sull’IA non è un semplice momento formale nel calendario: è un passaggio epocale in cui l’algoritmo incontra il vincolo e l’innovazione deve farsi leggibile dal diritto. In Italia non si tratta di reprimere l’intelligenza artificiale, ma di darle confini certi, perché l’AI serva le persone, non le sostituisca.
Questo atto normativo non arriva dal nulla: si inserisce in un percorso normativo che Digitalic ha raccontato nel pezzo “Arriva la legge italiana sull’AI (DDL 1146): cosa prevede”, un punto di riferimento per capire i princìpi e le intenzioni.
Indice dei contenuti
Quando si è di fronte all’espressione “legge sull’AI”, la reazione istintiva è pensare ai vincoli: limiti, divieti, burocrazia. Ma l’entrata in vigore della legge italiana sull’AI parte da un presupposto diverso, ovvero dall’idea che regolamentare non sia negare, ma rendere trasparente, costruire fiducia, fare squadra con l’innovazione anziché metterla fuori legge.
Nel DDL 1146, approvato alla Camera il 25 giugno 2025, si fissano principi come antropocentricità, trasparenza, supervisione umana obbligatoria, e si disegnano ruoli e responsabilità che cercano di evitare scenari incontrollati.
Ad esempio: la giustizia predittiva è rifiutata per principio, il giudice resta umano; chi crea contenuti IA deve indicarlo chiaramente; l’uso dell’IA nelle professioni richiede che il cliente sappia che sta lavorando una macchina assistita. Non tutte le risposte sono già qui: servono decreti attuativi, interpretazioni, applicazioni concrete e per questo la legge è un abbozzo di paesaggio che dobbiamo imparare a mappare insieme.
In ambito sanitario, l’IA potrà offrire analisi, suggerimenti, pipeline intelligenti, ma la decisione finale spetterà sempre al medico. La legge stabilisce che i sistemi IA non potranno sostituire il giudizio clinico, bensì assisterlo. (Digitalic)
La ricerca biomedica italiana — già protagonista in progetti genomici ad altissima precisione — dovrà confrontarsi con requisiti di tracciabilità, anonimizzazione, audit dei modelli. Un agente tecnico e uno etico devono camminare insieme.
Quando l’IA entra nel processo di valutazione, selezione, monitoraggio sul lavoro, la legge impone che i lavoratori sappiano quando e come vengono usati sistemi intelligenti. Il diritto alla spiegazione diventa essenziale. Le aziende che gestiscono AI dovranno dotarsi di registri, audit interni e meccanismi che permettano all’elemento umano di intervenire in tempo reale.
Uno degli snodi più controversi è l’uso dell’IA nei tribunali. Il La Legge n. 132/2025 stabilisce che qualunque decisione su fatti, prova, interpretazione legislativa resta prerogativa del magistrato. L’IA può supportare, non decidere. (Digitalic)
Verrà istituita una giurisdizione specializzata per controversie sull’IA, perché questi casi non sono solo tecnici: sono civili, sociali, morali.
La legge destina un fondo da 1 miliardo di euro per spingere startup, ricerca e progetti AI di qualità. Per chi investe, questo significa entrare in un mercato che ha regole chiare, in cui l’adozione dell’AI dà un premio reputazionale per chi la fa “bene” e in regola.
E mentre molti paesi ancora aspettano, l’Italia si pone come laboratorio normativo per imprese che vogliono misurarsi con standard europei anticipati.
Tra le novità più incisive introdotte dalla Legge 132/2025 sull’intelligenza artificiale, ci sono quelle che toccano direttamente la responsabilità penale e la compliance aziendale. Il legislatore non si è limitato a definire principi generali sull’uso etico dell’AI, ma ha voluto incidere concretamente sulle conseguenze giuridiche di un impiego scorretto, introducendo aggravanti, nuove fattispecie di reato e un richiamo forte alla necessità di modelli organizzativi aggiornati.
La legge interviene sul codice penale introducendo una serie di modifiche che collegano in modo esplicito l’uso dell’intelligenza artificiale alla responsabilità individuale.
Nasce così una nuova aggravante comune (art. 61, n. 11-decies c.p.) per chi commette un reato impiegando sistemi di AI quando questi rendono l’azione più insidiosa, ostacolano la difesa della vittima o ne aggravano le conseguenze. In altre parole, usare un algoritmo per colpire qualcuno — ad esempio diffondendo disinformazione mirata o falsificando prove digitali — diventa una circostanza aggravante, al pari di quelle tradizionali.
È previsto anche un aumento di pena per le truffe ai danni dello Stato se realizzate attraverso strumenti automatizzati, come bot o sistemi di decisione autonoma.
Ma la vera innovazione è il nuovo art. 612-quater del codice penale, che punisce la diffusione di contenuti generati o manipolati con AI — i cosiddetti deepfake — quando avviene senza consenso e con danno ingiusto per la persona coinvolta.
È un segnale chiaro: l’uso distorto dell’intelligenza artificiale, soprattutto per scopi di inganno, violenza o manipolazione, non sarà trattato come un reato “tecnologico minore”, ma come una forma aggravata di condotta illecita.
Il messaggio è inequivocabile: non basta vietare l’uso improprio dell’AI, bisogna punirne gli abusi.
Per le imprese, l’effetto è immediato. La nuova normativa impone di ripensare i Modelli di organizzazione e gestione (Modello 231) per includere il rischio legato all’intelligenza artificiale.
In pratica, le aziende dovranno introdurre controlli specifici sull’uso di sistemi intelligenti, prevedere procedure di due diligence sui fornitori di tecnologia, definire responsabilità interne chiare e attivare audit tecnici periodici per prevenire incidenti o abusi.
La Legge 132/2025 prevede inoltre che i futuri decreti attuativi stabiliscano obblighi precisi in materia di governance dell’AI, affinché ogni organizzazione possa dimostrare di avere un controllo effettivo sui sistemi che utilizza.
Un principio fondamentale è che la responsabilità sarà graduata in base al livello di automazione e all’intervento umano possibile: chi governa o supervisiona un algoritmo dovrà dimostrare di aver adottato tutte le misure di prevenzione e controllo adeguate.
In sostanza, l’intelligenza artificiale entra a pieno titolo nel perimetro della compliance aziendale. Non basta usarla correttamente: bisogna poter dimostrare che l’uso è trasparente, sicuro e sotto controllo. L’AI diventa così un fattore “compliance-driven”, destinato a ridefinire i modelli di responsabilità organizzativa delle imprese italiane.
Un altro pilastro della legge è il coordinamento con il Regolamento europeo sulla protezione dei dati personali (GDPR), che rimane il riferimento essenziale per ogni trattamento di dati basato sull’intelligenza artificiale.
La norma ribadisce che ogni utilizzo di dati personali deve essere lecito, corretto e trasparente, e che gli utenti devono essere informati in modo chiaro quando interagiscono con sistemi di AI.
Particolare attenzione è dedicata ai minori: sotto i 14 anni, l’uso dell’intelligenza artificiale e il trattamento dei dati richiedono il consenso dei genitori; tra i 14 e i 18 anni, il minore può prestare il consenso autonomamente, ma solo se l’informativa è scritta in modo semplice e comprensibile.
La legge introduce anche semplificazioni per la ricerca scientifica e l’uso secondario dei dati, purché rispettino le garanzie del GDPR: anonimizzazione, pseudonimizzazione e utilizzo di dati sintetici sono ammessi, ma sotto il controllo del Garante per la protezione dei dati personali.
Ogni trattamento a fini di ricerca deve essere comunicato al Garante, che ha 30 giorni per opporsi; in mancanza di opposizione, il trattamento può iniziare.
Il punto critico sarà il bilanciamento tra semplificazione e tutela: la legge mira a favorire l’innovazione, ma dovrà evitare che le deroghe diventino scappatoie per aggirare la privacy.
Il successo della normativa dipenderà dalla collaborazione effettiva tra i ministeri competenti e il Garante Privacy, che avrà un ruolo centrale nel garantire che lo sviluppo dell’intelligenza artificiale italiana resti conforme ai diritti fondamentali.
Con la pubblicazione in Gazzetta Ufficiale (Legge n. 132/2025) e l’entrata in vigore il 10 ottobre 2025, il quadro normativo italiano sull’intelligenza artificiale è ufficialmente operativo.
Tuttavia, solo alcune disposizioni sono immediatamente efficaci, mentre altre richiederanno decreti attuativi entro 12 mesi.
Obbligo di trasparenza sull’uso dell’AI
Chi utilizza sistemi di intelligenza artificiale per generare testi, immagini, video o contenuti digitali deve indicarlo chiaramente (“contenuto realizzato con AI”).
L’obbligo vale per aziende, enti pubblici, media e creator professionali.
Istituzione dell’Agenzia per l’Intelligenza Artificiale
È formalmente istituita, con sede a Roma e Milano. Sarà l’autorità nazionale di riferimento per il coordinamento delle politiche sull’AI.
(Le nomine e il funzionamento operativo saranno definiti da un decreto successivo.)
Principi etici e diritti fondamentali
Sono già vincolanti le clausole che vietano pratiche di AI lesive della dignità, dei diritti e della privacy delle persone, in linea con la Costituzione e con l’AI Act europeo.
Deleghe al Governo
Entrano in vigore anche le deleghe legislative che consentono al Governo di emanare, entro 12 mesi, i decreti su:
uso dell’AI nella Pubblica Amministrazione,
tutela del lavoro e formazione,
responsabilità e assicurazioni per danni causati da AI,
requisiti di sicurezza e conformità.
definizione delle sanzioni,
modalità di etichettatura dei contenuti AI,
regole su AI generativa e deepfake,
norme su AI in ambito sanitario, giudiziario e scolastico.
Una legge vale poco se resta sulla carta. Ecco quattro mosse che puoi compiere (subito) per non restare indietro:
Non è questione di diventare “legali prima che tecnici”: è comprendere che oggi innovare significa anche regolare, documentare, rendersi responsabili.
Uno dei passaggi più significativi della legge italiana sull’IA (Legge n. 132/2025, derivata dal DDL 1146) è l’obbligo di dichiarare quando si utilizza un sistema di intelligenza artificiale nella creazione o diffusione di contenuti.
Il principio è semplice ma rivoluzionario:
Ogni persona fisica o giuridica che utilizza sistemi di intelligenza artificiale per generare, modificare o diffondere contenuti, deve indicarlo chiaramente e in modo visibile all’utente finale.
Questo vale per testi, immagini, video, audio e qualsiasi altro materiale digitale che venga in parte o totalmente prodotto con l’assistenza di un algoritmo.
Non importa se l’output è pubblicitario, informativo o artistico: la trasparenza è il filo conduttore. In pratica, l’obbligo mira a evitare inganni o manipolazioni (come deepfake o notizie generate artificialmente) e a costruire fiducia tra cittadini e tecnologie emergenti.
L’indicazione riguarda:
Aziende e media che pubblicano contenuti realizzati con strumenti di AI (articoli, spot, immagini, video).
Pubbliche amministrazioni e professionisti che utilizzano chatbot, assistenti virtuali o sistemi automatizzati in interazioni con i cittadini.
Creatori di contenuti e influencer che si servono dell’IA per generare testi o immagini pubblicate online.
Non si tratta di un obbligo puramente formale: l’indicazione serve a rendere chiaro quando l’intelligenza è artificiale e quando è umana.
Etichetta esplicita: inserisci un disclaimer visibile, ad esempio “Contenuto generato con l’ausilio di un sistema di intelligenza artificiale” o “Testo creato in parte con strumenti di AI”.
Sezione dedicata nei siti o report: per aziende e testate, crea una pagina che spieghi come e in quali contesti viene usata l’AI (es. revisione testi, analisi dati, generazione immagini).
Trasparenza nei contratti: se produci contenuti per terzi, specifica nel contratto o nel brief che stai utilizzando strumenti di IA.
Segnalazione automatica: se la piattaforma lo consente (come fa LinkedIn, Instagram o YouTube), usa le funzioni native che etichettano i contenuti AI-generated.
Documentazione interna: conserva i prompt, i processi e i tool usati per dimostrare, in caso di audit o contestazione, che hai rispettato gli obblighi di trasparenza.
Questa norma non serve a limitare la creatività, ma a preservare la fiducia. Sapere che un contenuto è stato creato con l’ausilio dell’IA non ne sminuisce il valore: lo contestualizza, ne chiarisce la provenienza e ne rafforza la credibilità.
Legge 25 settembre 2025, n. 132
“Disposizioni e deleghe al Governo in materia di intelligenza artificiale, nonché istituzione dell’Agenzia per l’Intelligenza Artificiale”
Legge 23 settembre 2025, n. 132
Pubblicata in: Gazzetta Ufficiale n. 223 del 25 settembre 2025
Entrata in vigore: 10 ottobre 2025
Ambito: definisce i principi generali per lo sviluppo, l’uso e la governance dell’intelligenza artificiale in Italia; istituisce l’Agenzia per l’Intelligenza Artificiale; conferisce al Governo deleghe legislative per regolamentare ambiti specifici (PA, lavoro, sanità, giustizia, educazione).
Scopri come Formula, BlueIT e IBM stanno trasformando l’ERP in un sistema intelligente che unisce…
Una panoramica esaustiva dei migliori plug-in ChatGPT, con uso, vantaggi e indicazioni pratiche.
Con l'evento AI Accelerator BlueIT ha riunito esperti e visionari per riflettere sull’umanesimo dell’intelligenza artificiale:…
Tilly Norwood: dalle micro-espressioni al respiro simulato: come l’attrice creata con l’AI riscrive il futuro…
Qualcomm acquisisce Arduino: la community dei maker entra nell’era dell’AI. Nasce UNO Q, la scheda…
Brevi vince per l’ottava volta il titolo di “Distributore dell’Anno” ai CONTEXT ChannelWatch 2025, confermandosi…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011