Dopo i primi esperimenti, i giudici del Regno Unito hanno chiarito che gli avvocati che usano l’AI nei tribunali in modo improprio saranno sanzionati.
L’introduzione dell’intelligenza artificiale nel mondo della giustizia sta ridefinendo il settore legale, promettendo di trasformare radicalmente la ricerca, l’analisi documentale e persino la previsione degli esiti giudiziari. La tecnologia emergente porta con sé un bagaglio di sfide etiche e pratiche, come dimostra la recente presa di posizione nel Regno Unito. Lì, i giudici hanno chiarito che l’uso improprio dell’AI nei tribunali sarà sanzionato, specialmente in caso di “allucinazioni” o citazioni di precedenti inesistenti. La contrapposizione tra l’enorme potenziale di efficienza e i rischi legati all’accuratezza e all’integrità sono al centro del dibattito, un tema ricorrente ogni volta che si parla di intelligenza artificiale.
Chi usa l’AI nei tribunali
L’adozione dell’intelligenza artificiale nel settore legale e giudiziario è in costante aumento: secondo un’indagine UNESCO, il 93% degli operatori giudiziari ha familiarità con le tecnologie AI come ChatGPT e Google Gemini, e il 44% le utilizza attivamente per compiti quali la sintesi di testi, la stesura di e-mail, la redazione di documenti legali e la conduzione di ricerche. L’interesse è particolarmente elevato tra gli studi legali: circa il 65% ritiene che l’adozione dell’AI possa accelerare le attività e il 64% degli avvocati pensa che l’AI migliori la loro efficienza lavorativa. Il 26% degli studi legali utilizzi attualmente l’AI e oltre la metà (53%) vuole investirvi in futuro. Per le grandi aziende, circa il 34% dei dipartimenti legali prevede di automatizzare le attività chiave tramite l’AI.
Nel Regno Unito c’è preoccupazione
Dopo una serie di esperimenti e, in alcuni casi, di gravi errori, i giudici del Regno Unito hanno alzato la voce contro l’uso improprio dell’intelligenza artificiale negli ambienti giudiziari. In una mossa significativa, la magistratura britannica ha chiarito che gli avvocati che utilizzeranno strumenti di AI in modo inappropriato, in particolare per la citazione di casi inesistenti o per la produzione di informazioni errate, saranno soggetti a sanzioni.
La presidente della King’s Bench Division dell’Alta Corte di Londra, Victoria Sharp, ha espresso serie preoccupazioni riguardo alle “allucinazioni” generate dall’AI – ovvero finzioni prodotte da sistemi di intelligenza artificiale – che sono emerse in alcune importanti firme legali. Sharp ha sottolineato che un uso scorretto dell’AI comporta “gravi implicazioni per l’amministrazione della giustizia e la fiducia del pubblico nel sistema giudiziario”. La decisione di intervenire è maturata a seguito di casi in cui professionisti legali sono stati sorpresi a presentare argomentazioni scritte che facevano riferimento a precedenti legali inesistenti, generati apparentemente da strumenti di AI.
Deferimento per gli avvocati che usano la tecnologia generativa
Le possibili conseguenze per gli avvocati che contravvengono a queste direttive includono il deferimento alle autorità di regolamentazione, accuse di oltraggio alla corte (che possono portare a pene detentive fino a due anni) e persino accuse penali per aver sviato il corso della giustizia nei casi più gravi. I giudici britannici hanno enfatizzato che gli avvocati hanno il dovere di verificare l’accuratezza delle loro ricerche e di non fuorviare la corte.
La giudice Sharp ha evidenziato che le linee guida si stanno rivelando insufficienti per affrontare l’ampiezza del problema. Il suo intervento sottolinea la necessità di un quadro normativo e di una supervisione più rigorosi per garantire che l’AI sia utilizzata in modo etico e responsabile all’interno del sistema giudiziario, mantenendo inalterata la fiducia pubblica.