Intelligenza artificiale: l’Europea mette le sue regole

L’Unione Europea ha pubblicato una serie di linee guida su come aziende e governi dovrebbero sviluppare applicazioni etiche dell’intelligenza artificiale.

L’intelligenza artificiale e i pericoli che può comportare preoccupano l’Europa e l’Unione europea ha pubblicato nuove linee guida sullo sviluppo etico dell’AI.
Queste regole non sono come le “Tre Leggi della Robotica” di Isaac Asimov, non offrono una struttura morale che aiuterà a controllare eventuali “robot assassini”, invece, affrontano problemi controversi e diffusi che influenzeranno la società nel processo di integrazione con l’intelligenza artificiale in settori come l’assistenza sanitaria, l’istruzione e la tecnologia consumer.

Intelligenza artificiale Regole Europee

 

Intelligenza artificiale: le regole europee

Quindi, per esempio, in caso di diagnosi da parte di un sistema di AI di un cancro in un paziente, le linee guida dell’UE vorrebbero assicurarsi che un certo numero di cose accadesse: che il software non fosse influenzato dalla razza o genere, che non ignorasse le obiezioni di un medico umano e che desse al paziente la possibilità di una spiegazione chiara della diagnosi.
Quindi, queste linee guida riguardano anche il fermare comportamenti errati dell’intelligenza artificiale, ma a livello di amministrazione e burocrazia e non riguardano misteriosi omicidi in stile Asimov.

Le 7 regole Europee per l’intelligenza artificiale

Per aiutare in questo obiettivo, l’UE ha convocato un gruppo di 52 esperti che hanno individuato sette requisiti che ritengono che i futuri sistemi di intelligenza artificiale dovrebbero soddisfare.

Eccoli:

Advertising
  • Supervisione umana
    l’AI non deve calpestare l’autonomia umana. Le persone non dovrebbero essere manipolate o costrette da sistemi di intelligenza artificiale e gli esseri umani dovrebbero essere in grado di intervenire o supervisionare ogni decisione presa dal software.
  • Solidità tecnica e sicurezza
    l’intelligenza artificiale deve essere sicura e accurata. Non dovrebbe essere facilmente compromessa da attacchi esterni e dovrebbe essere ragionevolmente affidabile
  • Privacy e governance dei dati
    i dati personali raccolti dai sistemi di AI dovrebbero essere sicuri e privati. Non dovrebbero essere accessibili a chiunque, e non dovrebbero essere facilmente rubati.
  • Trasparenza
    i dati e gli algoritmi utilizzati per creare un sistema AI dovrebbero essere accessibili e le decisioni prese dal software dovrebbero essere “comprese e tracciate dagli esseri umani”. In altre parole, gli operatori dovrebbero essere in grado di spiegare le decisioni prese dai loro sistemi AI.
  • Diversità, non discriminazione ed equità
    i servizi forniti dall’AI dovrebbero essere disponibili per tutti, indipendentemente dall’età, dal sesso, dalla razza o da altre caratteristiche. Allo stesso modo, i sistemi non dovrebbero essere soggetti a distorsioni per via delle diversità.
  • Benessere ambientale e sociale
    i sistemi di intelligenza artificiale dovrebbero essere sostenibili (cioè dovrebbero essere ecologicamente responsabili) e “migliorare il cambiamento sociale positivo”.
  • Responsabilità
    i sistemi di intelligenza artificiale dovrebbero essere controllabili e coperti dalle protezioni esistenti per gli informatori aziendali, i “whistleblowers”. Gli impatti negativi dei sistemi dovrebbero essere riconosciuti e riportati in anticipo.

Si nota subito che alcuni di questi requisiti sono piuttosto astratti e sarebbero difficili da valutare in senso oggettivo: le definizioni di “cambiamento sociale positivo”, ad esempio, variano enormemente da persona a persona e da paese a paese. Altre, però, sono più semplici e potrebbero essere testate attraverso la supervisione del governo. La condivisione dei dati utilizzati per addestrare i sistemi di AI governativi, ad esempio, potrebbe essere un buon modo per combattere algoritmi distorti.

Queste linee guida non sono giuridicamente vincolanti, ma potrebbero dare forma a qualsiasi futura legislazione elaborata dall’Unione Europea. L’UE ha ripetutamente affermato di voler essere leader nell’AI etica e ha dimostrato con il GDPR che è disposta a creare leggi di vasta portata che tutelino i diritti digitali.
Questo ruolo è stato in parte forzato dall’UE per via delle circostanze: non può competere con l’America e la Cina – i leader mondiali nell’AI – quando si tratta di investimenti e ricerca all’avanguardia, quindi è stata scelta l’etica come la migliore scommessa per modellare il futuro della tecnologia.
Come parte di questo sforzo, la relazione include quella che viene definita una “lista di valutazione dell’AI attendibile”, una lista di domande che possono aiutare gli esperti a capire eventuali potenziali punti deboli o pericoli nel software AI. Questo elenco include domande come “hai verificato il comportamento del tuo sistema in situazioni e ambienti imprevisti?” e “hai valutato il tipo e l’ambito dei dati nel tuo set di dati?

Linee Guida dell’UE sull’intelligenza artificiale entro il 2020

Questi elenchi di valutazione sono solo preliminari, ma l’UE raccoglierà feedback dalle aziende nei prossimi anni, con una relazione finale sulla loro utilità prevista per il 2020.

Fanny Hidvégi, policy manager del gruppo Digital Right Access Now e un esperto che ha contribuito a scrivere le linee guida hanno dichiarato che l’elenco di valutazione è la parte più importante del rapporto: “fornisce una prospettiva pratica e lungimirante” su come mitigare i potenziali danni dell’intelligenza artificiale, ha affermato Hidvégi.

A nostro avviso, l’UE ha il potenziale e la responsabilità di essere in prima linea in questo lavoro”, ha dichiarato Hidvégi.

Altri dubitano che il tentativo dell’UE di modellare il modo in cui l’intelligenza artificiale globale viene sviluppata attraverso la ricerca etica avrà un grande effetto.

Siamo scettici sull’approccio adottato, l’idea che con la creazione di uno standard aureo per l’AI etica confermerà il ruolo dell’UE nello sviluppo globale dell’AI”, ha sostenuto Eline Chivot, analista senior del Centro per il think tank sull’innovazione dei dati.


Intelligenza artificiale: l’Europea mette le sue regole - Ultima modifica: 2019-04-12T09:09:34+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

Zyxel Channel HUB

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!