Norman: ecco il lato oscuro dell’intelligenza artificiale

Un singolare esperimento condotto dal MIT di Boston porta alla luce una indiscutibile verità: ecco come il diverso modo di addestrare un’intelligenza artificiale può influenzarne il comportamento, così è nato Norman, l’AI piscopatica.

È stata realizzata la prima intelligenza artificiale psicopatica: arriva direttamente dal laboratorio del Massachusetts Institute of Technology un’AI piuttosto inquietante, che durante test specifici ha manifestato reazioni similari a quelle di persone affette da psicopatia.

Ma cosa potrebbe mai spingere degli scienziati a creare un’intelligenza artificiale psicopatica?
Prima di gridare allo scandalo o di fare riferimenti a scenari apocalittici in cui robot vengono programmati per sottomettere ed uccidere il genere umano, è necessario mettere in chiaro che si tratta di una semplice quanto fondamentale prova fornita al mondo intero per amore della scienza e della verità.

Norman: com’è stata realizzata l’AI psicopatica

Per permettere ad un’intelligenza artificiale di essere autonoma nel riconoscimento degli oggetti o delle immagini poste in esame, è necessario in primo luogo istruire gli algoritmi con una notevole quantità di dataset.
È soltanto in base alle informazioni in possesso dell’intelligenza artificiale che la stessa sarà poi in grado di effettuare classificazioni ed associazioni e fornire un responso, ma a Norman, che prende il nome dal famoso personaggio di Psycho, sono state dato in pasto informazioni particolarmente inquietanti.

Gli esperti hanno voluto scavare nel dark web, ovvero quella parte oscura della rete che contiene informazioni piuttosto angoscianti, prese dal famoso aggregatore americano Reddit. In particolare, Norman è cresciuto con immagini raccapriccianti di morti macabre e violente, per poi essere sottoposto al test delle macchie di Rorschach.

Le reazioni al test di Rorschach di Norman

Il test di Rorschach è un esame psicologico molto semplice basato sull’osservazione di alcune tavole che riproducono macchie di inchiostro simmetriche.
Questo test viene utilizzato nell’ambito della salute mentale per avere un riferimento sulla personalità dell’individuo a cui vengono sottoposte: in relazione all’interpretazione delle macchie da parte del soggetto, è possibile scoprire il pensiero dello stesso, la rappresentazione di sé, il modo in cui viene vissuta la sfera sociale, e così via.

Le macchie di Rorschach sono state sottoposte a Norman e al contempo ad un’intelligenza artificiale istruita con dataset costituito da persone, oggetti o animali normali: le differenze tra le interpretazioni delle due AI è tanto sconvolgente quanto interessante.

Laddove l’intelligenza artificiale “normale” vedeva una coppia di persone l’una accanto all’altra, Norman ha interpretato la figura di un uomo che salta giù da una finestra, mentre quando la prima riconosceva una foto in bianco e nero di un guantone da baseball, per Norman si trattava di un uomo che viene ucciso con una mitragliatrice in pieno giorno, o ancora quella che per l’AI normale era una persona che tiene in mano un ombrello per Norman era un uomo colpito a morte davanti alla moglie urlante.

L’importanza nella scelta dei dataset

Un macabro esperimento che ha voluto essere una prova schiacciante di quanto i dati e le informazioni date in pasto agli algoritmi possano influenzare in maniera significativa l’andamento dell’intelligenza artificiale.

I ricercatori hanno tentato in questo modo di far capire alle persone non solo che le intelligenze artificiali non possono diventare “cattive” o “razziste” in maniera sistematica, autonoma ed imprevedibile ma che, nei casi in cui si è verificato, a monte vi è un’errata programmazione o, come il Tay di Microsoft lanciato su Twitter, la base di conoscenza e di apprendimento dell’AI erano commenti offensivi e razzisti di probabili troll.

L’esperimento ha portato ancora una volta l’attenzione sulla necessità di stabilire principi etici che siano in grado di regolare l’addestramento delle intelligenze artificiali: la responsabilità dei risultati non è tanto degli algoritmi, quanto della tipologia di informazioni fornite nella fase di addestramento.


Norman: ecco il lato oscuro dell’intelligenza artificiale - Ultima modifica: 2018-06-06T21:40:48+00:00 da Maria Grazia Tecchia

Giornalista, blogger e content editor. Ha realizzato il sogno di coniugare le sue due più grandi passioni: la scrittura e la tecnologia. Esperta di comunicazione online, da anni realizza articoli per il web occupandosi della tecnologia a più livelli.

Recent Posts

Immagini Festa della Mamma 2024 le migliori per WhatsApp

Immagini Festa della Mamma 2023 di auguri. Raccolta di foto da condividere, divertenti e simpatiche,…

2 ore ago

GIF Festa della mamma 2024, le migliori per gli auguri su WhatsApp

GIF per la festa della mamma 2023, immagini animate da scaricare gratis e condividere su…

2 ore ago

Pechino Express, la classifica social dei concorrenti, la storia, le nazioni

Pechino Express è un viaggio nell'umanità, quella delle persone che si incontrano nelle nazioni attraversate,…

24 ore ago

MenteeBot: il robot che sbriga le faccende di casa che decide cosa fare

MenteeBot è un innovativo robot umanoide di Mentee Robotics progettato per svolgere compiti domestici e…

5 giorni ago

Diritto alla riparazione approvato nell’Unione Europea, cosa cambia

L'UE ha approvato la direttiva sul diritto alla riparazione, promuovendo consumi sostenibili e riducendo i…

5 giorni ago

I canali di WhatsApp nuovo strumento di marketing per le aziende

La diffusa app di messaggistica lancia i canali WhatsApp per interagire con gli utenti. Ecco…

1 settimana ago

Digitalic © MMedia Srl

Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135

Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011