Non si tratta di magia, non fa miracoli, almeno non al momento. Allo stesso tempo dobbiamo mantenere tutte le cautele nel gestire una materia che si sta evolvendo rapidamente.
La paura più radicata è il “terrore di terminator” ovvero la possibilità che le macchine (che siano robot o software) si possano rivoltare e scagliarsi contro l’uomo. Di queste teorie sono pieni i libri di fantascienza. Ovviamente non tutti pensano che le intelligenze artificiali si impadroniscano dei “corpi” di robot e macchine per distrugger e il nostro mondo. Questa paura prende sembianze diverse: dalla guerra atomica (alla War Games) scatenata dai computer fino all’annientamento del lavoro umano, forse il timore più diffuso.
Anche questa rientra nelle paure pressoché irrazionali, il mondo è andato incontro a cambiamenti tecnologici anche più profondi di questo mantenendo intatte le prerogative degli uomini. Ad ogni rivoluzione industriale è poi seguito un riassetto che ha visto la diffusione di nuovi lavori al posto di quelli resi obsoleti dai cambiamenti tecnologici, ma anche sociali.
Certo, fa pensare che grandi personalità come Elon Musk e Stephen Hawiking ne fossero così preoccupati da firmare gli “Asilomar AI Principles” (Principi Asilomar per AI). Si tratta di una lista composta da 23 principi-guida per uno sviluppo dell’AI produttivo e sicuro. Sono stati sviluppati dopo che l’Istituto Future of Life è riuscito a riunire insieme decine di personalità che hanno preso parte alla loro conferenza “Beneficial AI”. Gli esperti, le cui specializzazioni spaziavano dalla robotica, alla fisica, all’economia, alla filosofia, hanno intercorso dibattiti accesi in tema della sicurezza dell’AI, ma anche sull’impatto economico tra i lavoratori umani e sull’etica della programmazione, solo per citarne alcuni. Al fine di rendere la lista effettiva, il requisito era che almeno il 90% degli esperti fosse concorde. I principi sono stati approvati da 892 ricercatori di AI o robotica e 1.445 altri esperti, tra cui appunto il Ceo di Tesla Elon Musk e il compianto fisico Stephen Hawking. Alcuni dei principi – come la trasparenza e la condivisione aperta della ricerca tra le imprese competitive, però sembrano essere meno probabili di altre. Anche se non verranno attuati pienamente, i 23 principi migliorare lo sviluppo dell’AI, garantendone un’etica condivisa.
Proprio questo è il punto: l’etica, per non essere dannose tutte le attività umane dovrebbero includerla nativamente, una sorta di “etica by design”, solo così l’AI potrà essere davvero utile all’uomo.
Il 22 aprile BlueIT porta l’AI Accelerator al Castello Visconteo di Pandino per la prima…
Presentato nella mostra Space Dreamers a Milano, l'ASUS ExpertBook Ultra pesa 0,99 kg, monta un…
Alla NVIDIA GTC 2026 Jensen Huang ha presentato Vera Rubin, Groq 3, Dynamo 1.0 e…
GPT-5.4 raggiunge il 75% su OSWorld-Verified, superando i dati fatti segnare dagli umani del 72,4%…
Arriva il malware agentico, polimorfo, in grado di cambiare in pochi secondi. L’intelligenza artificiale non…
Ignite On Tour al Museo della Scienza di Milano, nelle sale dove Leonardo immaginava macchine…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011