Il Darpa (Defence Advanced Research Projects Agency) sta lavorando ad una uova tecnologia di machine learning che potrebbe portare ad una crescita del machine learning sulla base delle esperienze raccolte nell’intero ciclo di vita non naturale di un sistema.
In sostanza, il Darpa vuole trasformare ogni interazione dell’AI in un’opportunità per raccogliere i dati. L’iniziativa Lifetime Learning Machines (L2M) non avrà come obiettivo la sorveglianza, ma il miglioramento dell’intelligenza artificiale, esponendola a nuovi dati ed esperienze, lasciandola imparare da questi proprio come avverrebbe con un cervello biologico.

Chi è a capo del progetto lo definisce come un “nuovo paradigma del computing” in grado di soppiantare il coding classico dell’AI, nel quale le conoscenze e i comportamenti vanno forniti anticipatamente.

Anche se il programma di quattro anni, per far diventare l’AI “un collaboratore sensibile e adattabile” con gli esseri umani, è appena iniziato, gli obiettivi di apprendimento della macchina sono chiari: consentire all’AI di imparare dalle esperienze accidentali. Le macchine dovranno imparare autonomamente non solo dai successi e dagli errori, ma anche dai successi osservati e dagli errori commessi da altri attori del mondo che li circonda.

Questo tipo di apprendimento vicario richiederà la costruzione di un senso di sé di base. Ad esempio, una vettura a guida autonoma dovrebbe apprendere delle lezioni dopo aver visto un altro incidente d’auto. Un sistema di AI come questo ha bisogno di regole molto generali su informazioni incorporare, dando anche la possibilità di adattamento a scenari del tutto imprevisti.
Tuttavia, anche noi esseri umani non impariamo in un modo non strutturato e totalmente aperto. Anche il primo ruolo di guida rappresentato dai genitori entra in scena, abbiamo reso nostri meccanismi di apprendimento intrinsecamente non strutturati e abbiamo dato loro una struttura crescendo e imparando.

L‘esempio più evidente è quello rappresentato dal dolore: i bambini non hanno bisogno di imparare a non gradire il dolore, quindi c’è una base neurologica che fa sì che i comportamenti che portano al dolore abbiano meno probabilità di essere ripetuti. I processi di apprendimento umani non sono del tutto senza supervisione e funzionano in parte anche grazie alle ricompense e le punizioni istituite nel corso dell’evoluzione.

Il progetto L2M del DARPA vuole cercare di fornire alcune strutture di apprendimento simili a quelle dei robot, anche se i militari stanno ancora decidendo quali debbano essere gli incentivi destinati ai robot e come funzioneranno.
Eppure, questo approccio ha funzionato negli esseri umani perché l’evoluzione non si cura dei singoli individui, ma della specie.
Le automobili a guida autonoma, ovviamente, non possono essere programmate ad accettare guasti catastrofici nel perseguimento di avanzamento della specie, e le persone potrebbero non comprarle a meno che non siano programmate per proteggere i loro piloti ad ogni costo, anche se questo significa uccidere chi si trova nei pressi della vettura stessa. Ogni forma di decisione dell’AI dovrà essere vagliata dagli umani prima di essere applicata.

Darpa consentirà all’AI di crescere grazie al progetto Lifetime Learning ultima modifica: 2017-03-26T18:39:28+00:00 da Web Digitalic
CeBit 2018

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!

Entra nella commmunity di Digitalic, seguici!