Revisione audio di Siri: Apple cambia politica dopo le rivelazioni del Guardian

Apple sta apportando modifiche al modo in cui la revisione audio di Siri – detta anche “grading” – funziona su tutti i suoi dispositivi.

Apple sta apportando modifiche al modo in cui la revisione audio di Siri – detta anche “grading” – funziona su tutti i suoi dispositivi. In primo luogo, sta rendendo la revisione dell’audio un’opzione esplicita a cui bisogna consentire tramite opt-in; la modifica verrà apportata tramite un prossimo aggiornamento del software, applicabile per ogni utente attuale e futuro di Siri.

In secondo luogo, solo i dipendenti Apple, e non i collaboratori esterni, potranno esaminare questi audio opt-in, nel tentativo di riavvicinare i processi fondamentali che utilizzano dati privati all’azienda e ai suoi standard di sicurezza.

Apple ha pubblicato un post sul blog in cui sono indicati alcuni dettagli sulla privacy relativi a Siri che potrebbero non essere stati del tutto noti in precedenza, poiché descritti nei white paper sulla sicurezza.

Le scuse di Apple

“Come risultato della nostra revisione, ci siamo resi conto di non essere stati pienamente all’altezza dei nostri alti ideali e per questo ci scusiamo. Come precedentemente annunciato, abbiamo interrotto il programma di valutazione di Siri. Prevediamo di ricominciare più tardi questo autunno quando gli aggiornamenti software verranno rilasciati ai nostri utenti, ma solo dopo aver apportato le seguenti modifiche…”

Il post descrive quindi tre modifiche apportate al funzionamento della revisione audio di Siri:

Advertising
  • Innanzitutto, per impostazione predefinita, non conserveremo più le registrazioni audio delle interazioni con Siri. Continueremo a utilizzare le trascrizioni generate al computer per aiutare Siri a migliorare.

  • In secondo luogo, gli utenti potranno scegliere di aiutare Siri a migliorare imparando dai campioni audio delle loro richieste. Speriamo che molte persone scelgano di aiutare Siri a migliorare, sapendo che Apple rispetta i dati personali e dispone di solidi controlli sulla privacy. Coloro che scelgono di partecipare potranno annullare l’iscrizione in qualsiasi momento.

  • In terzo luogo, quando gli utenti optano per partecipare all’analisi, solo i dipendenti di Apple potranno ascoltare campioni audio delle interazioni con Siri. Il nostro team lavorerà per eliminare qualsiasi registrazione che è stata determinata per via di trigger involontari di Siri.

Revisione audio di Siri: quando verranno introdotti i cambiamenti

Apple non implementerà nessuna di queste modifiche, né riprenderà il processo di classificazione di Siri che aveva interrotto, fino a quando l’aggiornamento del software non sarà disponibile per i suoi sistemi operativi. Una volta che gli utenti avranno aggiornato i dispositivi con le nuove versioni del sistema operativo, avranno la possibilità di optare per aiutare il processo di grading che utilizza registrazioni audio per verificare le richieste che gli utenti fanno a Siri. Ciò significa in pratica che ogni utente di Siri verrà escluso da questo processo una volta che l’aggiornamento sarà stato installato e attivato.

Apple afferma che continuerà a utilizzare trascrizioni anonimizzate generate dalle richieste a Siri per alimentare i suoi motori di apprendimento automatico con dati, in modo simile agli altri assistenti vocali. Queste trascrizioni potranno essere soggette alla revisione dei dipendenti Apple.

Amazon e Google avevano già in precedenza rivelato che i loro assistenti erano stati migliorati grazie alla revisione umana dell’audio e hanno anche iniziato a inserire il processo di opt-in come condizione per la trascrizione delle richieste.

Anche Apple sta apportando modifiche al processo di classificazione, osservando che, ad esempio, “i nomi dei dispositivi e delle stanze impostati nell’app Home saranno accessibili dal revisore solo se la richiesta di valutazione comporta il controllo dei dispositivi usati in ​​casa”.

Revisione audio di Siri: il caso di fine luglio

Una storia pubblicata dal The Guardian a fine luglio aveva delineato il modo in cui i campioni audio Siri venivano inviati a dipendenti di appaltatori che Apple aveva scelto per valutare la qualità delle risposte tramite la trascrizione che Siri aveva prodotto per i suoi motori di machine learning. La pratica non è certamente unica nel settore, ma non era stato reso del tutto chiaro nelle politiche sulla privacy di Apple che esseri umani sarebbero stati coinvolti nel processo di “grading”. Inoltre, è venuto fuori che i campioni venivano valutati da collaboratori esterni e non da dipendenti di Apple. Un appaltatore ha descritto l’audio come contenente informazioni riservate e private che, in alcuni casi, potrebbero essere state sufficienti per essere in grado di collegare l’audio a utenti specifici, anche a seguito dei processi di anonimizzazione di Apple.

In risposta alla notizia, Apple ha interrotto il processo di classificazione delle interazioni con Siri in tutto il mondo per esaminare meglio la questione. Il post pubblicato da Apple e gli aggiornamenti del suo processo di grading sono il risultato della notizia diffusa dal Guardian.

Le altre mosse di Apple

Apple afferma che solo circa lo 0,2% di tutte le richieste a Siri è stato sottoposto a tale trattamento audio, ma dato che ci sono 15 miliardi di richieste al mese, dei calcoli veloci ci dicono che, sebbene statisticamente minimi, i numeri assoluti potrebbero essere piuttosto alti.

Apple ha sottolineato in particolare l’allontanamento dei contractor.

Apple ha, inoltre, pubblicato una serie di FAQ su come i controlli sulla privacy di Siri si adattano al suo processo di classificazione.

Il post sul blog di Apple e le FAQ forniscono alcuni dettagli ai consumatori su come Apple gestisce il processo di classificazione/grading delle interazioni con Siri, su come minimizzare i dati forniti ai revisori dei dati nel processo di classificazione e su come viene preservata la privacy in relazione al funzionamento di Siri.

Revisione audio di Siri: perché è importante

Il lavoro di Apple con Siri fin dall’inizio si è concentrato enormemente sull’elaborazione su dispositivo ogni volta che è possibile. Ciò ha portato molti esperti a dire che Apple stava barattando capacità effettive con privacy, evitando i pesanti processi su data center di assistenti di aziende come Amazon o Google a favore del mantenimento di una sorta di “Cloud personale” di dati sul dispositivo. Purtroppo, la mancanza di trasparenza sui processi di revisione e l’uso degli appaltatori hanno vanificato tutto questo lavoro fondamentale che Apple aveva svolto.

È, quindi, positivo che Apple stia rivedendo gli standard sulle sue politiche sulla privacy per quanto riguarda la revisione audio di Siri e il miglioramento del prodotto.

Conclusioni

Il fatto è che nessun altro assistente è focalizzato sulla privacy quanto Siri, al punto da ostacolare la sua capacità di avanzare più rapidamente. Speriamo che questo episodio porti a una maggiore trasparenza da parte di Apple in merito a quando gli umani vengono coinvolti in processi che si presume siano completamente automatizzati.

La maggior parte delle persone presume che “AI” o “machine learning” significhino “solo computer”, ma il fatto triste è che la maggior parte di tali processi è ancora fortemente guidata dall’uomo perché l’AI (che non si può ancora dire esista veramente) e il machine learning sono ancora piuttosto scarsi. Gli umani saranno coinvolti nel farli sembrare più intelligenti per molto tempo ancora.

 


Revisione audio di Siri: Apple cambia politica dopo le rivelazioni del Guardian - Ultima modifica: 2019-09-02T06:44:11+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

Zyxel Channel HUB

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!