Siri registra le conversazioni, ascoltate dai collaboratori di Apple

Secondo un informatore, Siri registra le conversazioni un parte viene ascoltata dai collaboratori di Apple che vengono a conoscere dettagli intimi e segreti, la rivelazione fatta a The Guardian

Siri registra le conversazioni e i contractor, i collaboratori esterni di Apple, ascoltano regolarmente registrazioni  che comprendono informazioni mediche riservate, notizie di reati,  incontri intimi, tutto ciò avviene nell’ambito del loro lavoro che dovrebbe fornire controlli di qualità o “valutazioni” in merito all’assistente vocale. A sostenerlo è un whistleblower che ha rivelato questa pratica al giornale inglese The Guardian che sull’argomento ha lanciato un’inchiesta giornalistica. Apple è molto apprezzata per la sua reputazione in merito a privacy degli utenti e ne ha fatto una bandiera, ci si aspetta dunque un intervento risolutivo sulla questione che possa tutelare gli utenti.

siri-registrazioni-ascoltate

Siri registra le conversazioni e vengono ascoltate dai tecnici

Anche se Apple non lo rivela esplicitamente nella sua policy sulla privacy rivolta al consumatore, una piccola parte delle registrazioni di Siri viene trasmessa a dei contractor, collaboratori esterni, che lavorano per l’azienda in tutto il mondo, ha rivelato The Guardian. Questi hanno il compito di classificare le risposte su una varietà di fattori, incluso se l’attivazione dell’assistente vocale è stata intenzionale o accidentale, se la domanda era qualcosa su cui Siri avrebbe potuto essere d’aiuto e se la risposta di Siri è risultata appropriata.

Apple afferma che i dati “vengono utilizzati per aiutare Siri e il dettato a comprenderti meglio e riconoscere ciò che dici”, ma non afferma esplicitamente che questo lavoro è svolto da umani che ascoltano le registrazioni.

Apple ha dichiarato che che:

Advertising

Una piccola parte delle richieste di Siri viene analizzata per migliorare Siri e la dettatura. Le richieste dell’utente non sono associate all’ID Apple dell’utente. Le risposte di Siri vengono analizzate in strutture sicure e tutti i revisori hanno l’obbligo di aderire a severi requisiti di riservatezza di Apple.”

L’azienda ha aggiunto che un sottoinsieme casuale molto piccolo, meno dell’1% delle attivazioni giornaliere di Siri, viene utilizzato per la classificazione e quelle utilizzate sono in genere di solo pochi secondi.

Un informatore che lavora per l’azienda, che ha chiesto di rimanere anonimo a causa dei timori per il proprio lavoro, discutendo con il quotidiano inglese The Guardian, a cui ha riportato la cosa, ha espresso preoccupazione per questa mancanza di chiarezza, in particolare data la frequenza con cui le attivazioni accidentali raccolgono informazioni personali estremamente sensibili.

Siri: registrazioni accidentali trasmesse all’esterno

Siri può infatti attivarsi accidentalmente quando sente erroneamente la sua “parola di sveglia”, la frase “hey Siri”. Questi errori possono essere comprensibili, come quando una seduta parlamentare sulla Siria è stata interrotta dall’assistente l’anno scorso, o meno comprensibili, come ad esempio il fatto che “il suono di una cerniera lampo che viene spesso identificata da Siri come un segnale di sveglia”, in base a quanto riportato. Il servizio può essere attivato anche in altri modi: per esempio, se un Apple Watch rileva di essere stato sollevato e sente parlare, Siri si attiva automaticamente.

Secondo quanto riportato da The Guardian il whistleblower ha dichiarato che:

“Ci sono stati innumerevoli casi di registrazioni che hanno riguardato discussioni private tra medici e pazienti, affari, apparentemente attività criminali, incontri sessuali e così via. Queste registrazioni sono accompagnate da dati dell’utente che mostrano posizione, dettagli di contatto e dati dell’app”.

Queste informazioni possono essere utilizzate per verificare se una richiesta è stata gestita correttamente. Nei documenti sulla privacy, Apple afferma che i dati Siri “non sono collegati ad altri dati che Apple potrebbe avere dall’uso di altri servizi Apple”. Non esiste un nome o identificativo specifico allegato a una registrazione e nessuna registrazione individuale può essere facilmente collegata ad altre registrazioni.

Apple Watch la fonte maggiore delle registrazioni accidentali

Sebbene Siri sia inclusa nella maggior parte dei dispositivi Apple, il contractor ha posto in evidenza l’Apple Watch e lo smart speaker HomePod dell’azienda come le fonti più frequenti di registrazioni errate.

“La regolarità dei trigger accidentali sull’orologio è incredibilmente alta – ha affermato – L’orologio può registrare alcuni frammenti che durano 30 secondi, non è un tempo così lungo, ma ci si può fare una buona idea di cosa sta succedendo. […] Puoi chiaramente sentire un medico e un paziente, che parlano dello storico medico del paziente, oppure sentire qualcuno, magari con il rumore di fondo del motore dell’auto e non puoi dirlo con certezza, ma sembra un affare di droga… puoi sicuramente sentirlo accadere. E si può sentire di persone che impegnate in atti sessuali che vengono accidentalmente registrate sul pod o sul Watch.”

Il collaboratore ha affermato che il personale è stato incoraggiato a segnalare attivazioni accidentali “ma solo come problema tecnico”, senza procedure specifiche per gestire le registrazioni sensibili.

“Siamo incoraggiati a raggiungere gli obiettivi e a completare il lavoro il più rapidamente possibile. L’unica funzione per segnalare ciò che stai ascoltando sembra essere per problemi tecnici. Non c’è nulla per riferire del contenuto”.

Oltre al disagio percepito nell’ascoltare tali informazioni private, il contractor ha affermato di essersi sentito spinto a rendere pubblico il proprio lavoro a causa dei timori che tali informazioni possano essere utilizzate in modo improprio:

“Non c’è molto controllo su chi lavora lì e la quantità di dati che siamo liberi di esaminare sembra piuttosto ampia. Non sarebbe difficile identificare la persona che stai ascoltando, soprattutto con trigger accidentali: indirizzi, nomi e così via. Apple subappalta. E c’è un turnover elevato; non è come se le persone fossero incoraggiate a prendere in considerazione la privacy delle persone. Se ci fosse qualcuno con intenzioni sbagliate, non sarebbe difficile identificare [le persone nelle registrazioni]”.

Attenzione alla privacy

Il contractor ha affermato che Apple dovrebbe rivelare agli utenti che esiste questo processo di valutazione da parte di persone in carne e ossa e, in particolare, interrompere l’uso di alcune delle risposte scherzose alle domande a Siri. Se si chiede all’assistente personale se è sempre in ascolto, per esempio, Siri risponde che ascolta solo quando ci si rivolge a lei.

Ciò è palesemente falso, afferma il contractor, perché i trigger accidentali sono troppo regolari per una risposta così superficiale.

Apple non è la sola a ricorrere alla supervisione umana dei propri assistenti vocali automatici. Ad aprile, è stato rivelato che Amazon impiegava personale per ascoltare alcune registrazioni di Alexa e sembra che anche Google faccia lo stesso con Google Assistant.

La situazione di Apple, però, è almeno parzialmente diversa. Per prima cosa, Amazon e Google consentono agli utenti di rinunciare ad alcuni usi delle loro registrazioni, mentre Apple non offre alternative simili, a parte disabilitare completamente Siri.

L’azienda è molto apprezzata per la sua reputazione in merito a privacy degli utenti e ne ha fatto una bandiera, lo porta ad esempio come vantaggio competitivo rispetto a Google e Amazon. A gennaio, ha acquistato un cartellone pubblicitario al Consumer Electronics Show di Las Vegas, dedicandolo alla sua particolare attenzione alla privacy.


Siri registra le conversazioni, ascoltate dai collaboratori di Apple - Ultima modifica: 2019-07-31T07:10:47+00:00 da Giulia Mandrioli

Giornalista, Blogger, appassionata di digitale e tecnologia. Laureata in lettere moderne

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!