Facebook ha intrapreso misure di moderazione contro quasi 1,5 miliardi di account e post che hanno violato i suoi regolamenti nei primi tre mesi del 2018 e ha chiuso 583 milioni di account fasulli nei primi 3 mesi 2018.

 

Account fasulli , Facebook ne ha chiusi 583 milioni nei primi 3 mesi 2018

Nel suo primo trimestrale Rapporto di Applicazione degli Standard della Community, Facebook ha affermato che la stragrande maggioranza delle azioni di moderazione è stata rivolta contro spam e account fasulli : ha agito su 837 milioni elementi di spam e chiuso 583 milioni account falsi sul sito durante i tre mesi. Facebook ha anche moderato 2,5 milioni discussioni di incitamento all’odio, 1,9 milioni di elementi di propaganda terroristica, 3,4 milioni di violenza grafica e 21 milioni di contenuti di nudità e attività sessuale.

“Questo è l’inizio del viaggio e non la fine e stiamo cercando di essere il più aperti possibile”, ha dichiarato Richard Allan, vicepresidente della policy pubblica di Facebook per l’Europa, il Medio Oriente e l’Africa.

Dagli account fasulli ai contenuti illeciti

La quantità dei contenuti moderati da Facebook è influenzata sia dalla capacità dell’azienda di trovare e agire sul materiale in violazione dei regolamenti, sia dalla quantità di articoli inviati dagli utenti. Ad esempio, Alex Schultz, vicepresidente dell’azienda per l’analisi dei dati, ha dichiarato che la quantità di contenuti moderati per violenza grafica è quasi triplicata rispetto al trimestre precedente.

Un’ipotesi per l’aumento, ha detto Schultz, è che “nel [il trimestre più recente], alcune cose negative sono accadute in Siria. Spesso quando ci sono cose veramente brutte nel mondo, molte cose arrivano su Facebook “. Ha sottolineato che la maggior parte della moderazione effettuata in questi casi è stata” semplicemente contrassegnando qualcosa come disturbante “.

Categorie account fasulli Facebook

Diverse categorie di contenuti illeciti delineati nelle linee guida di moderazione di Facebook – tra cui immagini di sfruttamento sessuale di bambini, vendette pornografiche, violenze, post suicidi, bullismo, molestie, violazioni della privacy e violazione del copyright – non sono incluse nella relazione.

In merito allo sfruttamento dell’immaginario infantile a fini illeciti, Schultz ha affermato che l’azienda deve ancora prendere decisioni su come classificare diversi tipi di contenuto, ad esempio le immagini di sfruttamento di bambini in formato di cartoni animati.

“Siamo molto più concentrati in quest’area sulla protezione dei bambini che non a capire esattamente quale categorizzazione pubblicare nel rapporto esterno”, ha affermato.

Account fasulli Facebook e contenuti bloccati

Facebook è anche riuscita ad aumentare la quantità di contenuti eliminati con nuovi strumenti basati sull’AI che ha utilizzato per trovare e moderare il contenuto senza che i singoli utenti lo segnalassero come sospetto. Questi strumenti hanno funzionato particolarmente bene per contenuti come account falsi e spam: l’azienda ha affermato di essere riuscita a utilizzare tali strumenti per trovare il 98,5% degli account falsi e “quasi il 100%” dello spam.
La segnalazione automatica ha funzionato bene per trovare esempi di nudità, dal momento che, secondo Schultz, era facile per la tecnologia di riconoscimento delle immagini sapere cosa cercare. Più difficile, a causa della necessità di prendere in considerazione gli indizi contestuali, era la moderazione per l’incitamento all’odio. In quella categoria, Facebook ha dichiarato: “abbiamo trovato e segnalato circa il 38% dei contenuti su cui successivamente abbiamo agito, prima che gli utenti li segnalassero”.

Lo sforzo di Facebook per la trasparenza

Facebook ha fatto passi per migliorare la trasparenza negli ultimi mesi. Ad aprile, la società ha rilasciato una versione pubblica delle sue linee guida per ciò che è e non è consentito sul social.

La società ha inoltre annunciato misure che richiedono agli inserzionisti politici di sottoporsi a un processo di autenticazione e rivelare la loro affiliazione accanto alla pubblicità.

I dati sulla moderazione di Facebook arrivano una settimana dopo il rilascio dei Principi di Santa Clara, un tentativo di scrivere una guida su come le piattaforme di grandi dimensioni dovrebbero moderare i contenuti. I principi stabiliscono che i social network devono pubblicare il numero di post che rimuovono, fornire informazioni dettagliate per gli utenti il cui contenuto viene eliminato, spiegandone il motivo e offrire la possibilità di appellarsi contro la decisione.

“Questo è un grande primo passo”, ha detto Jillian York della Electronic Frontier Foundation, “tuttavia, non abbiamo alcuna informazione su quanti tentativi di rimozione errati si verificano, quanti ricorsi che comportano il ripristino dei contenuti. Vorremmo anche vedere un miglior messaggio agli utenti quando un’azione è stata presa sul loro account, in modo che conoscano la specifica violazione.”

Facebook non è l’unica piattaforma che intraprende passi verso la trasparenza. Il mese scorso YouTube ha rivelato che ha rimosso 8,3 milioni video per violazione delle linee guida della community tra ottobre e dicembre.

“Credo che questa sia una risposta diretta alla pressione cui sono stati sottoposti per diversi anni da diverse parti interessate [compresi gruppi della società civile e accademici]”, ha affermato York.

facebook account fasulli

IQ Test reti aziendali

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!