Instagram ha lanciato una massiccia campagna di comunicazione per chiedere che che siano gli App Store a verificare l’età degli utenti che accedono, ha messo in campo tutto il prestigio del suo brand e spot TV, post su internet, tutto l’esercito dei mezzi di comunicazione moderni. “Pensiamo che sia arrivato il momento di istituire una nuova norma europea che richieda la verifica dell’età e l’approvazione dei genitori per adolescenti sotto i 16 anni al momento del download delle app.”
Ma il vero obiettivo della campagna è la sicurezza… o la delega? E’ protezione o un tentativo di spostare su altri soggetti la responsabilità?
Indice dei contenuti
Instagram — o meglio, Meta — si schiera a favore di una nuova regolamentazione europea che imponga agli app store (come Apple e Google Play) di verificare l’età degli utenti e ottenere l’approvazione dei genitori per i minori di 16 anni. Il tutto, all’origine: “al momento del download dell’app”.
Una proposta che, a prima vista, suona sensata. Chi non vorrebbe una rete più sicura per i propri figli? Ma come sempre accade bisogna guardare i dettagli dettagli e le intenzioni.
La massiccia campagna è accompagnata da uno storytelling accattivante: sondaggi tra i genitori, materiale informativo in 27 lingue, e persino una lettera aperta firmata dai responsabili europei di Meta. Il messaggio è chiaro: “Aiutiamo le famiglie, rendiamo internet più sicuro per i giovani, agiamo a livello normativo per una tutela armonizzata in tutta Europa.”
Instagram afferma:
“Questo aiuterebbe i genitori a prendere decisioni più consapevoli e a garantire che gli adolescenti possano vivere esperienze online adeguate alla loro età.”
Una dichiarazione che suona come un invito al buon senso. Ma qui non stiamo parlando solo di principi, bensì di responsabilità e quella, Instagram sembra volerla spostare altrove.
La questione centrale è questa: perché dovrebbe essere l’app store — cioè il punto di accesso — a gestire la verifica dell’età, e non l’app stessa, dove avviene la vera esperienza digitale? Ma soprattutto una volta scarica l’app con l’approvazione dei genitori, quale garanzia c’è che i contenuti somministrati all’interno dell’app siano adeguati ad un pubblico di minorenni. Insomma spostare il controllo al momento dell’accesso non significa necessariamente tutelare i giovani da contenuti inappropriati, non può in alcun modo scaricare la responsabilità di chi crea i feed.
La proposta di Meta appare più come una strategia utilitaristica che una reale presa di coscienza. Delegare agli store di sistema la verifica dei dati è un modo elegante per dire: “Non è più compito nostro”.
Instagram, da parte sua, offre già alcune funzionalità di supervisione parentale. Ma il fatto che chieda un intervento “a monte” rivela una certa resistenza ad assumersi il peso — anche tecnico e legale — di un controllo interno più rigoroso.
Il paradosso è evidente: la richiesta di norme più stringenti arriva da una delle aziende che più ha beneficiato di un’adozione precoce delle sue piattaforme da parte di giovanissimi. Instagram ha costruito parte del suo successo proprio sulla fascia d’età che oggi, improvvisamente, diventa oggetto di protezione.Certo, il contesto è cambiato. Ma rimane la domanda: la protezione serve davvero a tutelare i minori, o a proteggere Meta dalle accuse future?
Inoltre, ci sono limiti tecnici e culturali. La verifica dell’età da parte degli app store può rallentare il processo di download, creare un sovraccarico per i genitori — chiamati a confermare ogni singola app — e soprattutto, non garantisce che l’esperienza all’interno dell’app sia realmente sicura o adatta. Il pericolo non è nel download, ma nel feed.
Verificare l’età significa raccogliere dati sensibili. Farlo a livello di app store implica un maggiore coinvolgimento di Apple, Google e altri player. Ma espone anche a nuovi rischi in termini di gestione dei dati personali. Chi custodirà queste informazioni? Come saranno usate? E da chi?
Instagram avrebbe potuto proporre uno standard di sicurezza e controllo direttamente integrato nella sua piattaforma, offrendo alle famiglie un vero strumento educativo e protettivo. Invece, pare preferisca che siano gli altri a costruire le regole.
“Le aziende non dovrebbero affrontare queste sfide da sole”, dice Meta nel suo appello, ed è vero; ma non dovrebbero nemmeno scaricarle.
La protezione dei minori online è una responsabilità condivisa. Ma le piattaforme devono fare la loro parte fino in fondo. Perché se un social network crea l’ambiente in cui i giovani crescono, allora non può limitarsi a chiedere controlli all’ingresso. Deve anche garantire che, una volta dentro, quei ragazzi siano protetti, rispettati e ascoltati.
Forse, più che una norma da app store, servirebbe un nuovo patto educativo, in cui tecnologia, famiglie e istituzioni scrivano insieme le regole. Ma non da dietro uno schermo, guardandosi negli occhi.
Il webinar “Tech & Travel” esplora strategie e trend dell’Influencer Marketing nel turismo, con dati…
Tra design, tecnologia e nuove forme di socialità, alla Milano Design Week 2025 ha debuttato…
SpaceX di Elon Musk ottiene il via libera per la creazione di Starbase, la nuova…
Scopri quali sono i film più visti e le serie TV più viste in Italia…
GIF per la festa della mamma 2025, immagini animate da scaricare gratis e condividere su…
Papa Leone XIV, matematico e riformatore, apre un nuovo capitolo per la Chiesa: tra etica…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011