Digitale e minori
Australia, stop ai social under16. Caffo: «Ma perché nessuno pensa al gaming?»
È il primo Paese al mondo ad adottare una misura così ampia e stringente. Ma il fondatore e presidente di Telefono Azzurro avverte: «Le piattaforme social sono solo una componente del problema. I ragazzi comunicano attraverso le piattaforme con cui giocano online, usano Twitch, scambiano materiale su Telegram»
L’Australia non è il primo Paese al mondo a tentare di introdurre una misura del genere, ma il divieto approvato dal Parlamento è il più vasto e rigoroso finora. Anche per la mancanza di precedenti non è ancora chiaro cosa prevedrà il divieto: la legge dice solo che le piattaforme dovranno adottare le misure necessarie per impedire agli utenti sotto ai 16 anni di avere un account e che, in caso di violazioni sistematiche, saranno multate, con sanzioni fino a 30 milioni di euro. A metà del prossimo anno inizierà una fase di sperimentazione.
«L’Australia ha scelto di investire su questa dimensione della tutela sul digitale delle fasce più deboli, i bambini e gli adolescenti. Da qui è emersa questa legge che sarà poi applicativa fra un anno. Io credo che il grande tema che dobbiamo affrontare è la verifica dell’età di accesso degli utenti minori alle piattaforme. Che non sono solo le piattaforme social, ma le piattaforme in generale digitali, anche quelle di gaming e di tutti quegli strumenti che possono essere utilizzati dai ragazzi». A parlare è Ernesto Caffo, fondatore e presidente di Telefono Azzurro.
Caffo, ci spieghi meglio.
Il tema è guidare l’accesso dei bambini al digitale con dei sistemi tecnologicamente adeguati che permettono di identificare la loro identità e la loro età. Questo aspetto della verifica dell’età è possibile con una buonissima approssimazione e sempre di più. Gli strumenti di intelligenza artificiale ci permettono oggi, aggregando i dati, di capire chi è l’utente senza identificare la persona direttamente, ma attraverso i suoi comportamenti può capire la sua età e avere elementi utili per poter evitare che acceda a materiali impropri. C’è la possibilità di identificare ma in modo tale da tutelare la privacy del bambino o dell’adolescente. Si tratta naturalmente di incrementare queste modalità e di evitare che bambini, con fasce differenziate, facciano un uso improprio dei social. C’è un problema che si pone.
Quale?
Il digitale esiste nella vita dei bambini e degli adolescenti: ci sono degli strumenti che possono essere utilizzati senza rischi particolari e altri, invece, che vanno evitati perché hanno dei rischi elevati. Se ci muoviamo in questo tema, che è quello che gli australiani hanno sviluppato, dell’attenzione al rischio secondo le fasce di età, dobbiamo andare in questa direzione anche in Europa, che deve avere una legislazione omogenea per poter essere efficace. Non possiamo avere un Paese che decide una cosa e l’altro che ne decide un’altra. Come Telefono Azzurro abbiamo aperto un nuovo ufficio a Bruxelles proprio per riuscire a guidare il legislatore europeo ad andare verso soluzioni che, sempre più, lo mettono a contatto con soluzioni che possono essere percorse dalle aziende e dai vari Paesi dell’Unione in modo coordinato.
Come si può bilanciare l’educazione e la formazione dei ragazzi, tra vecchi e nuovi strumenti?
Al di là del fatto di attivare processi formativi dei ragazzi, dobbiamo cercare di far sì che il loro ambiente possa essere sufficientemente adeguato in equilibrio tra competenze che sviluppano nell’ambito della lettura, della scrittura, di apprendimenti “tradizionali”, con strumenti digitali che sempre più fanno parte della vita delle persone che stanno attorno ai bambini: i genitori, gli insegnanti, gli adulti.
Il tema è trovare oggi modalità adeguate in cui il digitale diventa, per i bambini e i ragazzi, qualcosa da conoscere, ma con una grande attenzione e con delle regole precise che devono essere condivise
Non credo sia opportuno dire che i bambini devono evitare l’uso di strumenti digitali. Devono usare quelli che sono adatti a loro, devono imparare a usare il digitale in modo adeguato e devono viverlo controllandolo, conoscendolo come strumento in cui si impara anche un pensiero critico, valutando i rischi che questo comporta. Che è, poi, quello che sta succedendo oggi. Salvo casi che poi vengono raccontati nella cronaca, i ragazzi, tra di loro, sono molto più attenti all’uso degli strumenti digitali di quanto lo siano molte volte gli adulti. Sanno perfettamente che postare un’immagine, in molti casi, può diventare un elemento alla a base di fenomeni di cyberbullismo e di situazioni di grande rischio. Il tema è creare ancor più questa possibilità per i ragazzi di usare il digitale in modo responsabile, evitare l’accesso a piattaforme inadeguate rispetto all’età.
Come può essere vietato l’accesso a piattaforme inadeguate rispetto all’età?
Se ne discute ormai a livello europeo ed internazionale da molto tempo. La settimana prossima ad Abu Dhabi partecipo al Global Summit 2024, proprio sul tema della sicurezza dei bambini e degli adolescenti in rete. Ci saranno persone dell’organizzazione di cui faccio parte, We Protect, dove mettiamo insieme istituzioni, aziende e società civili. Il tema non è il “sì” o il “no”, se vietare o meno l’uso dei social, come purtroppo per semplificazione si fa. Ma è trovare modalità adeguate in cui il digitale diventa, per i bambini e i ragazzi, qualcosa da conoscere con una grande attenzione e con delle regole precise che devono essere condivise. Il focus centrale è la verifica dell’età di chi accede alla piattaforma.
Infatti uno dei principali problemi è come poter verificare l’età di chi accede alle piattaforme. Tra i metodi possibili ci sono sistemi di verifica gestiti dal governo (un po’ come lo Spid in Italia) oppure basati su dati biometrici.
Si può riuscire a trovare un modo per verificare l’età di chi accede, è una nostra battaglia da tanto tempo. Quando l’abbiamo posta all’inizio, le tecnologie non erano mature, oggi anche grandi aziende stanno andando in questa direzione. Questo sta dietro la legge australiana, che dice, in sintesi: «Cerchiamo delle soluzioni che siano legate alle nuove tecnologie». Lo si può fare guardando come le aziende, le tecnologie emergenti, possono essere di aiuto per permettere ai bambini di non essere oggetto di situazioni di rischio. Che sono poi quelle che creano un aumento di disturbi mentali, di comportamenti suicidari. Dobbiamo farlo in fretta. Questo, a mio avviso, deve essere il dibattito internazionale, non di un singolo Paese. Noi crediamo che iniziative, anche legislative, del nostro Paese siano encomiabili ma dobbiamo poi portarle a terra in un mondo globale: le stesse aziende che operano in California devono operare nello stesso modo in Europa, ma anche in Africa, in Sud America, ovunque.
Dal divieto in Australia, molto probabilmente saranno coinvolti X, Instagram, Facebook, Snapchat, TikTok, Reddit. Non dovrebbe riguardare YouTube (per il suo possibile scopo educativo) e neanche WhatsApp e Facebook Messenger.
Le piattaforme social sono solo una componente delle piattaforme che vedo come un problema. I ragazzi comunicano attraverso le piattaforme con cui giocano online, usano Twitch, scambiano materiale su Telegram. Vivono in una condizione nella quale passano da una piattaforma all’altra, da una neutra ad un’altra con contenuti a forte rischio. Il tema è che non possiamo bloccare tutte le piattaforme, e non è di includere, nel divieto, un’azienda o l’altra, o le grandi soltanto, perché poi nascono ovviamente le piccole che fanno altre operazioni. I ragazzi, più di noi, sono in grado di scegliere quelle che sono non controllate.
Qualunque azienda, piccola o grande, che ha utenza infantile o adolescenziale deve avere delle regole e dei controlli precisi. C’è bisogno di una legislazione molto più ampia di quella che l’Australia ha voluto fare, alla fine di un dibattito infinito. Ad esempio, anche YouTube ha all’interno dei contenuti talvolta problematici per i ragazzi. Allora dobbiamo anche lì essere molto più severi su questo versante.
Per quanto riguarda l’età, il divieto per gli under16 le sembra appropriato?
Bisogna fare anche un’analisi dell’età. Non ci può essere un divieto fino a 16 anni in generale. I bambini di sei-sette anni possono avere piattaforme di gioco. Il problema è di avere un’analisi per età e avere un blocco per età legato al tipo di prodotto. A mio avviso c’è bisogno di una grande attenzione e di un grande dibattito di merito per affrontare questi aspetti. Il tema non è quello del dire sì o no, ribadisco, ma di trovare soluzioni che sono concretamente applicabili. Ed è questo uno degli aspetti che in quella legge viene a mancare, perché in realtà è una dichiarazione di principio molto politica, molto meno efficace. E non vorrei che anche in Italia e in Europa succedesse la stessa cosa, cioè che vietassimo i cellulari nelle scuole, poi i ragazzi hanno mille altre opportunità di andare a vedere materiali in proprio. E la cosa che però mi colpisce sempre, è che non si parla mai di piattaforme di gaming.
Perché, secondo lei?
Perché forse le piattaforme di gaming hanno una capacità di tutela dei propri interessi superiore alle altre. Noi troviamo i cattivi soltanto su alcune piattaforme come TikTok, Meta? In realtà i cattivi sono tutti coloro che non mettono delle regole di tutela dei bambini nei propri sistemi. Telegram da sempre è un problema per ragazzi, ma non lo citiamo mai perché si tira fuori da ogni tipo di controllo, se non recentemente dopo l’arresto del fondatore a Parigi. In realtà c’è un numero infinito di piattaforme che i ragazzi frequentano, come Signal e Discord e mille altre. Perché non citiamo tutte quelle piattaforme che molte volte gli adulti non conoscono, ma i ragazzi sì, e che sono fonte di problemi? Se nelle community ci sono adulti e bambini insieme che si scambiano materiali, ci sono dei rischi enormi.
Qualunque azienda, piccola o grande, che ha utenza infantile o adolescenziale deve avere delle regole e dei controlli precisi. C’è bisogno di una legislazione molto più ampia di quella che l’Australia ha voluto fare
Un altro tema è quello del materiale pornografico, prodotto dall’intelligenza artificiale, che non riesce a essere bloccato da parte dei grandi provider. Tutti questi sono temi che vanno affrontati seriamente e vedo un enorme ritardo, nell’affrontarli, da parte delle aziende e anche delle istituzioni. Il problema non è quello di creare battaglie emotive. Il mondo del digitale (noi di Telefono azzurro lo diciamo ormai da dieci anni) è un mondo a rischio. Dobbiamo renderci conto che se non investiamo su soluzioni concretamente percorribili, noi perdiamo del tempo. I genitori dovrebbero avere il parental control ma non funziona.
Il parental control non funziona?
Non ha mai funzionato e non funzionerà mai. Solo per bambini piccolissimi con genitori molto skillati e preparati. Dobbiamo trovare dei sistemi che siano by default, cioè dei sistemi che sono adatti ai bambini con impostazione predefinita. Ed è quello che gli australiani da sempre hanno sostenuto perché il problema è di avere prodotti che siano sicuri a prescindere, che siano già costruiti per essere sicuri per gli utenti e non inserire dentro dopo dei controlli successivi. Questo è l’elemento che dobbiamo riuscire a raggiungere.
È un tema che riguarda tutti, anche in Africa o in Sud America, i bambini che usano strumenti digitali sono sempre di più. Dove ci sono una scuola, degli educatori, ci sono controllo e attenzioni, ma dove c’è grande povertà, tutto diventa di enorme rischio. C’è il mercato dello stream di materiale cronografico prodotto su bambini in situazioni di disagio che è in aumento in tutti i Paesi del Sud America, con dei fatturati enormi. I ragazzi oggi nel digitale ci nascono e ci vivono, dobbiamo considerare che, prima con il nostro aiuto, ma poi da soli, devono saper scegliere le soluzioni di tutela che possono servire per loro.
Qua in Italia e in Europa, un percorso verso una legge simile a quella australiana lo vedrebbe percorribile?
Le leggi che vogliono essere efficaci devono essere leggi che, oggi, affrontano tematiche globali. Non si può pensare che Meta o TikTok facciano una scelta italiana rispetto a una francese, le scelte devono essere globali. L’Europa sta andando in questa direzione con le normative, dobbiamo riuscire a concentrare la nostra grande attenzione su scelte globali perché tutto il mondo va in una direzione che è sempre più comune. Le tutele devono essere le stesse per i bambini di tutto il mondo, tutelando quelli più fragili. Io credo che questo è il momento di alzare il livello del confronto. È una cosa che mi ha sempre appassionato: far sì che la consapevolezza da parte dell’istituzione divenga centrale per una generazione.
Anche il nostro mondo associativo è partito in ritardo su questo tema. Il digitale, per me, è una sfida in cui dobbiamo essere attori e anche studiosi, in qualche modo, di quelli che possono essere i possibili cambiamenti. Ma non ci sono soluzioni magiche perché le tecnologie cambiano ogni giorno. Le aziende, le app, i device cambiano costantemente. Tutto questo richiede un’enorme attenzione a far sì che i bambini siano, by default, tutelati. Questo deve essere un impegno di tutte le aziende. Bisogna fare in modo che, se non c’è una verificabilità di accesso alle piattaforme, quelle non possono essere autorizzate. E questo deve essere chiaro in tutto il mondo. Oltre a una visione globale e ad aggiornamenti costanti, occorrono finanziamenti. Come si fa a controllare la rete senza avere finanziamenti da parte delle diverse istituzioni? Se ci sono delle soluzioni normative, ci devono essere anche dei mezzi per poterle realizzare.
Nella foto di apertura (di AP/Photo/Sakchai Lalit/LaPresse) il Primo ministro australiano Anthony Albanese
Cosa fa VITA?
Da 30 anni VITA è la testata di riferimento dell’innovazione sociale, dell’attivismo civico e del Terzo settore. Siamo un’impresa sociale senza scopo di lucro: raccontiamo storie, promuoviamo campagne, interpelliamo le imprese, la politica e le istituzioni per promuovere i valori dell’interesse generale e del bene comune. Se riusciamo a farlo è grazie a chi decide di sostenerci.