Adolescenti ma non solo

Ai, è arrivato il tempo dell'”I Care”

di Giampaolo Cerri

Le due giornate di Telefono Azzurro, fra Milano e Roma, in occasione del Safer Internet Day, e dedicate alla sicurezza dei giovanissimi, si trasformano in una grande riflessione sull'Intelligenza artificiale e sull'urgenza del fatto che politica, istituzioni, aziende digitali e società civile, se ne occupino

Il Safer Internet Day, visto dopo le due giornate di Telefono Azzurro centrate sull’Intelligenza artificiale, ha un altro sapore.

Si celebra dal 2004, la Giornata per la Rete più sicura, voluta dalla Commmissione europea ma prima, come la miriade di appuntamenti annuali che scandiscono il nostro tempo pubblico e giornalistico, quella la lunga, quotidiana, giaculatoria delle buone cause, era giusto una data per fare un pensiero positivo, una rapida riflessione su un problema e sulle sue soluzioni. E poi, avanti, si voltava pagina.

Oggi, scrivendone sballottato da un treno ad alta velocità fra Roma e Milano, realizzo la drammatica importanza delle cose ascoltate fra l’aula AS01 della Bocconi e la Sala Angiolillo di Palazzo Wedekind, nell’Urbe, fra ricerca e ricercatori, da un lato, e istituzioni, autorità garanti, politica, dall’altro. Da questo apparente contrasto, complici i neon e gli arredi funzionali del building meneghino contro i pavimenti di legno e gli stucchi del palazzo capitolino, emerge infatti un dato univoco: che siamo già in ritardo.

Il Safer Internet Day di Telefono Azzurro alla Bocconi

Alla velocità del machine learning

L’algoritmo dell’Ai generativa corre veloce, il machine learning lo addestra lesto, i chatbot ci rispondono sempre più suadenti e tutti ormai ci siamo dentro fino al collo. Quello che però dovrebbe farci ragionare sul tempo perso e su quello che inevitabilmente perderemo, è che dentro ci sono soprattutto i nostri figli.

Attenzione, questa non vuol essere la solita fatwa contro il nuovo, la consunta nenia dei malatempora, ché, come scrisse una volta Charles Peguy, «c’era la cattiveria anche al tempo dei Romani». La questione è che i nostri figli, prima di noi – ma quanti adulti sono fragili come bambini ?- hanno diritto a vivere il mondo digitale in cui siamo immersi – appena in tempo a conoscerne i nomi e i termini che ora è tutto un prompt – hanno diritto a usarne le potenzialità, enormi, per vivere in una società migliore, senza viceversa subirne i rischi, i pericoli, le minacce.

Telefono Azzurro, infatti, «richiama l’urgenza di una responsabilità etica rafforzata nell’adozione e nello sviluppo dei sistemi di Intelligenza artificiale, affinché la tutela dei più piccoli non sia limitata a misure difensive o regolatorie, ma diventi un principio guida della progettazione tecnologica».

Sotto il titolo Crescere con l’Intelligenza artificiale: scelte consapevoli in un mondo connesso, la storica organizzazione per la tutela di bambini e adolescenti ha offerto, alla sua maniera, un dibatto costruttivo e fatto emergere, ci tengono a sottolineare dalla Fondazione, «la necessità di rafforzare le misure legislative per il loro ascolto e la loro protezione online».

Ernesto Caffo, instancabile facilitatore

Ernesto Caffo è il neuropsichiatra infantile che, un giorno di 38 anni fa, fondando Telefono Azzurro, dette seguito a un’intuizione: che sulla tutela dei bambini bisognasse mobilitare le energie migliori del Paese ma, soprattutto, che la parola infanzia stessa dovesse entrare stabilmente nel discorso pubblico.

Oggi questo distinto signore dall’eloquio garbato guida la riflessione intorno all’Ai e pazientemente cuce il lavoro che è necessario per inserirla nell’agenda della politica e delle istituzioni.

Ernesto Caffo, fondatore di Telefono Azzurro nell’incontro della Bocconi

In queste due giornate, una piena di ricercatori, clinici, studiosi, a Milano, un’altra, romana, con un andirivieni di politici dei due schieramenti, persone del Governo e delle autorità di garanzia, in queste due giornate, dicevo, è stato lui, Caffo, il pacato regista, l’instancabile facilitatore, il paziente ascoltatore.

«Non basta limitare l’accesso o introdurre vincoli tecnici ai dispositivi digitali», spiega a VITA, «è fondamentale ripensare radicalmente il modo in cui l’Ai viene progettata, implementata e governata, mettendo al centro la dignità, il benessere e la salute mentale di bambini e adolescenti. Telefono Azzurro invita tutte le istituzioni, le aziende e la società civile a governare in maniera responsabile questo rapporto, senza imporre divieti, ma guidando l’uso dello strumento. Solo un approccio collettivo e attento alla salute mentale può garantire che l’IA diventi davvero uno strumento a misura di ragazzo».

Il dialogo con le piattaforme

Ora, quando enumera le diverse categorie, Caffo non dice per dire: le aziende, quelle digitali, le piattaforme, lo ascoltano, lo chiamano; le istituzioni lo sollecitano, lo interpellano; la politica gli concede udienza e non lo fa per posa: gli uni, gli altri, gli altri ancora sanno che il lavoro di Telefono Azzurro non ha la stagionalità delle mode ma semmai anticipa i temi: dagli anni in cui rifletteva sulla tv sul suo potere pervasivo (ricordate la Carta di Treviso?), è arrivato da anni al digitale, per poi accelerare sull’Ai.

Niente invettive, niente stracciamento di vesti, niente advocacy strillata in favore di lancio di agenzia, ma tanto lavoro quotidiano, anche necessariamente lobbistico, defatingante quanto basta e, a volte, poco o punto redditizio sotto il profilo dell’immagine. E ragionare sui fatti. Telefono Azzurro coinvolge Doxa da anni, e fotografa la realtà: l’istituto del gruppo Bve spiega che l’Intelligenza artificiale viene percepita dai giovani in modo ambivalente2 ragazzi su 3 la considerano allo stesso tempo un’opportunità e un rischio. «una consapevolezza che riflette un approccio tutt’altro che superficiale alle nuove tecnologie, ma che mette in luce anche preoccupazioni diffuse e concrete», osservano i ricercatori.

Da sinistra, Giampaolo Cerri, Gianna Martinengo (Woman&Tech), Nicoletta Corrocher (Bocconi)
e Luigi Onorato (Deloitte)

Ai & ragazzi: quali timori

Tra i principali rischi segnalati, il 41% dei ragazzi teme una riduzione della creatività, mentre il 40% esprime forte preoccupazione per la diffusione di deepfake e immagini false. Seguono il timore legato alla circolazione di notizie false (39%), la possibilità di sviluppare forme di dipendenza (28%), l’esposizione a contenuti non adeguati all’età (24%), la perdita di privacy (22%) e l’utilizzo dei dati personali per finalità commerciali (17%).

Particolarmente allarmante è il dato secondo cui un ragazzo su quattro teme che qualcuno possa creare contenuti falsi su di lui. Di fronte a questa eventualità, quasi la metà degli intervistati (49%) dichiara che si sentirebbe molto preoccupato, mentre il 39% si dice profondamente infastidito. Solo una minoranza reagirebbe minimizzando l’accaduto: il 5% lo considererebbe uno scherzo, mentre il 7% ammette di non sapere come reagire.

Non solo demoscopia: a Roma, nelle due domande che una scolaresca di ragazzini delle medie – la III C dell’Istituto comprensivo Micheli – ha consegnato agli esperti, si parlava proprio del tema dei deepfake e di come poterli riconoscere ma, nel contempo, si chiedevano lumi sul ruolo che ha ma soprattutto potrebbe avere l’Ai nello sviluppo della scienza.

La foto italiana compatibile con quella americana

D’altra parte la fotografia scattata dall’indagine, osservano da Telefono Azzurro, «trova conferma dai dati internazionali più recenti che mettono in luce anche un crescente utilizzo degli strumenti e app che usano l’Ai. Negli Stati Uniti, l’indagine Teens & AI Companions di Common Sense Media (2025) evidenzia come il 72% degli adolescenti tra i 13 e i 17 anni abbia utilizzato un AI companion almeno una volta, il 52% in modo regolare e il 13% quotidianamente. Un terzo dichiara di usarli per interazioni sociali o emotive, mentre il 24% ha condiviso dati personali con il sistema e il 34% ha vissuto episodi di disagio».

Dati che dicono come non sia più tempo di lasciar fare.

C’è la via dei divieti e del controllo, come quella australiana, spiegata in collegamento da Inman Grant, la commissaria all’eSafety che ha illustrato l’approccio adottato da quel Paese negli ultimi 10 anni, fondato su tre pilastri operativi: prevenzione attraverso l’educazione digitale, protezione tramite sistemi di segnalazione e rimozione dei contenuti illegali e un intervento sistemico, «che oggi trova piena espressione in un quadro normativo allineato al Digital Services Act europeo», osservano a Telefono Azzurro.

La via australiana. Dei divieti

«Questo terzo pilastro mancava nel nostro sistema legislativo», ha spiegato Grant, «ed è qui che entra in gioco il cambiamento proattivo: la tecnologia corre sempre più veloce delle politiche e noi non possiamo permetterci di restare indietro come regolatori. Per questo abbiamo avviato il programma di future casting nel 2017 e lanciato l’iniziativa Safety by Design nel 2018, che riporta la responsabilità sulle piattaforme stesse: valutare rischi e danni fin dall’inizio, integrando misure di sicurezza sin dalla fase di progettazione, invece di intervenire dopo che il danno è già stato fatto. È importante notare che, la scorsa settimana, eSafety ha pubblicato un rapporto sulla trasparenza che indica come otto delle più grandi aziende tecnologiche del mondo non stessero facendo abbastanza per prevenire gravi reati contro i minori, come adescamento, abuso sessuale ed estorsione sessuale, sulle loro piattaforme. Questa», ha concluso la commissaria, «non è una questione di capacità tecnica, ma di volontà aziendale».

Un momento della Safer di Roma

La via italiana del «Governiamola insieme»

E l’Italia? Sostiene Maria Teresa Bellucci, viceministra del Lavoro con delega al Terzo setore, intervenuta stamane, che «il Governo ha una visione del tutto chiara su questo e della priorità che rappresenta. Il presidente del Consiglio ha ribadito più volte come l’Intelligenza artificiale sia per l’uomo e non l’uomo per l’Ai. La tecnologia deve essere governata, orientata, resa sicura, trasparente e accessibile. La legge italiana sull’AI che ne regolamenta lo sviluppo e la governance è in coerenza con il quadro Europeo, una legge fondata su principi di uso responsabile, trasparente e con attenzione alla cybersicurezza, all’accessibilità e alla protezione delle persone più vulnerabili, come quelle di minore età».

Secondo Bellucci, «abbiamo bisogno di un’alleanza per governarla (l’Ai, ndr) perché le istituzioni non bastano a se stesse. Alleanze con realtà come Telefono Azzurro sono fondamentali. È esattamente lo spirito con cui il governo sta lavorando con Telefono Azzurro. Penso», ha aggiunto, «al protocollo d’intesa con il ministero dell’Istruzione, con il ministero della Difesa e all’impegno del ministero del Lavoro e delle Politiche sociali che ha stanziato 2,5 milioni per sostenere interventi nei confronti di realtà di Terzo settore per promuovere una governance caratterizzata da prevenzione, educazione e accompagnamento sia degli adulti sia dei più piccoli in quella che è un’educazione all’Ai».

A Bellucci scappa la frizione retorica – «faccio un appello ai giovani che sono i reali protagonisti. Usate la tecnologia, ma non lasciate che essa usi voi. Fate domande, dubitate verificate le fonti, parlate con gli adulti quando qualcosa vi mette a disagio» – ma ha ragioni di vedere quando fa un appello anche agli adulti: «Non delegate l’educazione a un divieto ma formatevi, ascoltate e dedicate tempo alla relazione con i più piccoli e giovani».

Maria Teresa Bellucci

L’Ai per più piccoli è affare dei più grandi

Come era emerso anche nell’aula bocconiana ieri, la questione dei diritti dei più piccoli, a un ecosistema digitale che offra opportunità e non si trasformi in una jungla di rischi, interpella infatti e drammaticamente gli adulti, soprattutto se genitori, gli adulti che fanno scuola, gli adulti che fanno politica, gli adulti che lavorano nelle istituzioni.

Dietro questo acronimo minuscolo, Ai, c’è d’altra parte una rivoluzione paragonabile a quella industriale, ma senza il nerofumo delle fornaci, i bollori delle siderurgie, i rumori delle manifatture insalubri e assordanti. Qui c’è un assistente servizievole, che ci dà sempre ragione, suadente se lo consultate a voce e, comodamente posizionato in un’app dentro uno smartphone, non ci abbandona mai.

Trasformazioni che corrono veloci e di cui non abbiamo ancora capito l’invasiva portata. Per esempio di come una certa dipendenza digitale delle madri possa nuocere ai figli ancora molto piccoli.

L’allarme: il tempo tolto alla fase dell’accudimento

A Milano, ne aveva parlato lo psichiatra Claudio Mencacci, primario al Sacco, clinico di lungo corso, richiamando l’attenzione dell’uditorio su un dettaglio: quando ad abusare della fruizione digitale sono le madri dei bambini 0-5 anni, il tempo assorbito dai device (27%, della giornata, dice uno studio) risulta inevitabilmente, drammaticamente sottratto, al rapporto coi figli, in una fase delicatissima, in quanto evolutiva, della crescita. E l’avvento massimo dell’Ai fa semmai pensare a un aumento di quel tempo. «In qualle diade, entra il terzo incomodo», diceva lo psichiatra, «e non è il padre, ma lo smartphone». Mancacci parlava di inevitabili ricadute sulla salute mentale di quei bambini («discontrollo emozionale», aveva spiegato il professore) e dell’urgenza di educare i genitori.

Lo psichiatra Claudio Mencacci

Capite perché l’appello di Telefono Azzurro a non scegliere la poco efficace scorciatoia dei divieti, reclamando un approccio collettivo – istituzioni, aziende, società civile, politica – al tema?

Capite perché l’Ai ci riguarda? Capite perché “donmilaniamente” si dovrebbe dire: Ai, I care?

Rivedi i lavori di Milano (qui), rivedi i lavori di Roma (qui).

La foto di apertura è di Neeqolah Creative Works su Unsplash

Vuoi fare un regalo?

Abbiamo creato apposta le gift card! Regala l’abbonamento a VITA, regala 1 anno di contenuti e informazione. Scegli il tipo di abbonamento, ottieni il codice e giralo a una persona a cui tieni.