Social & Adolescenti
Instagram alla sbarra, Caffo: «Le piattaforme marciano sulla vulnerabilità dei ragazzi»
In California è in corso un processo storico, per valutare i danni sulla salute mentale dei giovani e sulla creazione deliberata di dipendenza da parte di piattaforme social come Facebook e Instagram. Ieri a testimoniare è stato chiamato Mark Zuckerberg. La riflessione di Ernesto Caffo, fondatore di Telefono Azzurro: «Le aziende hanno una responsabilità, comunque vada il processo. Il profitto non può venire prima della salute mentale delle persone»
Costruire un ecosistema digitale che parta dalla persona e non dal profitto, coinvolgendo nella sua ideazione e governance istituzioni nazionali, sovranazionali e, soprattutto, le aziende che dominano il mercato. È la ricetta – che suona utopistica perché presuppone lo snaturamento di aziende votate per definizione al profitto – di Ernesto Caffo, psichiatra e fondatore e presidente di Fondazione S.O.S. il Telefono Azzurro, per tutelare la salute di bambini e adolescenti (ma anche degli adulti) alle prese con social network e intelligenza artificiale.
È uno dei grandi temi del nostro tempo, tornato sotto i riflettori con la testimonianza di Mark Zuckerberg, ceo di Meta, davanti a una giuria del tribunale superiore della Contea di Los Angeles nel processo civile che vede imputate Meta (per l’attività di Facebook e Instagram) e Google (per YouTube) con l’accusa di adottare consapevolmente meccanismi che creano dipendenza e esponendo gli utenti al rischio di ansia, depressione, atti di autolesionismo e pensieri suicidi. Nel processo, iniziato a gennaio, erano coinvolte anche Snapchat e TikTok, che però hanno raggiunto un accordo separato.
Professore, cosa ne pensa del processo in corso?
Al di là dell’esito, il processo pone il tema della responsabilità delle aziende. Le piattaforme social sono pensate per massimizzare il tempo di permanenza e l’engagement grazie a un design pervasivo composto da notifiche continue, scrolling, rinforzo intermittente. Vogliono tutelare il profitto, non lo sviluppo neuropsicologico degli utenti.
Non è una concezione da “Stato etico” voler imporre che le aziende si facciano carico di questo compito?
Io credo che sia fondamentale che le aziende che sviluppano queste piattaforme tutelino la salute mentale degli utenti. La persona deve essere al centro del prodotto che le viene venduto. Non dimentichiamo che questi prodotti sono gratuiti solo in apparenza, ma producono profitto vendendo i dati che cediamo loro. In ogni caso, divieti e limitazioni non permettono di sviluppare gli anticorpi necessari, quindi da soli non bastano.

Alcuni Paesi, come Australia, Regno Unito, Francia, stanno introducendo (o hanno intenzione di farlo) limitazioni più o meno stringenti, per esempio l’inserimento di un limite di età fissato a 16 anni. È la strada giusta?
I divieti nazionali sono facilmente aggirabili e quindi scarsamente efficaci. Servono, piuttosto, delle regole internazionali che coinvolgano attivamente le piattaforme. Tra di loro già collaborano, si pensi alla facilità con cui da Instagram si può passare su Onlyfans: ecco, serve che questa collaborazione non sia finalizzata a eludere le capacità degli utenti di governare la propria fruizione della piattaforma.
Più che pensare a limitazioni e ban per le piattaforme, non bisognerebbe puntare sull’educazione all’utilizzo di questi strumenti?
Educazione e regolamentazione non sono alternativi, ma complementari, anche perché gli algoritmi sono abili e potenti nel superare le barriere educative di base. I ragazzi devono essere in grado di governare il mondo digitale, anche in assenza di genitori. Sia perché usano i social e l’intelligenza artificiale lontano da loro, sia perché il digitale corre veloce e spesso le generazioni più vecchie faticano a stare al passo con la stessa rapidità dei figli.
In questo, un grande compito spetta alla scuola.
Certamente, bisogna portare in classe maggiore consapevolezza su capacità, potenzialità e rischi di questi strumenti. Non si possono demonizzare, ma va spiegata l’esistenza degli algoritmi e dei meccanismi potenzialmente manipolativi che attuano.
Passiamo all’intelligenza artificiale. Sempre più ragazzi la usano per confidarsi: supporto psicologico, consigli relazionali. ChatGpt ha lanciato il suo strumento “Esperto in consulenza e supporto”. Quali sono i rischi?
Questi strumenti stanno diventando sempre di più strumenti simili a device medici. ChatGpt ha capito prima di altri le potenzialità di questo servizio. Funziona perché un modello facile da comprendere, facile da usare, praticamente gratuito, che non ti giudica e che è disponibile 24 ore su 24. Un utente ha la sensazione di avere qualcuno a portata di mano che può governare come e quando vuole, ma il rischio è che diventi un sostituto di relazioni autentiche. In più, non ti permette di capire il livello di difficoltà profonda in cui potenzialmente ti trovi perché tende a validare quello che dici, anche le affermazioni negative, e quindi non intercetta il rischio di suicidio. Così, ti isola ancora di più. Al contrario, parlare con un amico o comunque un essere umano è diverso, perché lo guardi negli occhi, ti tocca, analizzi le sue espressioni e, soprattutto, magari ti dice che stai andando sulla strada sbagliata.
Quindi, che fare?
Il tema non è dire sì o no a social network e intelligenza artificiale, ma dire il “come”. Serve una governance comune che parta dalla persona e non dal profitto.
Le aziende non hanno alcun tipo di obbligo morale. Non rimane che augurarsi una loro “buona azione”.
Occorre che le aziende riflettano sull’impatto del proprio business. La tecnologia non può marciare sulla ricerca della vulnerabilità, come sta facendo ora. Se si gioca sull’identità fisica e la dimensione estetica, si rischia di trascinare i ragazzi in dimensioni improprie per loro. Pensiamo alla funzione di Grok [l’assistente di intelligenza artificiale generativa di X, ndr] che permette di “svestire” il soggetto di una foto: per una vittima inconsapevole di questo meccanismo, può essere un dramma vedere la foto modificata.
In apertura, il 18 febbraio il ceo di Meta Mark Zuckerberg lascia l’aula dopo aver testimoniato in un processo storico volto a stabilire se le piattaforme di social media creino deliberatamente dipendenza e danneggino i bambini, a Los Angeles (AP Photo/Damian Dovarganes/LaPresse)
Vuoi fare un regalo?
Abbiamo creato apposta le gift card! Regala l’abbonamento a VITA, regala 1 anno di contenuti e informazione. Scegli il tipo di abbonamento, ottieni il codice e giralo a una persona a cui tieni.