Noi e l'Intelligenza artificiale
Nessuno mi capisce come Chat Gpt
Cresce il rapporto intimo che creiamo con i chatbot, assistenti virtuali non solo sempre più performanti ma anche sempre più empatici e affettivamente gratificanti. Fra i 13-17enni che interagiscono con un chatbot, uno su sei lo fa perché non ha nessun altro con cui parlare. È questo che vogliamo?

Nessuno ti ascolta come Chat Gpt. Non solo, nessuno ti coccola, ti gratifica, ti dà conferme emotive come l’Ai. «Se immaginiamo un futuro in cui il nostro interlocutore principale è un compagno digitale perfetto, che ci capisce sempre, ci adula, non ci contraddice mai: che bisogno avremo di metterci in gioco, affrontare il rischio e l’imperfezione delle relazioni vere?», ha scritto nei giorni scorsi Cristina Pozzi, ceo di Edulia, un polo di formazione online nato nel 2021 con l’acquisizione, da parte dell’Istituto dell’Enciclopedia Italiana, di Impactscool, la startup che lei e avevano fondato nel 2016. Mentre tanti raccontano – i video con le “come risponderebbe mia moglie se fosse Chat Gpt” spopolano – il rapporto intimo che creiamo con le chatbot, Pozzi ci mette in guardia: «Più che platonico, questo amore rischia di diventare tossico: un legame che ci avvolge, ci manipola, ci rende dipendenti. Un’illusione su misura che erode lentamente la nostra capacità di stare in relazione con l’imprevisto, il reale. Il pericolo è che gli effetti tossici dei social si amplifichino: pretenderemo la stessa perfezione anche dagli altri esseri umani? Saremo sempre meno disposti a tollerare l’errore, la fragilità, il dubbio? Perché farlo, quando saremo abituati a essere sempre rassicurati, coccolati, capiti?».
I rischi della fidanzatina virtuale
La stessa cosa succede anche ai ragazzi. Telefono Azzurro quest’oggi lancia l’allarme dinanzi a Ani, il nuovo personaggio femminile digitale creato per Grok 4 che promette compagnia e ascolto e sta conquistando milioni di adolescenti in tutto il mondo. Voce dolce, volto rassicurante e disponibilità 24 ore su 24, Ani – la chatbot creata dalla società xAI di Elon Musk – è programmata può intrattenere anche dialoghi esplicitamente sessuali con gli utenti, a partire dai 12 anni. Gli esperti vedono una minaccia crescente.
Secondo le ultime ricerche (Common Sense Media e Internet Matters, 2025), l’84% dei ragazzi tra i 13 e i 17 anni ha già interagito con un chatbot AI. Per alcuni è un gioco, per altri un rifugio: 1 su 6 infatti lo fa perché non ha nessun altro con cui parlare. E qui sta il problema. «Questi sistemi creano un senso di intimità artificiale che può generare dipendenza emotiva e isolamento sociale» spiega Ernesto Caffo, presidente di Telefono Azzurro. «Il 40% dei ragazzi considera attendibili le risposte dei bot senza verificarle, e quasi 1 su 4 ha ricevuto contenuti rischiosi o inappropriati».

Con Ani, che usa voce e video, l’effetto è ancora più forte. Nonostante i filtri promessi, i precedenti dimostrano che i chatbot possono scivolare su temi sessualizzati o pericolosi. A mancare è soprattutto l’assenza di controlli seri: molti chatbot non applicano verifica dell’età o permettono di aggirarla facilmente tramite abbonamenti premium. Il 23% degli utenti minorenni ha ricevuto infatti da chatbot consigli su autolesionismo, sessualità o comportamenti pericolosi. «Serve un intervento urgente: regole chiare, filtri efficaci e programmi di educazione digitale», ribadisce Caffo. «Senza, rischiamo di consegnare ai nostri figli un’amicizia digitale che può ferirli profondamente».
Telefono Azzurro chiede alle istituzioni e alle aziende l’introduzione della verifica obbligatoria dell’età e filtri di sicurezza per tutti i chatbot avanzati, come richiesto dal Digital Services Act europeo. A tal proposito, l’Unione europea ha da poco presentato le tanto attese linee guida per garantire uno spazio online più sicuro per i bambini e le bambine e lanciato un prototipo di app per la verifica dell’età (leggi qui il commento di Ernesto Caffo).
Ma l’age verification non basta: Telefono Azzurro chiede standard “child-safe” nell’AI Act, con chatbot trasparenti, sistemi di alert e supervisione per minori; educazione digitale nelle scuole per ragazzi, genitori e insegnanti; responsabilità civile e sanzioni per le aziende che non rispettano norme di protezione dei minori.
L’Ai al posto della mamma
L’assistente virtuale non rischia di andare “a sostituire” solo i primi approcci con l’altro sesso o la fatica di costruirsi passo dopo passo delle amicizie, ma entra anche nella relazione tra genitori e figli. Pietro Compagnoni, psicologo, team leader linee di ascolto e emergenza Telefono Azzurro lo anticipava già nel numero di VITA titolato Perché non vogliamo figli: «Riflettendo sullo storytelling sulla genitorialità proprio dei nostri tempi, fra i tanti dialoghi che Telefono Azzurro ha con i ragazzi e le ragazze ce n’è uno che ci ha molto colpito. Per ora si tratta di un caso unico, per cui non possiamo dire che sia un trend: è una storia singola, che però ci fa pensare. La storia è quella di una ragazza la cui madre a un certo punto, per mille ragioni, ha smesso di darle attenzioni. Questa ragazza veniva sistematicamente ignorata dalla madre a livello relazionale e affettivo. Lei allora si è rivolta a Chat Gpt per sopperire alle mancanze della madre, costruendosi con l’intelligenza artificiale una “madre virtuale sufficientemente buona” con cui relazionarsi, che le dicesse “brava” e “ti voglio bene”. Al momento questo è solo un frammento di una storia, che però ci fa capire che tante cose sono cambiate nel modo in cui viviamo il nostro essere genitori e il nostro essere figli, ma tantissime altre potrebbero stare per cambiare ancora».
Cosa possono fare i genitori?
Ecco sette azioni chiave suggerite da Telefono Azzurro per educare i nostri figli all’utilizzo di un chatbot o di un’assistente virtuale.
1. Parlare apertamente con i figli. Spiegare cos’è un chatbot, come funziona e quali rischi può comportare. Ricordare che, anche se sembrano “amici”, sono programmi che imitano empatia, non persone reali.
2. Definire regole e limiti. Stabilire: tempi massimi di utilizzo (per esempio non oltre 30 minuti al giorno); fasce orarie senza tecnologia (pasti, prima di dormire); utilizzo solo in ambienti comuni (no chat in camera da letto, da soli, di notte).
3. Attivare parental control e monitoraggio. Utilizzare filtri e impostazioni di sicurezza su dispositivi e app; controllare periodicamente cronologia e conversazioni (concordandolo con i figli per non compromettere la fiducia).
4. Insegnare pensiero critico. Incoraggiare i ragazzi a verificare le informazioni ricevute, confrontarle con fonti affidabili e non prendere per oro colato ciò che dice un bot.
5. Riconoscere segnali di allarme. Prestare attenzione a: uso ossessivo o nascosto dei chatbot, calo nelle relazioni reali, cambiamenti emotivi (ansia, isolamento, irritabilità).
6. Favorire alternative sane. Proporre attività offline, momenti di condivisione in famiglia, sport, e opportunità di dialogo con persone reali (amici, educatori, counselor).
7. Usare strumenti “child-safe” e chiedere supporto. Preferire piattaforme certificate o progettate con standard di sicurezza (es. con filtri tematici e moderazione umana). In caso di dubbi, rivolgersi a linee di ascolto come il 1.96.96 di Telefono Azzurro.
Foto Unsplash
17 centesimi al giorno sono troppi?
Poco più di un euro a settimana, un caffè al bar o forse meno. 60 euro l’anno per tutti i contenuti di VITA, gli articoli online senza pubblicità, i magazine, le newsletter, i podcast, le infografiche e i libri digitali. Ma soprattutto per aiutarci a raccontare il sociale con sempre maggiore forza e incisività.