Sezioni

Attivismo civico & Terzo settore Cooperazione & Relazioni internazionali Economia & Impresa sociale  Education & Scuola Famiglia & Minori Leggi & Norme Media, Arte, Cultura Politica & Istituzioni Sanità & Ricerca Solidarietà & Volontariato Sostenibilità sociale e ambientale Welfare & Lavoro

Safer Internet Day 2024

Per i ragazzi l’Ai è utile ma sanno che non è sicura

Per il 31% dei ragazzi tra i maggiori rischi dell’intelligenza artificiale c'è il furto d’identità. Il 28% si preoccupa per la privacy. È quanto emerge da un'analisi di Telefono Azzurro e Bva-Doxa

di Alessio Nisi

Conoscono l’intelligenza artificiale, bene ma non benissimo, quanto basta però per averne un’opinione positiva e consigliarne l’uso ad amici e parenti.  La ritengono utile, anche come strumento di distrazione e di supporto psicologico. Ma ne conoscono i rischi. Sanno che dietro l’utilizzo di questa tecnologia ci sono in agguato furti d’identità, violazioni della privacy. Sanno che in ballo c’è la loro reputazione. Il timore? Entrare in contatto con con contenuti inappropriati e non adeguati alla loro età e di finire vittima  dei deepfake, soprattutto quando ci sono di mezzo immagini pedopornografiche. È questa la sintesi di Intelligenza Artificiale, ricerca promossa da Telefono Azzurro e Bva-Doxa e presentata oggi al Politecnico di Milano nel corso di Ci arriva anche un bambino, evento promosso da Telefono Azzurro in occasione del Safer Internet Day 2024.

I ragazzi conoscono l’intelligenza artificiale

Nello studio, che ha coinvolto 806 ragazzi tra i 12 e i 18 anni, risulta che tra i ragazzi la percezione di conoscere come funziona l’intelligenza artificiale è elevata. Il 94% ne ha infatti sentito parlare e ne conosce la definizione, mentre il 9% ritiene di possedere una conoscenza molto buona. Per 6 ragazzi su 10 è positiva l’opinione su questo strumento, tanto da sentirsi pronti a consigliarne l’utilizzo ad amici e parenti (46%). Per il 13% dei ragazzi l’intelligenza artificiale è anche utile a distrarsi dai problemi della vita quotidiana e a ricevere supporto nell’affrontare difficoltà emotive e psicologiche. 

Privacy nel mirino. I ragazzi si trovano ad essere sempre più fruitori e consumatori di servizi internet e questo permette a chi li fornisce di raccogliere dati di ogni genere. Ed è proprio questo, come evidenzia l’indagine, a preoccupare di più i giovani. Il 31% degli intervistati vede tra i maggiori rischi dell’intelligenza artificiale un possibile furto d’identità, il 28% si preoccupa per la privacy e per la scarsa sicurezza dei propri dati personali.

Deep fake e pedopornografia. Come altri elementi di rischio gli intervistati hanno evidenziato una scarsa protezione da situazioni dannose e violente: per il 21% vi è il timore che le immagini da parte dell’intelligenza artificiale possano danneggiare la propria reputazione e quella altrui. Il 20% degli intervistati teme di entrare in contatto con contenuti inappropriati e non adeguati alla propria età, e il 10% esprime la propria preoccupazione per la creazione di immagini pedopornografiche. 

L’intelligenza artificiale e il materiale autogenerato

Questa preoccupazione è testimoniata anche dai dati diffusi dall’Internet watch foundation che ha dichiarato di aver scoperto materiale pedopornografico autogenerato con bambini sotto i 10 anni presente su oltre 100mila pagine web nell’ultimo anno. Una cifra che rappresenta un aumento del 66% rispetto all’anno precedente.

Telefono Azzurro
Ernesto Caffo, fondatore e presidente di Telefono Azzurro

«Tutte le aziende tecnologiche devono fare la loro parte per rendere la rete più sicura adottando misure in grado di proteggere i ragazzi da questo tipo di rischi», spiega Ernesto Caffo, presidente di Telefono Azzurro. «La crittografia end-to-end», precisa, «introdotta in molte piattaforme di messaggistica istantanea, aumenta la sicurezza e la privacy di tutti gli utenti, ma accresce il rischio che si utilizzino messaggi criptati per eludere i controlli e diffondere immagini a carattere sessuale di bambini e adolescenti».

Web, una rete mondiale per proteggere i bambini

«Vi è la necessità», sottolinea Caffo, «di creare una rete nazionale e internazionale efficace tra istituzioni, poli di ricerca, aziende e società civile per studiare al meglio le conseguenze che le nuove tecnologie hanno sugli adolescenti e gettare le basi per azioni ad alto impatto capaci di agire su più livelli per proteggere i bambini dai rischi del web».

I chatbot

L’indagine ha approfondito anche l’uso da parte dei ragazzi di chatbot come strumenti sempre più usati per trovare soluzioni ai propri problemi personali. Dall’indagine emerge come Chatgpt sia un sistema conosciuto da 8 ragazzi su 10. Tra questi il 6% ha riferito di utilizzarlo tutti i giorni e il 40% più volte a settimana. Tra gli utilizzatori il 54% ritiene che il principale aspetto positivo sia la facilità d’uso che lo rende un sistema accessibile a tutti e la possibilità di essere utilizzato per diverse attività. Il 18% dei ragazzi ritiene che Chatgpt possa anche stimolare nuove idee e la fantasia. Tra gli aspetti negativi, invece, i minorenni sottolineano la difficoltà nel garantire una fonte attendibile (34%) e la possibilità che l’utilizzo renda più pigri (51%).

«I chatbot che utilizzano l’intelligenza artificiale», dice a proposito sempre Caffo, «sono soluzioni che a nostro avviso meritano di essere ulteriormente sviluppate perché rappresentano un potenziale nostro alleato nella prima fase di ascolto dei ragazzi che si trovano a vivere situazioni di malessere fisico e psicologico». 

L’importanza dell’Ai act

Per Caffo, «a livello europeo l’Ai act, la prima legge al mondo che affronta in maniera complessiva lo sviluppo di questa tecnologia, è un’occasione da non perdere per definire i confini normativi e catalogare i rischi di una delle rivoluzioni tecnologiche più pervasive di sempre».

Sistemi leggibile. La bozza di testo regola anche i sistemi di intelligenza artificiale definiti “di uso generale” come Cpt-4 alla base di Chatgpt. «Gli sviluppatori, ad esempio, dovranno assicurarsi che i contenuti creati in questa modalità siano marcati da un sistema leggibile ed essere riconosciuti dall’utente finale come generati da un’intelligenza artificiale. In altre parole, ogni utente dovrà essere in grado di capire se sta interagendo con un chatbot o meno».

L’Osservatorio Digital & Kids

Nel corso di Ci arriva anche un bambino è stato presentato anche l’osservatorio digital & kids, promosso da Telefono Azzurro in partnership con il Politecnico di Milano. L’osservatorio nasce con l’obiettivo di sviluppare e diffondere conoscenza in merito agli scenari di utilizzo del digitale da parte di bambini e adolescenti e alla modalità con cui sfruttare il digitale per prevenire e gestire i rischi connessi al web. Il tutto attraverso ricerche basate su evidenze empiriche e spazi di confronto indipendenti che daranno la possibilità di divulgare e sensibilizzare l’opinione pubblica sulle opportunità e sui rischi del digitale per i minori, e di creare occasioni di networking tra istituzioni e addetti ai lavori attraverso tavoli di confronto sul tema.

Digitale sicuro

«Grazie alla nascita di questo Osservatorio», sottolinea il presidente di Telefono Azzurro, «sarà possibile analizzare e prevenire i rischi connessi al digitale. Occorre garantire che i più giovani possano sfruttare tutte le opportunità che la dimensione digitale offre, senza esporsi a rischi e crescendo in un ambiente digitale sicuro e rispettoso dei loro diritti, come sanciti dalla Convenzione Onu sui Diritti dell’Infanzia».

Educazione al digitale. Quattro i filoni di ricerca che saranno sviluppati nel corso del primo anno di attività: educazione al digitale, intelligenza artificiale, scuola digitale e regolamentazione.

In apertura foto di Creative Christians per Unsplash


Qualsiasi donazione, piccola o grande, è
fondamentale per supportare il lavoro di VITA