Idee Nuovi media
Intelligenza artificiale e Terzo settore: non ripetiamo gli stessi errori fatti coi social network
«L’efficienza della nostra singola organizzazione, per quanto ci appaia fondamentale, è del tutto irrilevante di fronte alle enormi sfide che ci attendono. Come nessuna ong è riuscita a controbilanciare da sola l’aggressività del settore privato tecnologico nell’epoca dello sviluppo dei social network; così non riuscirà oggi ad affrontare i rischi generati dall’IA». L'intervento del direttore "Programmi" di Fondazione Soleterre

Nel 2012, lavorando con Save the Children, ho coordinato un network europeo per la promozione dei diritti dei minori online in unità pioneristica dedicata ai nuovi media. Da allora, sono seguiti molti interventi simili da parte di tante organizzazioni, ma è mancata un’azione sistemica ed efficace che controllasse e indirizzasse la trasformazione digitale.
Oggi, i social media polarizzano, creano dipendenza, diffondono xenofobia e, in alcuni casi, mettono sotto attacco la democrazia. Vogliamo ripetere lo stesso errore con l’intelligenza artificiale?
Il dibattito sull’intelligenza artificiale attraversa ogni settore della società contemporanea, generando entusiasmo e preoccupazione in egual misura. Nel contesto del terzo settore, questa tensione assume caratteristiche peculiari che meritano una riflessione approfondita. Mentre l’attenzione si concentra spesso sui benefici operativi immediati, emerge la necessità di una prospettiva più ampia che consideri le implicazioni sistemiche ed etiche di questa trasformazione tecnologica.
L’intelligenza artificiale è un’infrastruttura cognitiva che ridefinisce potere, conoscenza e controllo. L’IA può facilitare enormemente il lavoro di progettazione (ne ho parlato qui), selezione dei grantees, analisi dei dati, gestione dei database di donatori, creazione di contenuti per la comunicazione.
Ma è qui che inizia il vero dibattito: l’adozione dell’IA nel Terzo settore può limitarsi a una questione di efficienza operativa? L’efficienza della nostra singola organizzazione, per quanto ci appaia fondamentale, è del tutto irrilevante di fronte alle enormi sfide che ci attendono. Come nessuna ong è riuscita a controbilanciare da sola l’aggressività del settore privato tecnologico nell’epoca dello sviluppo dei social network; così non riuscirà oggi ad affrontare i rischi generati dall’IA.
I rischi che non possiamo ignorare
Non è semplice definire una lista esaustiva, ma proviamo a individuare i rischi più evidenti.
- Armi intelligenti
Le aziende di Silicon Valley, inclusa OpenAI, si stanno avvicinando all’industria della difesa per recuperare le centinaia di miliardi spesi nello sviluppo IA, come documentato da Karen Hao nel suo libro “Empire of AI” (2025).
L’analisi delle connessioni finanziarie e strategiche nell’ecosistema dell’IA rivela questioni etiche complesse che non possono essere ignorate. Peter Thiel è uno dei primi investitori di OpenAI ma anche il presidente di Palantir, azienda molto influente nell’amministrazione Trump che fornisce sistemi di sicurezza e sorveglianza controversi, anche per Israele. E non sono da meno le accuse di collaborazione con Israele verso Google, Meta e Microsoft emerse sia dal report di Francesca Albanese che dalle inchieste del Guardian.
- Sfruttamento del lavoro e nuovo colonialismo
Le implicazioni nell’industria militare non sono certamente le uniche. Si parla molto dell’impatto dell’IA sui posti di lavoro in Europa e negli Stati Uniti, spesso con toni apocalittici che nascondono precise strategie di marketing. Si discute meno, invece, dello sfruttamento e delle nuove forme di colonialismo prodotte dall’IA nel Sud del mondo. Un’inchiesta del TIME sostiene che OpenAI ha pagato lavoratori kenioti meno di 2 dollari all’ora per etichettare contenuti violenti e sessisti in modo da filtrarli su ChatGPT. Questi lavoratori sono stati costretti a leggere fino a 250 passaggi al giorno contenenti abusi sessuali su minori, omicidi, suicidi e torture.
- Il divario digitale
La crescita delle disuguaglianze generata dalla corsa tecnologica è già visibile anche in Europa: i dati OCSE mostrano che solo il 13,5% delle aziende UE ha adottato sistemi IA. Nei Paesi europei meno avanzati il tasso di adozione è passato dal 2% al 4% tra il 2021 e il 2024, mentre in quelli più avanzati dal 16% al 28%. Le grandi imprese adottano l’IA tre volte più delle piccole.
L’effetto è un vantaggio esponenziale: chi adotta per primo accumula dati, migliora i sistemi e consolida il proprio potere. Senza strategie mirate, il divario digitale continuerà ad ampliarsi.
- L’impatto ambientale
Il Sud del mondo rischia di essere colpito non solo dallo sfruttamento sul piano lavorativo, ma anche da quello ambientale. Si stima che nei prossimi 5 anni, l’infrastruttura IA richiederà un aumento dell’energia globale pari a due-sei volte l’energia consumata annualmente dalla California, prevalentemente da combustibili fossili.
Inoltre, aumenterà il consumo di acqua dolce per il raffreddamento dei data center, di cui una buona parte è collocata in aree con scarsità d’acqua.
- I pregiudizi
Tema altrettanto critico è quello dei pregiudizi algoritmici che l’IA può perpetuare e amplificare. La ricerca pionieristica di Timnit Gebru, ex co-leader del team Ethical AI di Google, ha evidenziato come l’intelligenza artificiale amplifichi sistematicamente i pregiudizi esistenti nella società. Il suo celebre studio “Gender Shades“, condotto insieme a Joy Buolamwini del MIT, ha rivelato disparità allarmanti nei sistemi di riconoscimento facciale: i sistemi commerciali mostrano un tasso di errore del 34,7% nell’identificare donne dalla pelle scura, contro appena lo 0,8% per gli uomini dalla pelle chiara. La ricerca successiva di Gebru sui modelli linguistici di grandi dimensioni come ChatGPT – “On the Dangers of Stochastic Parrots” che le è costato il licenziamento da Google – ha mostrato che l’addestramento su enormi quantità di testi storici, porta a riprodurre automaticamente gli stereotipi del passato. Gli LLMs associano certe professioni a specifici generi, attribuiscono caratteristiche negative a determinati gruppi etnici, perpetuano pregiudizi su età, religione e orientamento sessuale.
- L’impatto sulle nuove generazioni
Come è avvenuto con i social media, i target più a rischio sono bambini e ragazzi, dato che l’IA replica meccanismi simili. I chatbot già registrano 86 minuti di utilizzo medio giornaliero – più di Instagram. Casi documentati mostrano chatbot che hanno suggerito autolesionismo o uso di droghe a giovani utenti vulnerabili e recentemente anche un caso di suicidio.
Nitasha Tiku, che ha affrontato la questione sul Washington Post, sostiene che ci stiamo concentrando molto sugli scenari fantascientifici di intelligenze senzienti, mentre ignoriamo i rischi reali che già stiamo vivendo quotidianamente.

Un appello all’azione
L’intelligenza artificiale rappresenta una straordinaria opportunità, ma i rischi sono altrettanto straordinari. Il monopolio di poche aziende statunitensi nella corsa all’innovazione tecnologica, con la spinta a “scalare a ogni costo”, rischia di lasciare spazio a un’adozione indiscriminata senza considerare le implicazioni etiche e sociali.
Le istituzioni e il Terzo settore, in particolare la filantropia, hanno un ruolo imprescindibile nell’affrontare questi rischi. Non basta concentrarsi sull’efficienza operativa, senza porsi interrogativi sui meccanismi di potere che questa tecnologia porta con sé. È ora di intraprendere un percorso di analisi critica, mettendo da parte la competizione individuale e adottando un approccio collaborativo e strategico.
Le azioni possibili sono diverse e facilmente identificabili:
- Promuovere alleanze civiche per l’uso responsabile dell’IA, sfruttando le reti esistenti come Assifero, Acri, il Forum del Terzo Settore o nuovi consorzi.
- Sviluppare applicazioni IA condivise, accessibili e non monopolistiche in collaborazione con il mondo dell’impresa vicino al terzo settore.
- Costruire basi dati comuni, che possano garantire una gestione etica e trasparente delle informazioni.
- Impegnarsi in attività di advocacy strutturate e di lungo periodo.
- Investire nella formazione, continua e reciproca, per garantire che le tecnologie vengano utilizzate con consapevolezza e responsabilità.
Il passaggio da un modello competitivo a uno collaborativo è la condizione per non subire questa trasformazione, ma guidarla. O costruiamo alleanze, regole e strumenti che mettano al centro le persone, oppure lasceremo che pochi attori globali decidano per tutti.
Come ha ricordato Yuval Noah Harari: «Dobbiamo costruire più fiducia tra gli esseri umani prima di sviluppare agenti IA veramente super-intelligenti».
Non è tempo di aspettare: le scelte che faremo ora determineranno se l’intelligenza artificiale sarà un nuovo strumento di disuguaglianza o un’opportunità per rafforzare diritti, democrazia e giustizia sociale.
Questo contributo è parte della riflessione del gruppo di lavoro FilantropIA lanciato da Tiziano Blasi, Federico Mento e Daniele Messina.
Foto di Igor Omilaev su Unsplash
Cosa fa VITA?
Da 30 anni VITA è la testata di riferimento dell’innovazione sociale, dell’attivismo civico e del Terzo settore. Siamo un’impresa sociale senza scopo di lucro: raccontiamo storie, promuoviamo campagne, interpelliamo le imprese, la politica e le istituzioni per promuovere i valori dell’interesse generale e del bene comune. Se riusciamo a farlo è grazie a chi decide di sostenerci.