Cultura

A chi parla l’AI? La finta universalità di chi vede solo l’essere umano occidentale

I ricercatori di Harvard hanno messo sotto la lente i modelli linguistici più avanzati, scoprendo che riproducono i valori e il modo di pensare di una minoranza molto specifica dell’umanità: quella occidentale, istruita, benestante e democratica. In una parola, Weird. E tutti gli altri? Di quale essere umano parla un'intelligenza artificiale che pretende di essere neutra e universale ma che in realtà sta solo restituendo l’eco della nostra voce

di Fabio Ranfi

mani alzate

secondo uno studio di Harvard, l’intelligenza artificiale intende e capisce perfettamente l’essere umano occidentale, ma ha qualche problema se l’interlocutore è un umano di altre latitudini o culture.

Immagina questa scena: una persona apre il computer, entra su ChatGPT e scrive — quasi per gioco — “Descrivimi l’essere umano medio”. Dopo pochi secondi, il modello AI di OpenAI restituisce la risposta a suo parere perfetta: “L’essere umano medio è curioso, empatico, indipendente, ama la libertà e la giustizia, valorizza l’individualità e cerca un equilibrio tra lavoro e vita privata”.

Sembra tutto ragionevole. Ma se ci pensi, è un ritratto che potrebbe valere solo per una parte del pianeta. Chi vive in una comunità dove l’identità è più collettiva che individuale si potrebbe rispecchiare in questa descrizione? E chi cresce in contesti dove la libertà personale non è il valore principale, ma la coesione, la famiglia, la sopravvivenza? Per quelle persone, l’essere umano medio descritto dalla macchina è un estraneo.

Un semplice prompt, volutamente senza contesto, può essere il punto di partenza per scoprire “l’idea” che l’AI ha degli esseri umani. Questo scenario è proprio la base di uno studio pubblicato da un gruppo di ricercatori di Harvard, dal titolo esplicito: Which Humans?

La domanda non è retorica. Gli autori — Mohammad Atari, Mona J. Xue, Peter S. Park, Damián Blasi, Joseph Henrich — hanno provato a capire quale idea di “umano” apprendono i modelli di linguaggio come GPT. E la risposta è netta: l’umano è un umano occidentale. Più precisamente, quella che gli psicologi chiamano WEIRD: Western, Educated, Industrialized, Rich, Democratic.

Le AI non pensano “come gli esseri umani”, ma come una minoranza molto specifica di esseri umani: chi vive nei paesi ricchi, parla inglese, ha un’istruzione alta e un certo tipo di individualismo interiorizzato

In altre parole, le AI non pensano “come gli esseri umani”, ma come una minoranza molto specifica di esseri umani: chi vive nei paesi ricchi, parla inglese, ha un’istruzione alta e un certo tipo di individualismo interiorizzato.

Cosa dice lo studio

Lo studio è rigoroso. I ricercatori hanno preso il World Values Survey — una delle più grandi indagini internazionali sui valori, le credenze e i comportamenti — e hanno somministrato le stesse domande a GPT. Risultato: le risposte del modello si allineano a quelle di un cittadino americano o dell’Europa continentale. Il modo di “ragionare”, la struttura valoriale, i riferimenti culturali sono quelli di un abitante di Pittsburgh, o della Provenza o di Berlino.

Più ci si allontana dai contesti occidentali, più la somiglianza tra umani e AI svanisce. In termini statistici, la correlazione tra le risposte di GPT e la distanza culturale dagli Stati Uniti è di –0,70: significa che più una popolazione è diversa dall’Occidente, meno GPT riesce a “imitarla”.

Qualche esempio concreto? Le risposte di GPT corrispondono a quelle degli americani nell’80-90% dei casi, agli europei nel 70-75%, ma se ci spostiamo in Asia — Cina, Corea, Vietnam — la corrispondenza crolla al 40-45%, con percentuali ancora più basse per Medio Oriente e Africa.

Persino nei test cognitivi di tipo psicologico — come il “triad task”, che misura se una persona ragiona in modo più analitico o più relazionale — GPT si comporta come un individuo analitico, tipico delle culture occidentali, e lontanissimo da quelle asiatiche, africane o indigene, dove si tende a pensare in termini di relazioni, contesto e interdipendenza.

Di conseguenza, quando il modello tenta di descrivere “l’uomo medio”, lo fa con categorie e valori che suonano familiari solo a una parte del mondo, escludendone una gran parte.

Il problema non è solo geografico. Anche dentro l’Occidente, l’AI fatica con chi non corrisponde allo standard: classi popolari, minoranze etniche, generazioni diverse. Quando Google Translate traduce “medico” dal turco, usa automaticamente il maschile. Quando traduce “infermiere”, il femminile.
Quando un chatbot consiglia a qualcuno in crisi di “prendersi del tempo per sé” o “rivendicare la propria indipendenza”, sta dando un consiglio che ha senso in una cultura individualista, ma potrebbe risultare incomprensibile — o persino dannoso — per chi vive in contesti dove il benessere passa dalla famiglia allargata.

La questione non è accademica

Dietro la promessa di “neutralità” dell’intelligenza artificiale si nasconde un enorme bias culturale travestito da universalità. E poiché i dati di addestramento provengono in gran parte da Internet — uno spazio dominato da culture occidentali, da lingua inglese e da schemi di pensiero individualisti — quello che chiamiamo “intelligenza artificiale” è, in realtà, una macchina occidentale che parla però come se fosse l’umanità intera.

C’è una frase nello studio di Harvard che colpisce: “WEIRD in, WEIRD out.” È la versione aggiornata del vecchio motto informatico “garbage in, garbage out”. Se i dati di partenza sono culturalmente omogenei, anche le macchine più potenti continueranno a restituire una sola prospettiva: quella di chi già aveva la parola

Il paradosso è che l’AI non fa nulla di sbagliato: riflette esattamente ciò che le abbiamo insegnato. È la nostra idea di neutralità che è distorta. C’è una frase nello studio di Harvard che colpisce più di tutte: “WEIRD in, WEIRD out.” È la versione aggiornata del vecchio motto informatico “garbage in, garbage out”. Se i dati di partenza sono culturalmente omogenei, anche le macchine più potenti continueranno a restituire una sola prospettiva: quella di chi già aveva la parola.
Tradotto: se prendi del fango al posto del cioccolato, lo puoi cuocere o modificare quanto vuoi, ma non diventerà mai Nutella.

Ora, cosa si può fare? 

La risposta ovvia sarebbe: addestriamo l’AI su dataset più diversificati. Ed è vero, ci sono progetti in corso — modelli multilingue, collaborazioni con comunità indigene, tentativi di includere più voci. Ma anche qui le cose si complicano.

Primo problema: i dati non-occidentali sono scarsi, costosi da raccogliere, spesso frammentati. Secondo problema: chi decide cosa significa “abbastanza diverso”? Chi rappresenta una cultura? E se i valori di due culture confliggono frontalmente — individualismo contro collettivismo, libertà contro autorità — come dovrebbe comportarsi l’AI?

C’è quindi il rischio concreto di passare da un etnocentrismo involontario a un nuovo colonialismo culturale travestito da inclusività, dove qualcuno decide quali culture meritano rappresentanza e come.

E poi c’è un’altra domanda, ancora più scomoda: anche le culture non-Weird hanno i loro bias. Il punto non è che l’Occidente è “cattivo” e il resto del mondo “autentico”. Il punto è che ogni prospettiva è parziale. Ogni cultura ha i suoi punti ciechi. La vera questione, allora, non è se l’intelligenza artificiale diventerà “più umana”, ma chiedersi quale umanità stiamo costruendo al suo interno.

Anche le culture non-Weird hanno i loro bias. Il punto non è che l’Occidente è “cattivo” e il resto del mondo “autentico”. Il punto è che ogni prospettiva è parziale e ogni cultura ha i suoi punti ciechi. La vera questione, allora, non è se l’intelligenza artificiale diventerà “più umana”, ma chiedersi quale umanità stiamo costruendo al suo interno

Perché quando i modelli linguistici inizieranno a definire — e già lo fanno — il significato di concetti come giustizia, empatia, famiglia o libertà, rischiamo che l’universalità si riduca al solo punto di vista di una parte del pianeta.

E non è un problema tecnico. È un problema politico, culturale, perfino etico. Nei media, nella formazione, nella ricerca, ci affidiamo a queste tecnologie per “capire il mondo”, ma il mondo che queste tecnologie vedono è parziale, filtrato, sbilanciato. E più diventano presenti nelle istituzioni, nelle redazioni, nelle aziende, più questa distorsione rischia di diventare invisibile, perché integrata nei sistemi.

Allora, la prossima volta che chiedi a un’AI un consiglio “universale”, fermati un attimo. E chiediti: universale per chi? Perché se un giorno le macchine cominceranno davvero a parlarci di “umanità”, conviene ricordare che stanno solo restituendo l’eco della nostra voce: una voce che, per ora, parla ancora con un accento molto occidentale.

Foto di Thomas Chan su Unsplash

Nessuno ti regala niente, noi sì

Hai letto questo articolo liberamente, senza essere bloccato dopo le prime righe. Ti è piaciuto? L’hai trovato interessante e utile? Gli articoli online di VITA sono in larga parte accessibili gratuitamente. Ci teniamo sia così per sempre, perché l’informazione è un diritto di tutti. E possiamo farlo grazie al supporto di chi si abbona.