Sezioni

Attivismo civico & Terzo settore Cooperazione & Relazioni internazionali Economia & Impresa sociale  Education & Scuola Famiglia & Minori Leggi & Norme Media, Arte, Cultura Politica & Istituzioni Sanità & Ricerca Solidarietà & Volontariato Sostenibilità sociale e ambientale Welfare & Lavoro

Comunicazione

Cosa c’è sotto l’intelligenza artificiale, generativa e conversazionale

L'intelligenza artificiale generativa e conversazionale dice quello che sa - vale a dire costruisce risposte ai prompt di richiesta sulla base di modelli probabilistici relativi ai dati sui quali è stata addestrata - ma non sa quello che dice, nel senso che non ha consapevolezza e quindi nemmeno può cogliere la differenza tra vero e falso

di Antonio Palmieri

L’intelligenza artificiale di cui stiamo discutendo da un anno e mezzo ha un nome e un cognome. No, non sto parlando di Sam Altman, il celebre “papà” di ChatGPT e neppure di Elon Musk. Parlo del fatto che questa particolare forma di intelligenza artificiale si chiama di “nome” generativa e di “cognome” conversazionale.

I cognomi, come è noto, hanno un loro peso. Indicano una storia, portano conseguenze. Vale anche per il “cognome” conversazionale. Questo è un attributo fondamentale dell’intelligenza artificiale generativa, fondamentale per le ricadute sociali e antropologiche che porta con sé e delle quali in questo anno e mezzo si è ragionato poco. Troppo poco.

Per la verità, qualcosa si è mosso dopo la presentazione di GPT-4o, a metà maggio. Questa ultimissima versione di intelligenza artificiale generativa e conversazionale sviluppata da OpenAl  rende l’interazione uomo/algoritmo «più fluida e naturale», come ha detto Mira Murati, Cto di OpenAl, durante la presentazione. Non a caso la “o” sta per “omni”, cioè indica la capacità di gestire tutto, testi, suoni, video, con modalità che pressoché simili al linguaggio di noi esseri umani. Infatti questa versione di ChatGPT dialoga in modo molto più realistico: rileva le emozioni nelle voci, analizza le espressioni facciali, cambia il proprio tono a seconda dei desideri e dello stato d’animo dell’essere umano che ha di fronte, ha ridotto i tempi di latenza nelle risposte, insomma, funziona molto meglio. Sempre più “umanamente”.

Al riguardo, il New York Times ha titolato così: “Per l’IA è iniziata l’era Her”, citando il titolo del film del 2013 di Spike Jonze in cui il protagonista, Theodore (Joaquin Phoenix), stringe una relazione sempre più intima e si innamora di un’intelligenza artificiale che ha la voce di Scarlett Johansson. Al di là delle polemiche – ben raccontate da Pier Luigi Pisa – che hanno coinvolto l'(ab)uso della voce dell’attrice da parte di OpenAI per rendere più suadente ChatGPT, resta la conseguenza: rendere più possibile a misura d’umano il rapporto con l’intelligenza artificiale generativa, attivare “l’empatia artificiale”, è una illusione, una trappola emotiva. Infatti questo modo di conversare con l’intelligenza artificiale generativa ci illude di avere un rapporto con un “tu”. Un tu che, almeno al momento, non esiste. Abbiamo ancora a che fare con una macchina calcolatrice di parole – come ci ricorda sempre e opportunamente il filosofo del digitale Cosimo Accoto – non con un essere senziente. È quindi sbagliato antropomorfizzare il rapporto con l’algoritmo. Non è una “her”, una lei. È e rimane un “it”, una cosa, un prodotto digitale.

A questa prima conseguenza, ne segue immediatamente un’altra.

La capacità sempre più incisiva  dell’intelligenza artificiale generativa di conversare con noi ci fa correre il rischio di considerarla un oracolo, una sorta di bocca della verità, le cui sentenze vanno prese per oro colato. Rischiamo di «confondere l’aumento della qualità dell’interazione con quello della correttezza delle informazioni fornite», come ha sottolineato Stefano Epifani, fondatore e presidente della Fondazione per la sostenibilità digitale.

Proprio perché non abbiamo a che fare con un organismo, ma con un meccanismo, i software di intelligenza artificiale generativa e conversazionale non sanno valutare se le loro risposte sono vere o false. Tuttavia, continua Epifani «l’elevata qualità dell’interazione può, paradossalmente, ridurre la consapevolezza degli utenti riguardo alla necessità di verificare le informazioni». Noi siamo naturalmente portati a unire buona comunicazione e affidabilità: questo atteggiamento è rinforzato dall’avere a che fare con un’interfaccia che «sembra comprendere e rispondere in modo umano. Di conseguenza, – conclude Epifani – la fluidità e la qualità dell’interazione con sistemi come Chat-GPT4o possono indurre gli utenti a sospendere il loro giudizio critico, accettando le risposte generate come verità». Come ripeto da qualche tempo, l’intelligenza artificiale generativa e conversazionale dice quello che sa – vale a dire costruisce risposte ai prompt di richiesta sulla base di modelli probabilistici relativi ai dati sui quali è stata addestrata – ma non sa quello che dice, nel senso che non ha consapevolezza e quindi nemmeno può cogliere la differenza tra vero e falso.


Scegli la rivista
dell’innovazione sociale



Sostieni VITA e aiuta a
supportare la nostra missione


Terza e ultima conseguenza, forse la più importante dal punto di vista antropologico. Noi esseri umani siamo esseri relazionali. Lo siamo per natura, siamo stati fatti così. Nasciamo, cresciamo, viviamo, all’interno di rapporti, di contatti, di interazioni. Siamo l’unico essere vivente i cui cuccioli per tanti anni hanno bisogno di accudimento materiale e, soprattutto, relazionale. Se questo è vero, è altresì vero che tutti i rapporti, tutte le relazioni, anche le più belle sono faticose, sono impegnative, perché noi siamo esseri relazionali ma pieni di limiti e di difetti, limiti e difetti che si ripercuotono nei rapporti e impongono fatica, anche con le persone che ci sono più care.

Invece, il rapporto con l’intelligenza artificiale generativa è esente da questo tipo di fatica. Per l’intelligenza artificiale generativa è sempre la giornata mondiale della gentilezza. Ci tratta sempre con i guanti perché è stata impostata così. Non essendo un essere senziente è priva dei limiti propri di noi esseri umani. È sempre “perfetta”. Il terzo impatto del conversazionale consiste nell’eliminare la fatica dei rapporti. Quindi corriamo il rischio di disabituarci a comprendere i bisogni dell’altro. Infatti le relazioni si deteriorano quando ci concentriamo sui limiti e non sui bisogni della persona che abbiamo davanti. Disporre di una intelligenza artificiale generativa capace di emulare un’esperienza di interazione che può sembrare indistinguibile da quella che siamo abituati ad avere con un altro essere umano che impatto psicologico potrà avere sulla nostra capacità di reggere i rapporti? Vale per noi adulti, a maggior ragione vale soprattutto per i ragazzi, che cresceranno abituati ad avere rapporti con una intelligenza artificiale “amica perfetta”. Peraltro una “amica” la cui voce corrisponde a una concezione di donna «accondiscendente, in grado di esaudire ogni richiesta dell’interlocutore, e che lo fa utilizzando un tono seducente, quasi sessualizzato», come opportunamente rilevato da Valerio Bressan.

In conclusione, queste tre implicazioni del conversazionale mostrano che dobbiamo rimanere attenti e vigili. Viviamo un’epoca straordinaria, che impone uno straordinario sforzo di attenzione, di pensiero, di comprensione, di educazione.

Foto: Pexels


La rivista dell’innovazione sociale.

Abbònati a VITA per leggere il magazine e accedere a contenuti
e funzionalità esclusive



Qualsiasi donazione, piccola o grande, è
fondamentale per supportare il lavoro di VITA