Sezioni

Attivismo civico & Terzo settore Cooperazione & Relazioni internazionali Economia & Impresa sociale  Education & Scuola Famiglia & Minori Leggi & Norme Media, Arte, Cultura Politica & Istituzioni Sanità & Ricerca Solidarietà & Volontariato Sostenibilità sociale e ambientale Welfare & Lavoro

Futuro prossimo

Intelligenza artificiale: voi siete liberisti o regolarizzatori?

Mai come in questo caso è davvero difficile raggiungere un equilibrio legislativo che consenta di contenere i rischi senza limitare le enormi opportunità offerte dall'intelligenza artificiale generativa. Vedremo gli sviluppi dei prossimi mesi, vedremo cosa accadrà in Europa e negli Stati Uniti. Intanto però qualche elemento utile per farsi un'idea

di Antonio Palmieri

Sam Altman, fondatore e amministratore delegato di OpenAI, l’azienda che ha lanciato lo scorso novembre ChatGPT, ha cambiato idea. 

Il 27 settembre, nel suo intervento alla Italian Tech Week 2023, Altman ha chiesto di non esagerare con le norme. Dare troppe regole oggi, seguendo le nostre paure legate all’avvento dell’intelligenza artificiale generativa e conversazionale, è secondo lui un errore, perché in futuro essa porterà benefici per tutti e non c’è motivo di limitarne lo sviluppo. È lo stesso Altman che invece a maggio aveva chiesto durante un’audizione al Congresso americano di normare l’intelligenza artificiale per limitare i rischi di questa tecnologia, definendo “fondamentale” l’intervento dei governi per regolare lo sviluppo e l’uso dell’intelligenza artificiale «nel rispetto dei valori democratici»?

Sviluppare gli ideali democratici e promuovere progresso globale è anche l’obiettivo dell’Appello per un’intelligenza artificiale più libera e più aperta che a metà settembre 20 think tank di tutto il mondo, riuniti nella Global trade and innovation policy alliance (Gtipa), hanno lanciato ai governi del G7 e al Parlamento europeo. Tra i promotori dell’appello l’Italia era rappresentata da I-Com, l’Istituto per la competitività fondato e diretto da Stefano Da Empoli.

Questo appello si ricollega alla svolta di Altman. Entrambi chiedono ai governi di non avere un approccio troppo interventista. Infatti l’obiettivo che si propone l’iniziativa è non solo garantire che la potenza dell’intelligenza artificiale generativa sia al servizio degli ideali democratici ma anche stimolare una impostazione legislativa che non punti solamente a contrastare i rischi (misinformazione e disinformazione, cybersecurity, privacy, tutela del copyright) ma operi anche per rendere l’opportunità offerta dall’Ia «fruibile non solo da informatici e scienziati ma da tutti», come ha scritto Da Empoli in suo intervento su Formiche.net, nel quale ammonisce: «La regolamentazione deve proibire o imbrigliare solo laddove necessario».  

Il “nuovo” Altman e l’appello dei 20 think tank esprime una impostazione che possiamo definire “liberista”, perché chiede di limitare il ruolo dei governi al minimo indispensabile. Dall’altro lato della barricata vi sono invece coloro i quali auspicano un forte intervento dei governi e della politica. 

Per esempio, sempre durante l’Italian Tech Week di Torino, Barbara Caputo, direttore dell’Hub di Intelligenza artificiale del Politecnico di Torino, replicando all’intervento di Altman ha ribadito la necessità di regole stringenti: «Quando ci si sposa si decide di accettare delle regole. Di queste regole non ci si accorge nemmeno, fino a quando le cose vanno bene. Servono quando iniziano ad andare male. E con l’Intelligenza artificiale le cose potrebbero andare molto maIe».

Questa impostazione è condivisa dalla maggioranza degli italiani: secondo l’indagine Fondazione Pensiero Solido/Youtrend dello scorso maggio, il 59% degli italiani vuole che il governo intervenga con leggi utili a regolare l’intelligenza artificiale. Anche vietandone l’uso, se necessario (16%) o regolamentando la maggior parte dei casi di utilizzo (43%). Secondo questi dati, gli italiani sembrano condividere l’impostazione sintetizzata lo scorso 25 maggio da Elena Molinari, corrispondente dagli Usa di Avvenire: «L’IA è troppo potente per essere lasciata nelle mani di poche aziende e i governi sono già in un enorme svantaggio come soli difensori dell’interesse pubblico».

In questa direzione vanno le nuove norme europee per regolare e limitare gli usi dell’intelligenza artificiale. Potrebbero arrivare entro fine anno, con lo scopo di provare a dare regole al futuro dell’intelligenza artificiale, proprio per evitare che il “matrimonio” tra umanità e intelligenza artificiale vada storto.  È evidente che la contrapposizione tra “liberisti” e “regolarizzatori” ci accompagnerà ancora a lungo. 

Del resto mai come in questo caso è davvero difficile raggiungere un equilibrio legislativo che consenta di contenere i rischi senza limitare le enormi opportunità offerte dall’intelligenza artificiale generativa. Vedremo gli sviluppi dei prossimi mesi, vedremo cosa accadrà in Europa e negli Stati Uniti. Questi ultimi decenni ci dicono che lo sviluppo tecnologico digitale nasce per il genio umano, per le possibilità che la tecnologia mette a disposizione, per gli investimenti delle aziende e, quasi sempre, senza committenza diretta da parte della politica, almeno nelle democrazie occidentali.

La rivista dell’innovazione sociale

Abbònati a VITA per leggere il magazine e accedere a contenuti e funzionalità esclusive

La storia ci dice che l’uomo si è evoluto grazie alla tecnologia ma che il progresso che nel corso dei secoli le varie tecnologie hanno messo a disposizione è stato distribuito grazie alla politica, che non è fatta solamente dalle decisioni dei governi ma richiede l’azione consapevole di tutte le componenti della società. Tutte. Aziende comprese. A questo riguardo, il 13 settembre altre otto aziende tecnologiche si sono unite alle sette che a luglio avevano aderito all’impegno chiesto della Casa Bianca per una gestione consapevole dell’intelligenza artificiale. Ora anche Adobe, Cohere, Ibm, Nvidia, Palantir, Salesforce, Scale AI e Stability hanno sottoscritto gli impegni per la supervisione delle modalità di sviluppo, per la trasparenza e il buon uso dell’intelligenza artificiale. 

È una notizia positiva, che ribadisce una domanda fondamentale. Perché le grandi aziende non possono approfondire «un’antropologia dove la persona è capace di dono e di quella superiore forma di razionalità che è l’intelligenza sociale, fatta di fiducia e cooperazione”, come ha scritto papa Francesco nel suo messaggio al Festival dell’economia civile? 

Perché le grandi aziende non possono approfondire «un’antropologia dove la persona è capace di dono e di quella superiore forma di razionalità che è l’intelligenza sociale, fatta di fiducia e cooperazione»

Papa Francesco

Abbiamo bisogno, come dice il Papa, di «pervenire ad una ricca diversità di forme di impresa e vedere crescere il numero di quegli imprenditori più “ambiziosi”, che non guardano semplicemente al profitto ma anche all’impatto sociale e ambientale». L’impatto sociale dell’intelligenza artificiale generativa promette di essere davvero epocale. Perché esso non può riguardare anche le grandi aziende che stanno investendo e operando con l’intelligenza artificiale? In estrema sintesi: è utopistico pensare di poter passare dal “capitalismo della sorveglianza” al “capitalismo della responsabilità”?

Foto: archivio Vita


La rivista dell’innovazione sociale.

Abbònati a VITA per leggere il magazine e accedere a contenuti
e funzionalità esclusive



Qualsiasi donazione, piccola o grande, è
fondamentale per supportare il lavoro di VITA