Sezioni

Attivismo civico & Terzo settore Cooperazione & Relazioni internazionali Economia & Impresa sociale  Education & Scuola Famiglia & Minori Leggi & Norme Media, Arte, Cultura Politica & Istituzioni Sanità & Ricerca Solidarietà & Volontariato Sostenibilità sociale e ambientale Welfare & Lavoro

Responsabilità di impresa

Intelligenza artificiale, c’è da credere alla svolta responsabile delle Big Tech americane?

Il 20 luglio i leader di Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI - le maggiori società impegnate a creare software di intelligenza artificiale generativa e conversazionale - hanno preso sei importanti impegni con il presidente Usa Joe Biden. Perché lo hanno fatto?

di Antonio Palmieri

Anche nel pieno delle ferie agostane è opportuno continuare a riflettere su una delle parole chiave dell’era digitale: responsabilità. Premessa: la responsabilità digitale non riguarda solo gli altri, ma è personale: è mia, tua, di ciascuno di noi. Su questo punto avremo modo di tornare in futuro.

Naturalmente, però, la prima responsabilità compete a chi ha per le mani la creazione e lo sviluppo delle tecnologie. Costoro e soprattutto coloro i quali guidano le aziende sono chiamati a una scelta: restringere o allargare il concetto di profitto? Ragionare in chiave esclusivamente economica o guardare anche alle conseguenze sociali, all’impatto che le tecnologie hanno sulla vita delle persone, a partire da quella del momento, l’intelligenza artificiale?

Può sembrare ingenuo pensare che coloro che stanno investendo miliardi per svilupparla siano sensibili a un quesito di questo tipo. Eppure, il 20 luglio, nel pieno di questa estate calda e tumultuosa, i leader di Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI – le maggiori società impegnate a creare software di intelligenza artificiale generativa e conversazionale – hanno preso sei importanti impegni con il presidente Usa Joe Biden, impegni che riguardano i temi importanti che in molti abbiamo segnalato in questi mesi.

Le sette aziende si sono impegnate a: testare la sicurezza dei prodotti, anche a opera di esperti indipendenti; condividere le informazioni col governo; garantire ai consumatori la possibilità di identificare facilmente i contenuti prodotti dalI’AI; rendere pubbliche capacità e limitazioni dei loro sistemi; mettere a disposizione della società strumenti per affrontare le sfide globali più gravi; condurre ricerche sui rischi per la privacy e le discriminazioni.

Peraltro, questi sei impegni hanno molto in comune con i sei principi guida della legge sull’intelligenza artificiale approvata il 14 giugno dal Parlamento europeo e ora in attesa del passaggio al Consiglio dei capi di stato e di governo: controllo e supervisione umani; solidità tecnica e sicurezza; privacy e governance dei dati; trasparenza e tracciabilità; parità di accesso, non discriminazione ed equità; benessere sociale e ambientale.

Certamente può anche darsi che per qualcuna di queste aziende l’accordo con la presidenza degli Stati Uniti sia un’escamotage, una tattica per prendere tempo e magari scongiurare un forte intervento legislativo. Tuttavia, la sostanza resta. 

Resta al punto tale che il 26 luglio Anthropic, Google, Microsoft e OpenAI hanno annunciato la creazione del Frontier Model Forum, per garantire lo sviluppo sicuro e responsabile dei modelli di intelligenza artificiale. 

Gli obiettivi principali confermano quelli assunti con il presidente Biden: ridurre al minimo i rischi, consentire valutazioni indipendenti, identificare le migliori pratiche per lo sviluppo responsabile e l’implementazione di modelli sicuri di AI. Inoltre il Frontier Model Forum aiuterà il pubblico a comprendere natura, capacità, limiti e impatto della tecnologia e collaborerà con legislatori, accademici, società civile e aziende per condividere le conoscenze.

Come si vede da questi due fatti, l’assunzione di responsabilità da parte delle imprese in merito a molte delle principali questioni che l’intelligenza artificiale generativa e conversazionale pone a tutti è la strada più rapida e passa dalle leadership di queste imprese. Come ha scritto di recente Claudio Bassoli, presidente e amministratore delegato di Hpe Italia, «la regolamentazione dell’intelligenza artificiale dovrebbe incentrarsi su tre principi fondamentali. Innanzitutto, sulla responsabilità: l’intelligenza artificiale è uno strumento potente che può essere utilizzato con fini positivi o negativi. È quindi fondamentale garantire un sistema di controlli ed equilibri che sia in grado di garantire che i creatori dell’IA siano responsabili».

La rivista dell’innovazione sociale

Abbònati a VITA per leggere il magazine e accedere a contenuti e funzionalità esclusive

Le decisioni responsabili hanno bisogno di leader aziendali (e politici) all’altezza della situazione. Persone capaci di comprendere e praticare il tipo di leadership indicata nei libri di Gianluca Giansante “Leadership. Teorie, tecniche, buone pratiche e falsi miti” e di Antonio Funiciello “Leader per forza. Storie di leadership che attraverso i deserti.” Leadership trasformatrici, moralmente solide, non autoreferenziali, che lavorano per un futuro buono che orienti il vorticoso cambiamento in atto verso il bene comune. Nei loro libri Giansante e Funiciello presentano numerosi esempi di questo tipo di leader, politici e non solo, capaci di guidare verso una meta condivisa in un periodo di grande incertezza e di grandi cambiamenti.

Dobbiamo pretendere e scegliere leadership di questo tipo e valorizzare la linea della responsabilità. 

Lo possiamo fare perchè non esiste un destino ineluttabile. Come ha scritto Massimo Chiriatti sul Sole 24 ore una domanda frequente rispetto all’intelligenza artificiale, ma mal posta, è «Cosa succederà?». La domanda corretta dovrebbe essere «Cosa dovremmo far succedere?». «Domani sarò ciò che oggi ho scelto di essere», scriveva James Joyce, perché sono le decisioni, non le previsioni, ad avere conseguenze.”. 

A noi spetta il compito di incalzare chi deve prendere decisioni e contemporaneamente quello di imparare a usare al meglio la nostra quota di responsabilità nell’uso quotidiano delle tecnologie. Simul stabunt.

Foto di Sunrise King su Unsplash


La rivista dell’innovazione sociale.

Abbònati a VITA per leggere il magazine e accedere a contenuti
e funzionalità esclusive



Qualsiasi donazione, piccola o grande, è
fondamentale per supportare il lavoro di VITA