Welfare & Lavoro

Un’etica naturale per l’intelligenza artificiale

Per capire e salvaguardare dignità e libertà umane al tempo dell’Artificial Intelligence (AI) di cosa abbiamo bisogno? Da questa domanda prende il via il dialogo con il professore della Pontificia Università Gregoriana, Paolo Benanti pubblicato sul numero del Magazine in distribuzione

di Marco Dotti

«Davanti alle innovazioni delle biotecnologie e dell’intelligenza artificiale avanzata», spiega Paolo Benanti, francescano del Terzo Ordine Regolare, professore alla Pontificia Università Gregoriana, fra maggiori esperti di etica delle nuove tecnologie, «il nostro compito è ragionare per scenari, non per suggestioni. Poiché lo scenario non è una profezia, ma qualcosa che ci consente di immaginare il futuro con un pensiero critico e, magari, aiuti a prepararsi eticamente a quel futuro possibile».


Che cosa è cambiato, in questi anni, nel cosiddetto “rischio tecnologico”, in rapporto all’Intelligenza artificiale?
Supponiamo di avere un sistema di AI che aiuti un medico a capire qual è il paziente che ha maggior bisogno del suo intervento: se, da un lato, con la scarsità di risorse in cui versiamo, l’effetto può essere molto maggiore, di fatto sarà l’algoritmo a decidere chi avrà o meno cure e assistenza.
Il tutto con una questione di fondo che ci deve far riflettere: fino a pochi anni fa un programmatore di software lavorava secondo un modello che possiamo definire di “if this, then that”, il programmatore pensava tutte le possibili evenienze, tutti i “se”, e si regolava sulle modalità possibili di risposta del programma. Oggi il programmatore non opera più così: pone un problema alla macchina e la macchina, semplicemente, offre la soluzione per la quale è stata addestrata. Questa dimensione autonoma della macchina rappresenta la relativa novità della questione tecnologica e fa sorgere
numerosi problemi etici: cosa possiamo affidare
alla macchina? E che
cosa accade se la
macchina fa una scelta
che non è giusta, ma
sbagliata? Il tema etico si
condensa quindi proprio su
questa non prevedibilità a priori delle scelte della macchina e su come e in che misura saremo disposti a tollerare gli eventuali errori della macchina.

Un’altra dimensione del problema è l’effetto-scala…
Ciascuno di noi, nella sua vita, fa delle scelte che sono guidate da dei pregiudizi. Uso il termine “pregiudizi” nel senso inglese di bias, pregiudicare. Se dovessi decidere sull’assunzione di una persona, se quella persona ha una faccia che non mi piace, probabilmente non l’assumo. Questo può essere un’ingiustizia, ma in un rapporto uno a uno l’ingiustizia si ferma lì. Se, invece, l’ingiustizia viene decisa da un software di AI che analizza la faccia di quella persona e quel software ha all’interno dei pregiudizi che escludono alcuni tipi di faccia, non è più un rapporto uno a uno, ma quell’ingiustizia diventa una disuguaglianza sociale. L’ulteriore problema, nell’intelligenza artificiale, è legato all’effetto scala che queste portano. Non è più un medico che sbaglia con un paziente, ma un programma, implementato magari in un robot, che sbaglia su vasta scala. E così l’errore rischia di diventare un’ingiustizia globale.

Più che la delega di competenze, il problema sembra collocarsi a livello di deleghe in bianco sulle responsabilità di scelta…
Il tema etico è di duplice natura. Primo punto: può un’AI fare una scelta perfetta? Molti data scientist della Silicon Valley…

Per continuare a leggere clicca qui


Qualsiasi donazione, piccola o grande, è
fondamentale per supportare il lavoro di VITA