Artificial Intelligence 4922134 1920 Gerd Altmann:Pixabay
Intelligenza artificiale

Cese: «La legge Ue dovrebbe fissare dei limiti per le applicazioni ad alto rischio»

25 Luglio Lug 2020 1511 25 luglio 2020
  • ...

Nell'approccio antropocentrico dell'Ue all'intelligenza artificiale (IA) non può esserci posto per il riconoscimento biometrico a scopi di tracciamento, sorveglianza e rilevamento di emozioni: lo afferma il Comitato economico e sociale europeo (Cese) nella sua risposta al Libro bianco della Commissione sull'IA, adottata nella sessione plenaria del Cese del 16 luglio

La Commissione europea ha proposto che un'applicazione di IA sia considerata ad alto rischio se riguarda un settore ad alto rischio (sanità, trasporti, energia e parti del settore pubblico) ed implica un uso ad alto rischio, con alcune eccezioni che devono ancora essere definite. Secondo la proposta della Commissione, è solo se queste due condizioni sono soddisfatte che si può parlare di IA ad alto rischio, che in quanto tale ricadrebbe nell'ambito di applicazione di normative e strutture di governance specifiche.

Il Comitato economico e sociale europeo (Cese) reputa che tale definizione rischi di lasciare aperte scappatoie potenzialmente pericolose. E un esempio lampante è costituito, secondo il Cese, dalla pubblicità di natura politica su un social network come Facebook: «La pubblicità è un settore considerato a basso rischio, e la funzione di aggregazione delle notizie su Facebook può essere considerata come un uso a basso rischio», spiega la relatrice del Cese Catelijne Muller, «eppure abbiamo visto come, durante le campagne elettorali, la diffusione su Facebook di notizie false (fake news) e falsi realistici (deepfakes) generati con l'IA possa avere molteplici effetti negativi e influenzare il voto delle persone, con interferenze anche da parte di paesi terzi».

Dovrebbero allora essere previste delle deroghe? E, in caso affermativo, quante dovrebbero esservene? Il Cese ritiene che, piuttosto che stilare un elenco di esenzioni, sarebbe meglio elaborare un elenco di caratteristiche comuni da considerare ad alto rischio, a prescindere dal settore interessato. Molte applicazioni hanno un forte impatto sui diritti fondamentali, sottolinea la relatrice Muller, non solo sulla privacy delle persone, ma anche – ad esempio – sul loro diritto di manifestare o di aderire a un sindacato.

>Il lato oscuro del riconoscimento biometrico
Il riconoscimento facciale e biometrico è uno dei settori chiave in cui l'IA incide sui diritti fondamentali. L'uso di tale tecnologia può essere consentito per motivi di identificazione personale – ed è in effetti disciplinato dal regolamento generale sulla protezione dei dati. Tuttavia, dovrebbe essere vietato l'impiego diffuso del riconoscimento biometrico basato sull'IA per sorvegliare, seguire, valutare o classificare le emozioni o i comportamenti umani. Tanto più che non è affatto scientificamente provato che sia possibile discernere i sentimenti di una persona sulla base dei suoi dati biometrici, sottolinea Catelijne Muller.

>Il Covid-19 e le app per la tracciatura e la localizzazione
Il Cese mette inoltre in guardia contro la diffusione incontrollata delle tecnologie di tracciatura e localizzazione, che oggi stanno prendendo piede nella nostra società assai più rapidamente e con molti meno controlli che in passato, nel tentativo di contrastare la propagazione del coronavirus. «Le tecniche e i metodi dell'IA per combattere la pandemia dovrebbero essere altrettanto solidi, efficaci, trasparenti e spiegabili di qualsiasi altra metodica di IA adoperata in una qualsiasi altra situazione», ha ammonito la relatrice del Cese, aggiungendo che essi «dovrebbero rispettare i diritti umani, i principi etici e le leggi vigenti. Dovrebbero inoltre essere applicati su base volontaria, perché – ci piaccia oppure no – molte delle tecniche introdotte durante questa crisi sono destinate a diventare permanenti». Il Cese auspica adesso che la Commissione tenga conto di questo suo contributo, così come ha fatto con le raccomandazioni da esso formulate nel suo innovativo parere sull'IA, che già nel 2017 propugnava l'adozione, da parte dell'Ue, di un approccio human in command, in cui l'uomo mantenesse il controllo dell'intelligenza artificiale.

Contesto
Il Libro bianco sull'IA – che è parte di un pacchetto di misure ad ampio raggio in materia di IA annunciato dalla Commissione europea nella comunicazione Plasmare il futuro digitale dell'Europa – prospetta:

  • un ventaglio di misure per razionalizzare la ricerca, promuovere la cooperazione tra Stati membri e stimolare gli investimenti nel campo dell'intelligenza artificiale;
  • una serie di opzioni strategiche per un futuro quadro normativo dell'Ue in materia di IA, con un forte accento sulle applicazioni ad alto rischio

Nel febbraio 2020 la Commissione ha avviato una consultazione pubblica sul Libro bianco, che si è chiusa il 14 giugno e ha raccolto oltre 1200 risposte ai questionari e circa 700 contributi scritti. La Commissione sta attualmente elaborando le risposte e i contributi ricevuti e pubblicherà a breve una relazione. La suddetta comunicazione delinea le azioni progettate dalla Commissione europea per far sì che l'Ue sia attrezzata per l'era digitale; un'Europa pronta per l'era digitale è infatti una delle priorità della presidenza di Ursula von der Leyen. Il piano annunciato nella comunicazione si basa su tre pilastri:

  • una tecnologia al servizio delle persone;
  • un'economia digitale equa e competitiva;
  • una società aperta, democratica e sostenibile

Il Cese si è pronunciato in merito alla comunicazione della Commissione in un parere distinto, anch'esso adottato nella sessione plenaria di luglio, nel quale formula essenzialmente una fondamentale raccomandazione: «L'estrema rapidità della trasformazione digitale rende praticamente impossibile conoscere oggi quali nuovi sviluppi emergeranno da qui a un mese. Dobbiamo pertanto essere flessibili e adattabili; e, se vogliamo esserlo davvero, è necessario un dialogo costante tra tutti i soggetti coinvolti. Il Cese, in quanto portavoce della società civile organizzata, dovrebbe essere posto in condizione di dare il suo contributo, e per questo chiediamo alla Commissione di instaurare un tale dialogo permanente», ha spiegato il relatore del parere, Ulrich Samm.

Foto di apertura: Gerd Altmann/Pixabay

Contenuti correlati