Sezioni

Attivismo civico & Terzo settore Cooperazione & Relazioni internazionali Economia & Impresa sociale  Education & Scuola Famiglia & Minori Leggi & Norme Media, Arte, Cultura Politica & Istituzioni Sanità & Ricerca Solidarietà & Volontariato Sostenibilità sociale e ambientale Welfare & Lavoro

Famiglia & Minori

Per l’Europa è tempo di una svolta etica sull’Intelligenza Artificiale

Saranno adottate dall'Unione Europea entro marzo 2019 le "Ethic Guidelines fo Trustworthy AI”: è il primo passo verso un'etica by design, che ponga l'uomo al centro del processo

di Marco Dotti

Giorno dopo giorno si rivela sempre più necessaria un'intermediazione etica per l'intelligenza artificiale. Tanti e tali sono gli ambiti e i suoi scenari applicativi.

L'Europa, che non può competere con Cina o Usa sul piano dello svilippo tecnologico, si è però ritagliata un posto di tutto rispetto in quello della gestione etica della transizione a un'AI avanzata.

Il gruppo di ricerca di esperti, costituito in seno all'UE per definire linee guida per la progettazione di sistemi di AI eticamente sostenibili, ha infatti stilato delle linee guida generali fornendo anche una serie di raccomandazioni relative alla politica legislativa sull'Intelligenza artificiale.

Frutto di questo approccio top-down, tipicamente europeo sulla questione, sono le bozze dell' “Ethic Guidelines fo Trustworthy AI” che verranno adottate entro marzo prossimo.

Le linee guida promosse dall'UE puntano a fornire un quadro d'insieme per dare all'AI una forma di "affidabilità", ossia una dimensione che preveda sempre e comunque l'uomo al centro del sistema. Lo osserva Massimo Nicotra su Agenda Digitale.

Proprio partendo dai diritti fondamentali dell’uomo, il documento individua alcuni principi e valori generali che devono essere rispettati per la realizzazione di un’intelligenza artificiale affidabile.

Tali principi e valori, spiega l'avvocato Nicotra,sono:

  • Il principio del fare il bene: inteso come la necessità che un sistema di intelligenza artificiale sia progettato e sviluppato allo scopo di aumentare il benessere individuale e collettivo;
  • Il principio del non fare il male: che implica che un’intelligenza artificiale non deve far del male all’essere umano, dovendo proteggere la sua dignità, libertà, privacy e sicurezza nella società ed al lavoro;
  • Il principio di autonomia (preservare l’agente umano): il rispetto dell’essere umano nel senso che non può essere subordinato o sopraffatto da un’intelligenza artificiale, essendo necessario che venga sempre rispettato il principio di auto-determinazione dell’uomo;
  • Il principio di giustizia (sii equo): nel contesto dell’intelligenza artificiale affidabile tale principio implica che devono essere evitate discriminazioni o pregiudizi, eliminando bias ed errori, assicurando il pari trattamento degli esseri umani;
  • Il principio di trasparenza (opera in maniera trasparente): che implica la possibilità di controllare il sistema decisionale di un’intelligenza artificiale, il quale deve essere comprensibile ed intellegibile per gli uomini di diversi livelli di esperienza e conoscenze.

Oltre a questi principi e valori le Linee Guida indicano anche dieci requisiti che sviluppano i valori e principi generali indicando le modalità con cui deve essere realizzato un sistema di intelligenza artificiale.

Tali requisiti pongono delle specifiche di implementazione affinché un sistema di intelligenza artificiale sia “etico by design” . Ossia, come scrivevamo nell'ottobre scorso, si rivolga a un'etica immanente al suo livello di progettazione e coinvolga tutti gli attori umani del processo.


Qualsiasi donazione, piccola o grande, è
fondamentale per supportare il lavoro di VITA