Sezioni

Attivismo civico & Terzo settore Cooperazione & Relazioni internazionali Economia & Impresa sociale  Education & Scuola Famiglia & Minori Leggi & Norme Media, Arte, Cultura Politica & Istituzioni Sanità & Ricerca Solidarietà & Volontariato Sostenibilità sociale e ambientale Welfare & Lavoro

Cosimo Accoto

Il mondo ex machina: per una filosofia dell’automazione attenta ai valori umani

di Marco Dotti

Il futuro, spiega Cosimo Accoto,«sarà automatico o non sarà». Davanti alla crescente automazione dei processi si apre una grande sfida: come possiamo realizzare un mondo in cui l'automazione riflette e sostiene i valori umani?

«Come possiamo realizzare un mondo in cui l'automazione riflette e sostiene i valori umani?». Alex Pentland chiosa così, con una domanda spiazzante e radicale, l'ultimo lavoro di Cosimo Accoto. Chi abbia letto il suo precedente Il mondo dato. Cinque brevi lezioni di filosofia digitale (Egea, 2017), non rimarrà sopreso: Accoto è capace di andare a fondo e, al contempo, collocare in un preciso scenario innovazioni che possono sembrare troppo famigliarie e nomi che, al contrario, possono sembrarci troppo di là da venire. Blockchain, deep learning, Intelligenza Artificiale.

Filosofo di formazione, research affiliate al MIT di Boston, Accoto conosce il valore primario del porsi alla giusta distanza. Ed è lì che ci accompagna, tra le pagine del suo ultimo libro, Il mondo ex machina. Cinque brevi lezioni di filosofia dell'automazione, edito come il precedente da Egea.

Il futuro, spiega Accoto, «sarà automatico o non sarà». Un recente reporto di Mc Kinsey, The automation Imperative, riconosce una portata trasformativa profonda ai processi di automazione in atto. Sapremo cogliere la sfida e ridisegnare un mondo in cui l'automazione sia al servizio di tutti e non di un' élite e le sue potenzialità non siano circoscritte a finalità puramente autoreferenziali e meccaniche?

L'imperativo automatico

Dalla filosofia digitale alla filosofia dell'automazione, dal Mondo dato al Mondo ex machina: anche nel suo ultimo libro, lei sottopone a un'indagine filosofica le matrici di qualcosa che, nel luogo comune, verrebbe considerata appannaggio di "ingegneri" e "tecnici". Ci dice qualcosa sull'importanza di questo metodo? La filosofia ha dunque ancora qualcosa da dire o, quanto meno, domande da porre?
Digitale, artificiale, sintetico. In una parola, programmabile. Il mondo si è avviato ad una trasformazione profonda e irreversibile delle proprie fondamenta ontologiche ed ontogenetiche. Una trasformazione che si comincia a percepire come molto “agita” ma, al contempo e con preoccupazione, anche poco “pensata”. Siamo ad un momento di passaggio epocale nella storia della specie umana. Un passaggio che rimane, ad oggi, sostanzialmente sottaciuto e confinato di norma nelle pratiche e nelle ricerche degli specialisti e degli esperti. Scienze e tecnologie di notevole portata e impatto ambientale e sociale (quali, ad esempio, la computazione quantistica, la biologia sintetica, l’intelligenza artificiale, la nanotecnologia molecolare, la crittografia monetaria, la robotica sociale) stanno lasciando i laboratori di progettazione e sperimentazione -in certa misura finora controllati e circoscritti- per essere diffuse, in maniera sempre più ampia, su scala planetaria. Tutto questo trasferimento (da scienza verso l’ingegneria) sta accadendo, oggi, con una debole attenzione specifica e nessuna consapevolezza sistemica da parte della collettività.

A fronte di questa spinta tecnologica (di cui è parte rilevante anche l’attuale rivoluzione dei dati), credo sia sempre più indifferibile l’attivazione di un pensiero filosofico all’altezza delle sfide scientifiche e tecnologiche in essere. Un pensiero speculativo e prospettico, aperto ma attento, capace di studiare e accompagnare, con la necessaria densità teorica, questa nuova fase dell’antropocene. È tempo, dunque, di immaginare un manifesto “philtech” che renda pubblico e renda urgente il bisogno collettivo di tornare a pensare filosoficamente la tecnologia.

Oggi, la filosofia più spiccia tratta con supponenza la tecnica, quasi fosse un mero apparato strumentale…
Codice, cloud, crittografia, sensori, reti, dati, algoritmi e tutte le tecnicalità in arrivo non sono semplici “tecnicalità”, ma sono gli orizzonti culturali e filosofici con cui stiamo immaginando e costruendo il reale e il futuro. Ad esempio, la crittografia della blockchain ha molto a che fare con la costruzione di nuovi regimi di verità (e di verifica del falso) e chi meglio della filosofia può accompagnare una riflessione culturale su questa tecnicalità? Più generalmente, “software is a mindset, not a skillset” come giustamente ha detto qualcuno. Il codice software non è solo un modo di operare il mondo, ma un modo di pensare il mondo. Non è banalmente il saper programmare (coding). Per me, si tratta, piuttosto, di capire la natura ontologica profonda del linguaggio (codice software) con cui stiamo “scrivendo” (produciamo) il mondo. Per questo la filosofia deve tornare al centro con le sue discipline (metafisica, logica, ontologia, epistemologia, etica e così via) da applicare al contemporaneo.

La filosofia non può essere, come si è auto-ridotta, solo “storia della filosofia”, solo commento ai sacri testi del passato. Deve essere pensiero vivo che torna a incidere sul reale e sulla direzione delle sue complessità presenti e prossime. E a questo sforzo di pensiero vanno sollecitati tutti i domini disciplinari umanistici classici (non solo la filosofia), ma anche quelli (e sarà necessario forse inventarne anche di nuovi) che potranno aiutarci a leggere e guidare -con più consapevolezza- gli orizzonti sociotecnologici emergenti. Orizzonti dalle straordinarie opportunità di costruire un mondo migliore, ma anche dalle concrete vulnerabilità nell’amplificare o creare nuove diseguaglianze e discriminazioni. Un percorso lungo e difficile dentro una complessità crescente dove sarà necessario non solo porre domande, ma scardinare e turbare, illuminare e dissezionare, orientare e guidare filosoficamente. Per questo, credo sia bene incamminarsi quanto prima. Il successo del mio penultimo saggio Il Mondo Dato (programmabilità del mondo) mi hanno incoraggiato a proseguire con il nuovo volume Il Mondo Ex Machina (automabilità del mondo).

Digitale, artificiale, sintetico. In una parola, programmabile. Il mondo si è avviato ad una trasformazione profonda e irreversibile delle proprie fondamenta ontologiche ed ontogenetiche. Una trasformazione che si comincia a percepire come molto “agita” ma, al contempo e con preoccupazione, anche poco “pensata”

Tutto il potere alle macchine?

Che cos'è l'automazione? Sta davvero per riconfigurare il nostro orizzonte pratico?
Automazione e ominazione sono processi che corrono paralleli. Le nostre società sono anche automatismi: culturali, biologici, materiali, regolatori, istituzionali. L’automazione, dunque, non è solo, spinta ingegneristica a costruire macchine e automi, ma una più complessiva prospettiva di senso e di produzione del nostro reale in divenire. A me pare, ora, che stia emergendo una “nuova” vocazione del mondo all’automaticità, un’inclinazione della nostra società nel suo complesso verso nuovi automatismi. È questo l’orizzonte di un mondo automato che urge e che merita di essere analizzato in sé, senza preconcetti neoluddisti, ma con apertura, consapevolezza e profondità. Una “ragion automatica” che non è, come dicevo, solo ed esclusivamente algoritmica o robotica, dimensioni per le quali è immediato ed evidente il richiamo all’automaticità. Più astrattamente, mi sembra di intravedere nell’automazione oggi in fieri una nuova “ontogenesi”, cioè un nuovo modo di essere, di generarsi e riprodursi (e distruggersi) del mondo. Azzarderei di più: questa ontogenesi è, in ultima istanza, una “ectogenesi”. Un mondo che cresce dentro e grazie a una macchina-matrice. Un mondo, cioè, che si avvia sempre più a essere allevato – metaforicamente, ma anche materialmente – in seno a una tecno-ecologia riproduttiva automata, come accade per le vite biologiche fatte crescere, all’esterno del loro ambiente naturale, dentro placente e incubatrici artificiali. La macchina-madre del mondo, dunque.

Ci spieghi bene questo passaggio…
Questa matrice automatica, questa nuova forza creatrice del mondo la vediamo già embrionalmente operare in molte dimensioni e industrie: nella produzione della conoscenza (machine e deep learning), nella creazione della fiducia (blockchain technology), nell’esecuzione della legge (smart contract), nell’attivazione degli scambi (automated markets), nella gestione della guerra (autonomous weapons), nel trading ad alta frequenza (high-frequency trading), nella manutenzione dei dati (autonomous datacenter), nell’editoria e nel giornalismo (automated journalism), nella consulenza patrimoniale (robo-advisor), nell’operatività chirurgica (robotic surgery), nell’agricoltura di precisione (farmbot), nella dislocazione logistica (logistics automation), nella governance delle organizzazioni decentralizzate (decentralized autonomous organization) e così via. La lista non è esaustiva ed è destinata certamente ad allungarsi.

​Chiedo sempre ai catastrofisti a quale “versione” dell’umano vorrebbero tornare, versione immaginata come priva di rischi, di discriminazioni, di violenze. E, per contraltare, però chiedo anche agli amici tecno-entusiasti di calibrare le loro prospettive da teologia della liberazione tecnologica. Le tecnologie da sole non salvano e non liberano. E non sono nemmeno neutre come si sente dire spesso. Vorrei allora proporre una prospettiva più consapevole sul tema della pericolosità dell’innovazione, parlando di vulnerabilità e non solo di rischio. I titoli sul rischio piacciono molto giornalisticamente, ma non aiutano il ragionamento. Spesso, poi, il rischio viene confuso con altro: contesti di ambiguità (il rischio è calcolabile, ma senza accordo sulle conseguenze) o di incertezza (c’è convergenza sulle conseguenze, ma non si può misurare l’impatto) o di ignoranza (non c’è omogeneità di vedute né il rischio è quantificabile)

Dunque, mi sembra chiaro che il futuro sarà automato incrociando, in forme nuove, tre dimensioni (io le chiamo le tre M): mani (forza fisica), menti (capacità cognitiva) e mercati (istituzioni di scambio). Non ci si pensa, ma il nostro tempo “presente”, per fare un esempio, dipende oggi dall’automazione. È solo grazie all’architettura computazione e reticolare automatizzata che possiamo usare applicazioni, dispositivi, piattaforme aggiornate “in tempo reale” come si dice. E se non è automato, è obsoleto: solo l’automazione riesce oggi a produrre il nostro mondo sempre più complesso e a salvarlo dalla distruzione o distruggerlo.

Pensiamo, per fare un altro esempio, alla cybersicurezza in cui oggi macchine si scontrano con macchine a livelli temporali e a scale inumane, inaccessibili all’umano. L’uomo è ridondante, quando non invalidante e, infatti, gli umani sono spesso l’anello debole negli attacchi informatici. Io dico che stiamo costruendo tecnologie “astensive” dell’umano e non “estensive” dell’umano, come siamo stati abituali storicamente. Non è necessariamente un male, ma il beneficio eticamente immaginato va verificato di volta in volta.

Che cosa ne facciamo dell'universo valoriale? In una delle sue lezioni, la quinta, lei ritorna sul tema etico: quale etica per l'automaticità? Quale design?
Una volta compresa questa vocazione all’automabilità contemporanea del mondo, possiamo guardare al tema della sua progettualità etica. Per chi e come stiamo costruendo questa nuova automazione?. I discorsi correnti, quelli dei tecno-ottimisti, dicono che la stiamo immaginando a beneficio dell’umanità. I tecno-pessimisti la aborrono criticandone prospettive teoriche e applicazioni pratiche con esempi conclamati di discriminazione algoritmica alla mano, per fare un esempio (per non dire della disoccupazione tecnologica da automazione). Generalmente, l’indicazione condivisa da molti è che l’intelligenza artificiale autonoma si possa e si debba sviluppare a vantaggio della società e dell’economia, senza però danneggiare la specie umana nelle sue prerogative chiave. E, anzi, si ritiene anche che, se ben orientati, i benefici dell’AI possano essere superiori ai rischi. In tal senso, si sta lavorando su possibili linee guida di regolamentazione etico-giuridica.

​L’innovazione si porta dietro una complessità che dobbiamo saper negoziare e gestire perché la tecnologia è il modo dell’umano di stare al mondo e ogni volta dobbiamo reimmaginare l’una insieme con l’altro

Il numero di marzo 2019 dei Proceedings della IEEE è stato centrato proprio su Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems. In sintesi, due le aree di intervento identificate: i) l’etica di tutti gli umani implicati a vario titolo nella progettazione, costruzione e istruzione delle macchine e ii) l’etica incorporabile nelle macchine stesse in grado di comportarsi in maniera moralmente guidata. Le proposte si vanno componendo in una discussione che è in corso, ma è complessa. Per esempio, i principi indicati in un altro recente documento EU di modelli e raccomandazioni per chi sviluppa intelligenza artificiale autonoma sono: beneficienza, non-maleficenza, autonomia, giustizia, esplicabilità.

È il tentativo di definire uno scenario etico, dando all'etica non una valenza "posturale" e, di conseguenza, giudicante ex post, ma considerandola nella sua doppia valenza di strumento per capire e finalità verso cui tendere e, di conseguenza, agire…
In questa prospettiva, lo sviluppo dell’AI dovrebbe: promuovere il benessere e la dignità personali e planetari, non danneggiare la riservatezza e la sicurezza degli individui, consentire sempre l’autonomia decisionale e il controllo da parte degli umani, sostenere la giustizia sociale e la solidarietà ridistributiva, richiedere spiegazione e trasparenza nelle scelte operate dagli algoritmi sia in senso epistemico sia in senso giuridico (come ha ragionato nella decisione? di chi è la responsabilità dell’azione?). Linee guida rilevanti e che vanno declinate naturalmente, anche nelle loro varianti particolari e d’eccezione. Per esempio, il principio dell’autonomia e del consenso del paziente in caso di medicina e intervento d’emergenza è ancora plausibile? Non c’è tempo e il paziente potrebbe non essere in condizioni di coscienza o non essere competente: in questo caso un robot assistivo (carebot) dotato di dispositivi salvavita dovrebbe poter intervenire? Fin dove può arrivare nell’informare e guidare le decisioni di cura rispettando il principio di beneficienza e quello di autonomia del paziente? e così via.

Il futuro sarà automato incrociando, in forme nuove, tre dimensioni (io le chiamo le tre M): mani (forza fisica), menti (capacità cognitiva) e mercati (istituzioni di scambio). Non ci si pensa, ma il nostro tempo “presente” dipende oggi dall’automazione. È solo grazie all’architettura computazione e reticolare automatizzata che possiamo usare applicazioni, dispositivi, piattaforme aggiornate “in tempo reale” come si dice. E se non è automato, è obsoleto: solo l’automazione riesce oggi a produrre il nostro mondo sempre più complesso e a salvarlo dalla distruzione o distruggerlo

La questione di che cosa può fare una macchina è però ancora più profonda e radicale. La stessa domanda, infatti, può essere posta in modo più provocatorio e, quindi, non solo “che cosa può fare”, ma “che cosa ha diritto” di fare una macchina?». O, in maniera più diretta, «possono e dovrebbero i robot avere diritti?». Può essere straniante, ma il diritto di cittadinanza di recente riconosciuto al robot Sofia testimonia di una questione che si apre. Al di là di queste prospettive di etica macchinica, credo tuttavia che una dimensione significativa di ethical design vada addebitata agli umani che costruiscono e addestrano gli automi. In questo senso, vorrei sollecitare ad un codice deontologico per programmatori e sviluppatori (come accade già per altre professioni: medici, avvocati, giornalisti) oltre che ad una maggiore etica delle organizzazioni, etica che spesso latita a prescindere da algoritmi e macchine in vista del solo profitto economico.

No news is fake news

Conoscere, lavorare, organizzare, distruggere, governare. Questi i cinque nodi tematici del Mondo ex machina. Possiamo ragionare attorno a quello che, nel mondo dell'informazione/comunicazione, è forse uno dei punti più critici: le fake news. Dopo le fake news, il prossimo problema saranno i falsi testi?" si chiedeva, qualche giorno fa, il magazine francese Atlantico.fr. Il riferimento è a GPT-2, un programma di AI ritenuto capace, in tempi rapidi, di creare testi a tal punto elaborati che non riusciremo a distinguerli da quelli scritti da un umano. Una conseguenza inevitabile? Di quali strumenti critici potremo dotarci di fronte all'automazione della falsificazione?
Ultimo arrivato, per ora, in termini di falsità è il cosiddetto deep fake, vale a dire la costruzione automatizzata di video o foto «fasulle» create da reti neurali artificiali con un grado di verosimiglianza straordinario. Queste reti si chiamano, tecnicamente, reti generative antagoniste o generative adversarial network (GAN) e nascono con l’intento di allenare l’algoritmo discriminatore (del vero) con i risultati di un algoritmo generatore (del falso). Abbiamo così dato vita a un’automazione della falsificazione (automated forgery): al grido di «questa persona non esiste», circolano in rete cataloghi di foto ultra-realistiche di persone (non reali) prodotte da algoritmi di deep learning. Da cui il termine, per l’appunto, di deep fake. Inoltre, con relativa facilità, è oggi possibile impadronirsi digitalmente del volto e del corpo digitali di chiunque per fargli dire e fare qualunque cosa. Il confine tra vero e falso (che sia digitale, sintetico o artificiale) è nuovamente in bilico come già accaduto, in realtà, anche in altre epoche mediali. Vorrei tuttavia proporre una lettura un po’ più sofisticata della risposta immediata e semplice di bandire e condannare questa falsità artificiale dilagante.

Naturalmente le «fake news non sono affatto una news», come ha scritto qualcuno, e anche la questione della cosiddetta post-verità non può dirsi, per i più avvertiti, una clamorosa novità. Men che meno per i filosofi che in fatto di esistenza della verità, di natura del falso o di strategie della conoscenza hanno una lunga storia di pensiero e riflessione. Ciò detto, occorre anzitutto riconoscere che, come sostengono alcuni analisti, «stiamo vivendo un’epoca di media inflazionari». Non è un unicum per la civiltà umana. In altri momenti della nostra storia ci siamo dovuti confrontare con le magnitudini dell’inflazionarietà mediale. Che non è solo caratterizzata dall’abbondanza di contenuti mediali che si producono in virtù delle rivoluzioni tecnologiche via via succedutesi.

Dicono alcuni mediologi che «un’era mediale non diventa inflazionaria semplicemente perché vi è una moltiplicazione di tipi, velocità e potere dei media. I media divengono inflazionari quando lo scopo della loro rappresentazione del mondo minaccia i confini della nozione culturale pregressa di realtà». Anche in altre epoche abbiamo dovuto affrontare il tema del vero e del falso. E per risolverla, in questo sta il punto anche per l’oggi, non abbiamo semplicemente dovuto e potuto mettere al bando il non vero applicando vecchi metodi. Abbiamo dovuto inventare saperi disciplinari nuovi per riuscire a discriminare lo sconfinamento delle realtà. Pensiamo al caso della donazione di Costantino, il documento con cui papa Silvestro I rivendicava il possesso di proprietà immobiliari, la sovranità sulle Chiese orientali e la superiorità del potere papale su quello imperiale. La rivendicazione faceva riferimento a un editto emesso dall’imperatore Costantino I che attribuiva al papato concessioni e primati. Utilizzato dalla Chiesa e dai papi per tutta l’epoca medievale a sostegno del loro potere, il documento si dimostrò una falsificazione, ma per poterne dimostrare la falsità abbiamo dovuto attendere Lorenzo Valla e l’invenzione di un nuovo sapere, la filologia, per poterlo confutare. Nel 1440, dopo un lungo e inedito studio storico-linguistico da cui poi nacque, per l’appunto, la disciplina filologica, l’umanista italiano dimostrò in modo inequivocabile che la pretesa donazione imperiale era, per l’appunto, un falso. In futuro, solo con l’ausilio delle macchine riusciremo a indagare il nuovo vero e il nuovo falso digitale, artificiale e sintetico. Saranno loro a creare l’effetto di realismo (per confonderci) e al contempo solo le macchine sapranno affinare le tecniche per smascherarlo.

Hic sunt drones

Lei ha uno sguardo ottimista, di fronte a molta letteratura apocalittica sul tema…
Io credo che abbiamo bisogno di meno letteratura apocalittica e più filosofia e pensiero intorno alla tecnologia. Il catastrofismo apocalittico non ci aiuta in nulla. Ci impedisce di vedere e indagare, di andare a capire e se nel caso aggiustare direzioni e orientamenti. Ci schiaccia sulla paura, ci gratifica con l’invettiva, ma non offre soluzioni costruttive in grado di beneficiare dell’avanzamento tecnologico tenendo a bada le sue vulnerabilità. E queste soluzioni è possibile cercarle e costruirle, come ad esempio sta provando a fare il prof. Alex Pentland con il suo laboratorio al MIT Human Dynamics.

Che cosa pensa dei catastrofisti?
Chiedo sempre ai catastrofisti a quale “versione” dell’umano vorrebbero tornare, versione immaginata come priva di rischi, di discriminazioni, di violenze. E, per contraltare, però chiedo anche agli amici tecno-entusiasti di calibrare le loro prospettive da teologia della liberazione tecnologica. Le tecnologie da sole non salvano e non liberano. E non sono nemmeno neutre come si sente dire spesso. Vorrei allora proporre una prospettiva più consapevole sul tema della pericolosità dell’innovazione, parlando di vulnerabilità e non solo di rischio. I titoli sul rischio piacciono molto giornalisticamente, ma non aiutano il ragionamento. Spesso, poi, il rischio viene confuso con altro: contesti di ambiguità (il rischio è calcolabile, ma senza accordo sulle conseguenze) o di incertezza (c’è convergenza sulle conseguenze, ma non si può misurare l’impatto) o di ignoranza (non c’è omogeneità di vedute né il rischio è quantificabile).

Per chiarezza, il rischio andrebbe riservato, allora, solo alle situazioni in cui ci sia unanimità di giudizio tra le parti e si possa dare una misura precisa delle conseguenze di una determinata azione. Vulnerabilità, invece, è un concetto più ampio di rischio e in grado di includere situazioni in cui gli esiti e i contesti sono più difficili da quantificare. Il concetto di rischio ha un approccio decisamente più quantitativo. La stima del rischio, di norma, è la probabilità dell’azzardo moltiplicato per l’impatto dell’azzardo e così viene di solito trattato da ingegneri e scienziati naturali. Ma noi abbiamo bisogno invece di un orizzonte interpretativo più qualitativo e aperto che richiede una concettualizzazione filosofica e una riflessione critica insieme ad una governance sociale e politica chiara e condivisa sul destino dell’umanità (e della tecnologia) che vogliamo costruire.

Abbiamo bisogno di un orizzonte interpretativo più qualitativo e aperto che richiede una concettualizzazione filosofica e una riflessione critica insieme ad una governance sociale e politica chiara e condivisa sul destino dell’umanità (e della tecnologia) che vogliamo costruire

Da questo puntro prospettico, si riapre il grande tema dell'innovazione e dell'innovazione sociale. Se ne è parlato molto in questi anni, ma la mia impressione è che raramente si sia toccato il cuore del problema: la complessità. Che ne pensa?
L’innovazione si porta dietro una complessità che dobbiamo saper negoziare e gestire perché la tecnologia è il modo dell’umano di stare al mondo e ogni volta dobbiamo reimmaginare l’una insieme con l’altro. In questo senso, nell’anno che celebra il cinquecentenario della morte di Leonardo, icona dell’umanesimo rinascimentale, è importante richiamare un orizzonte forse poco noto, ma credo significativo per questo nostro discorso. Personalità geniale, Leonardo si nutre anche (ma non solo) del contesto e del lavoro di quanti disegnarono, progettarono e costruirono macchine e marchingegni nei primi cinquant’anni del Quattrocento. Lui era nato nel 1452 e morirà, per l’appunto, nel 1519. In particolare, mi riferisco qui agli ingegneri senesi. Indubbiamente la maestria artistica e il genio di Leonardo sono di livello superiore (lo si vede dai disegni a confronto), ma lo spirito innovativo di un Mariano di Jacopo o di un Francesco di Giorgio ha lo stesso humus e la stessa impronta.

C’è, però, una differenza fondamentale tra gli ingegneri di Siena e i lavori di Leonardo che è, almeno per me, illuminante. Ce la ricorda Plinio Innocenzi nel suo recente “The Innovators Behind Leonardo”. Di Giorgio e di Jacopo (detto Taccola) nei disegni delle loro macchine erano interessati a come queste potessero alleviare le difficoltà di lavoro degli uomini. Con empatia umana, li dipingono intenti a pescare, al lavoro coi mulini, affaticati a tirar su l’acqua da un pozzo. In questi disegni, l’uomo è però già sempre dato nella sua essenza e la macchina è di ausilio al suo quotidiano. Per Leonardo è diverso, ci dice Innocenzi: “Leonardo ha un interesse verso la macchina molto più astratto e anche l’uomo per lui diviene oggetto di ricerca”. Ecco, credo che questa ultima riflessione colga pienamente l’intento della mia esplorazione. Non possiamo progettare nuove macchine senza tornare nuovamente a dissezionare (metaforicamente) l’uomo e la sua nuova condizione – come fece Leonardo con le sue “natomie” sui cadaveri. Nell’immaginare i benefici del macchinico, dobbiamo tornare a interrogarci nuovamente sul senso dell’umano.

Ci vuole coraggio e cautela nell’attraversare le terre incognite ed inesplorate della nuova automazione sulla mappa è scritto: hic sunt drones.

L'OSPITE

Cosimo Accoto è attualmente Research Affiliate al MIT di Boston (presso il MIT SSRC Sociotechnical Systems Research Center affiliato al MIT IDSS Institute for Data, Systems and Society). Oltre a Il mondo ex machina. Cinque brevi lezioni di filosofia dell’automazione (Egea, maggio 2019), ha pubblicato Il mondo dato. Cinque brevi lezioni di filosofia digitale (Egea, 2017; ed. inglese curata da Derrick de Kerckhove, In Data Time and Tide, Bocconi University Press, ottobre 2018 ) che sintetizza la sua attuale ricerca nell’innovazione strategica di business su code economy, data science, artificial intelligence, platform thinking e blockchain business. È autore e coautore di diversi saggi (tra cui Misurare le audience in internet e Social mobile marketing) insieme ad articoli di business (tra cui Intelligenza artificiale: da archivio a oracolo, 2017) apparsi, tra gli altri, sulle riviste Economia & Management della SDA Bocconi e Harvard Business Review Italia (Il business di imprese e piattaforme, 2018). Il suo percorso professionale è maturato nella consulenza strategica di management come partner e responsabile per le strategie d’innovazione, nell’industria internazionale della misurazione di internet e della digital analytics come direttore commerciale e in società leader mondiali nello sviluppo di piattaforme per la data intelligence.

Il LIBRO

Cosimo Accoto, Il mondo ex machina. Cinque brevi lezioni di filosofia dell'automazione, Egea, Milano, 2019, euro 19


Qualsiasi donazione, piccola o grande, è
fondamentale per supportare il lavoro di VITA