Sezioni

Attivismo civico & Terzo settore Cooperazione & Relazioni internazionali Economia & Impresa sociale  Education & Scuola Famiglia & Minori Leggi & Norme Media, Arte, Cultura Politica & Istituzioni Sanità & Ricerca Solidarietà & Volontariato Sostenibilità sociale e ambientale Welfare & Lavoro

Media, Arte, Cultura

Facebook e le bufale

Dall'elezione di Trump fino al referendum italiano passando per Brexit. Ad ogni passaggio elettorale degli ultimi anni, in tutto il mondo, la diffusione di notizie false tramite social è diventata una questione imponente. Luca De Biase, nella sua rubrica “Infosfera” sul nuovo numero di Vita ha affrontato la qualità dell'informazione

di Luca De Biase

Con la vicenda Trump il dibattito sulla disinformazione in rete è diventato imponente.

Le osservazioni più frequenti degli analisti più attenti si concentrano sulla tendenza dei social network a dividere il pubblico in gruppi di persone che si assomigliano rendendo più probabile la diffusione di notizie gradite in quei gruppi, indipendentemente dal fatto che siano vere o false. Molti commentatori meno attenti si limitano a lamentare la disinformazione e a prendersela con internet, il web, la dipendenza dal cellulare, l’indifferenza di Facebook. Ma il problema è: che cosa facciamo?

Alla radice del problema c’è il fatto che, mentre nell’epoca della scrittura analogica le risorse per la pubblicazione erano scarse e dunque si tendeva a selezionare l’informazione prima di pubblicarla, nell’epoca digitale si tende a scrivere tutto e a selezionare l’informazione dopo che è già stata pubblicata. E poiché la quantità di informazione pubblicata è abnorme, si scrivono algoritmi che gestiscano la selezione ex post.

La scrittura degli algoritmi è ovviamente realizzata secondo progetti che contengono gli incentivi fondamentali delle strutture che li producono: c’è la necessità tecnologica di fare una tecnologia che funzioni, c’è la necessità economica di fare algoritmi che massimizzino il profitto, c’è la volontà culturale di interpretare le esigenze del pubblico che ha bisogno di una selezione dell’informazione e così via. La quantità di informazione si trasforma in qualità soltanto in base alla selezione: sulla scorta dell’idea che poiché tutto è pubblicato basti trovare il meglio.

Tim O’Reilly ha scritto un articolo molto interessante in proposito: “Media in the Age of Algorithms”. O’Reilly dice che è un problema tecnologico. Osserva che Google ha trovato una metodologia molto efficiente e piuttosto credibile per selezionare i link che restituisce al pubblico che fa la search e che Facebook non l’ha trovata. Google però è stata favorita dal fatto che il motivo per cui gli utenti cercano sul suo motore è proprio quello di trovare le informazioni più rilevanti intorno alla loro curiosità e che se tra quelle informazioni rilevanti c’è anche quella pubblicitaria per loro va bene: quindi il criterio di selezione e il modello di business sono coerenti.

Nel caso di Facebook non è così, perché il social network è fatto essenzialmente per ingaggiare gli utenti e questi non cercano necessariamente informazioni rilevanti ma cercano piuttosto relazioni con altri, amici o persone simili a loro: la pubblicità su Facebook è targettizzata sulle caratteristiche, i valori e gli interessi degli utenti che emergono dalle loro opinioni e comportamenti, ma non è direttamente collegata con la qualità dell’informazione che cercano.

È chiaro che Facebook si pone il problema e cerca una soluzione: perché la sua credibilità di fondo è comunque importante per il suo business nel lungo termine. Ma per ora non ha trovato una soluzione paragonabile a quella che Google è stata incentivata più direttamente a sviluppare. Può essere che Facebook riesca a risolvere il problema della circolazione delle bufale sul social network? O ci vorrà un approccio totalmente nuovo che non verrà mai in mente ai tecnici di Facebook?

Google ha trovato una metodologia molto efficiente e piuttosto credibile per selezionare i link che restituisce al pubblico. Facebook invece ancora no

L’ipotesi che Facebook si doti di giornalisti può essere presa in considerazione. Ma basteranno mai gli umani esperti a gestire l’infinita quantità di informazione che circola sul social network? D’altra parte gli algoritmi da soli potranno mai arrivare a verificare fonti e documentazione delle informazioni che circolano in rete? Un approccio nuovo che venga dalla metodologia della ricerca di informazione in passato sviluppata dal migliore giornalismo e che dovrebbe diventare parte di una nuova piattaforma nella quale incentivi, interfacce, modelli di business, aspettative e comportamenti sono coerenti con la selezione dell’informazione in base alla qualità della documentazione e della ricerca che la attesta e la genera. Non è detto che la faccia Facebook questa cosa. Google sta facendo qualcosa in questo senso. Potrebbe venire da giornali, biblioteche, musei, università, archivi, il cui approccio metodologico potesse diventare una sorta di ispirazione per tecnologie moderne e attente alla qualità dell’informazione. Ma di certo occorre che quelle istituzioni facciano un salto di qualità a loro volta culturale per farcela.

Joi Ito ha sottolineato che il problema etico ed epistemologico deve trovare una soluzione embeddata nel codice. Non è facile. Ma chi ha detto che sia facile? Ci sono voluti secoli di stampa prima di arrivare a Economist, Le Monde e New York Times. Il punto di partenza è porre il problema in modo corretto. Il seguito sarà scritto da una quantità di tentativi errati, fatiche immani, idee geniali, spostamenti di prospettiva: fino a che il contesto non sarà abbastanza maturo. L’ecologia dei media insegna anche la pazienza.


PER LEGGERE IL NUOVO NUMERO DI VITA BOOKAZINE CLICCA QUI



Qualsiasi donazione, piccola o grande, è
fondamentale per supportare il lavoro di VITA