event_image_hires-300x228

I troppi finti profili che inquinano la politica sui social

È possibile che le prossime elezioni siano decise e manipolate dal popolo dei Bot.

Non parlo dei detentori di titoli pubblici italiani, ma dei bot: applicazioni software che creano automaticamente profili finti (fake) e contenuti sui social network e nelle chat (chat bot) simulando persone vere.

Intervenendo a Berlino dopo le elezioni, Barack Obama ha denunciato il fenomeno, affermando che se non si distingue tra ciò che è falso e ciò che è vero, le libertà democratiche sono a rischio.

Anche i proprietari dei social iniziano a rendersi conto del problema. Mark Zuckerberg, fondatore di Facebook, pur avendo scritto in un post che il tema non è poi così rilevante e che i fake rappresentano meno dell’1% dei contenuti di Facebook, ha annunciato una serie di azioni finalizzate a limitare l’uso di bot. Lo stesso sta facendo Google.

Nella recente campagna americana, l’uso dei bot ha raggiunto livelli mai visti.

Due ricercatori di University of Southern California hanno analizzato 20,7 milioni di tweet, utilizzando un algoritmo “scova-fake” da loro ideato. Ne è emerso un quadro preoccupante: 3,8 milioni di Tweet su 20,7 (19%) sono stati generati da 400.000 bot, su un totale di 2,8 milioni di account (15%).

Questa enorme massa di bot viene usata nella maggioranza dei casi per diffondere e condividere notizie false o contenuti aggressivi.

Un altro studio sul voto americano ha analizzato i post pubblicati su sei pagine Facebook politiche radicali di grande successo; tre di destra e tre di sinistra. Il 38% dei post pubblicati sulle pagine di destra e il 19% di quelli pubblicati sulle pagine di sinistra è risultato del tutto falso o fuorviante.

Queste notizie false hanno un tasso di condivisione e di diffusione su Facebook molto maggiore rispetto a quelle vere pubblicate sui siti dei giornali più autorevoli e con l’approssimarsi del voto la cosa diventa esponenziale: hanno molto più successo le notizie false di quelle vere.

La maggiore diffusione delle bufale non è solo il risultato della maggiore attrattività delle sparate violente o esagerate. Deriva anche dall’uso dei bot. È stato dimostrato, infatti, che l’algoritmo utilizzato da Facebook ha caratteristiche tecniche che finiscono per rendere più virali le notizie generate dagli account fake rispetto a quelle generate da account aperti da esseri umani.

Per riassumere: ogni volta in cui parte una campagna elettorale, migliaia di utenti-robot mascherati da persone reali invadono la rete con post falsi o aggressivi, che diventano virali molto più velocemente delle notizie autentiche e dei post scritti da esseri umani.

Obama ha ragione: è un fenomeno pericolosissimo.

In politica, e in generale nelle dinamiche sociali, i comportamenti e le scelte individuali sono spesso guidati dal cosiddetto herd effect (effetto gregge). Lo hanno studiato psicologi e sociologi e si può riassumere dicendo che i singoli tendono ad aggregarsi alla massa e a seguirne gli orientamenti e le scelte. Se vedo un gruppo di persone molto grande che compra un prodotto, sostiene un partito o segue un leader, sono più propenso a farlo anche io. E questo avviene ancora più facilmente se il gruppo si riunisce intorno a messaggi semplici, forti, aggressivi.

Lo herd effect è amplificato sui social network, dove la tendenza all’aggregazione è favorita dall’immediatezza e dall’universalità della comunicazione, che può raggiungere a distanza con grande efficacia un enorme numero di persone con messaggi semplici e immediati e con un forte effetto moltiplicativo.

Già nel 2011, dallo studio di due ricercatori norvegesi emergeva una relazione più che proporzionale tra il numero di like presenti su un post e la probabilità che un altro utente aggiungesse anche il suo.

Usando i bot, partiti e personaggi politici moltiplicano artificialmente like e condivisioni. Creano così un “gregge virtuale” fatto di account fake che convince l’utente “vero” di trovarsi di fronte a un movimento con molti sostenitori e lo porta ad aderire più facilmente al progetto politico.

Il problema è che potrebbe essere l’unico umano a farne parte.

Sembra paradossale, ma è possibile: in astratto, una singola persona potrebbe creare un partito da solo, generando un consenso molto ampio attraverso l’uso di account artificiali e la pubblicazione, condivisione e diffusione di notizie, magari false.

Un’assurda distorsione della realtà sociale e politica che potrebbe ingannare molti elettori.

Si dirà che anche i media tradizionali possono manipolare i lettori, diffondere falsità, favorire questo o quel partito, alterare l’equilibrio democratico. Ed è vero.

Ma l’utente che legge un articolo postato da un giornale online sa di trovarsi di fronte a un editore e non a un elettore come lui. Non ha la sensazione che la posizione sostenuta nell’articolo stia “vincendo” politicamente. Non sente il richiamo del gruppo che invece è fortissimo di fronte a migliaia di (finti) like e condivisioni di altri utenti.

Quante volte in passato abbiamo visto critiche severissime e sacrosante a servizi dei telegiornali che mostravano piazze piene quando in realtà la presenza a un evento politico era stata scarsa. I fake su Facebook fanno una cosa molto simile, ma la fanno ogni giorno, e con effetti enormemente più pericolosi.

Questo tipo di propaganda fatta di notizie false e sostenitori-robot è una forma di manipolazione del “mercato” del consenso. Vero e proprio aggiotaggio politico.

Andando avanti così, lo scontro politico si baserà più sulla scelta del bot migliore che sulle idee che si portano avanti. E siccome i bot sono diffusissimi anche nella politica italiana, è urgente avviare anche da noi un dibattito serio sulla loro regolamentazione.

Nel nostro diritto, infatti, non esistono norme direttamente applicabili per limitare questa forma di “inganni social”. Alcune fattispecie penalistiche, come l’art. 494 c.p. che vieta la sostituzione di persona o l’attribuirsi un falso nome e già applicato al web, o l’art. 656, che vieta la diffusione di notizie false o tendenziose che turbino l’ordine pubblico, possono costituire delle basi da cui partire, ma sono di difficile applicazione.

È però utile ricordare che la Corte Costituzionale ha chiarito da tempo (sent. 19/1962), proprio con riguardo all’applicazione dell’articolo 656 c.p. alla politica, che la tutela della libera manifestazione del pensiero trova il suo limite nella necessità di tutelare altri valori fondamentali costituzionalmente rilevanti. Vale la pena citarne le parole “non si vede come la libertà di associazione in generale e quella di associazione in partiti politici in particolare possano valere a far considerare coperta da garanzia costituzionale la possibilità di divulgazione di notizie alterate, idonee a turbare l’ordine pubblico”.

Nel caso dei bot, il valore costituzionale da tutelare non è l’ordine pubblico in senso stretto, ma un principio forse ancora più rilevante: il funzionamento del sistema democratico e la libera formazione del voto dei cittadini.

Per questo si deve intervenire e disciplinare il fenomeno, coinvolgendo i gestori dei social network, che sono gli unici a poter rendere efficaci le forme di tutela che si deciderà di adottare.

Non sarà semplice, perché il controllo non può trasformarsi in censura e perché i falsi profili vengono spesso usati per mantenere l’anonimato in paesi dal regime autoritario.

Ma bisogna farlo subito, prima che il nostro sistema democratico venga contaminato dall’invasione degli utenti-robot.

pubblicato sul Sole 24 Ore del 29 novembre 2016