Tecnologia e democrazia: come i social media influenzano il nostro comportamento politico
Rapporto Jrc: le nostre democrazie sotto pressione a causa dell’informazione scorretta e delle fake news
[29 Ottobre 2020]
Un tempo in Italia si discuteva appassionatamente su quanti voti spostasse la televisione e molti editorialisti e politici minimizzavano sul fatto che condizionasse davvero “solo” il 10% o poco più dell’elettorato, peccato che in un sistema elettorale bipolare e maggioritario quale quello di allora il 10% in più o in meno rendesse praticamente certa la vittoria alle elezioni e che le televisioni fossero in mano al capo di una delle due parti politiche, Silvio Berlusconi. Ora, pur restando la TV una “fabbrica” di consenso politico, quei tempi sembrano preistoria, visto che il 48% degli europei usa i social media ogni giorno o quasi e che i social network, oltre ad essere strumenti per rimanere informati (o disinformati), divertirsi, fare acquisti e mantenere amicizie hanno rivoluzionato il modo in cui viviamo la politica, coinvolgendo più cittadini nel processo politico e consentendo alle voci delle minoranze di essere ascoltate. Ma Facebook, Twitter e dintorni permettono anche di diffondere più facilmente messaggi faziosi, fake news e “informazioni” inaffidabili e hanno spolpato la pratica politica quotidiana riducendola a rapidi input propagandistici e troppo spesso a una serie di insulti incrociati.
Secondo il nuovo rapporto “Technology and Democracy: understanding the influence of online technologies on political behaviour and decision-making” del e Joint Research Centre (JRC), il servizio scientifico della Commissione europea, «Questo può limitare le nostre prospettive e ostacolare la nostra capacità di prendere decisioni politiche informate. E ha un impatto pericoloso sulle nostre società democratiche».
Per studiare l’impatto delle piattaforme online sul comportamento politico, il team internazionale di esperti che ha realizzato il rapporto ha adottato un approccio basato sulla scienza comportamentale e ha così identificato i principali “punti di pressione”: le sfide che emergono quando interagiamo politicamente sui social network online che non sono soggetti a un controllo pubblico o alla governance democratica.
Il principale autore del rapporto, Stephan Lewandowsky, sottolinea che «I componenti essenziali del comportamento umano sono governati da principi relativamente stabili che rimangono in gran parte statici anche se l’ambiente tecnologico cambia rapidamente. In assenza di riflessioni comportamentali, i responsabili politici possono ritenere di stare cercando costantemente di recuperare il loro ritardo con i progressi tecnologici. Questo rapporto cerca di aiutare i responsabili politici a riprendere l’iniziativa».
Al Jrc aggiungono che «Mentre la Commissione europea prepara un nuovo piano d’azione per la democrazia europea , la legge sui servizi digitali e la relazione sulla cittadinanza dell’UE 2020 , questa ricerca è concepita per aiutare i cittadini, la società civile e i responsabili politici a dare un senso all’impatto che il mondo online sta avendo sulle nostre decisioni politiche e identificare le azioni salvaguardare un futuro europeo partecipativo e democratico».
Il primo punto di pressione individuato nel rapporto è l'”economia dell’attenzione”: «Quando siamo online – spiegano i ricercatori – la nostra attenzione e il nostro coinvolgimento vengono venduti come prodotti agli inserzionisti. Le organizzazioni private che gestiscono i servizi online che utilizziamo sono diventate molto abili nel catturare e mantenere quell’attenzione, nella misura in cui le nostre opinioni e azioni politiche possono essere modellate senza che noi ci rendiamo conto di cosa c’è dietro quell’influenza».
Ad esempio, YouTube ammette che il suo algoritmo che ci raccomanda i video, che seleziona automaticamente i video a cui pensa che un utente sarà interessato, determina il 70% del tempo di visualizzazione sul sito. Ci sono anche prove che le raccomandazioni di YouTube stanno attirando gli spettatori verso contenuti sempre più estremisti.
Analizzando solo 300 Mi piace, l’algoritmo di Facebook può prevedere la personalità di un utente con maggiore precisione rispetto al suo coniuge. Il Jrc evidenzia che «Questo solleva preoccupazioni sul “microtargeting”: annunci pubblicitari altamente personalizzati diretti agli utenti in base alla loro personalità. Se usato politicamente, il microtargeting ha un potenziale considerevole di poter minare il confronto democratico, un fondamento della scelta democratica».
Il secondo punto di pressione sono le “architetture scelte”: «Per incoraggiare le persone a impegnarsi e condividere costantemente, le piattaforme dei social media utilizzano diverse tecniche comportamentali, con impostazioni e opzioni che rendono molto più complicato lasciare una piattaforma piuttosto che iscriversi – fanno notare i ricercatori – Quando svolgono attività di base online, gli utenti generalmente non hanno familiarità con i dati che producono e forniscono ad altri, così come con il modo in cui tali dati vengono raccolti e archiviati».
Al terzo posto c’è la “cura algoritmica dei contenuti”: «Gli algoritmi che selezionano le informazioni che vediamo online sono così complessi che anche i loro sviluppatori hanno difficoltà a spiegarli». Questo pone solleva evidenti problemi di trasparenza e responsabilità ed è particolarmente problematico perché questi algoritmi possono incoraggiare discorsi polarizzati o impedirci di ricevere determinate informazioni.
Il rapporto evidenzia che «Su piattaforme come Twitter, Reddit e Facebook, gli algoritmi danno la priorità ai contenuti che hanno, o dovrebbero avere, un alto livello di coinvolgimento. Il rischio è una sovraesposizione di contenuti polarizzanti e controversi e una sottoesposizione per i contenuti meno emotivi, ma più informativi.
Il punto di pressione finale individuato è “l’informazione scorretta e la disinformazione”. Un recente sondaggio Eurobarometro realizzato in tutta l’Unione europea ha rivelato che oltre la metà della popolazione afferma di imbattersi in fake news online almeno una volta alla settimana e i ricercatori del Jrc sottolineano che «La scienza comportamentale dimostra che le persone hanno una predisposizione a orientarsi verso notizie negative. Se abbinate ad algoritmi che promuovono contenuti con un alto livello di coinvolgimento, le piattaforme online possono facilmente amplificare la portata di informazioni false e fuorvianti. Questo è particolarmente preoccupante quando informazioni false e fuorvianti hanno il potenziale di fissare l’agenda politica, incentivare l’estremismo e alla fine portare a un mondo “post-verità” nel quale, nel plasmare l’opinione pubblica, i fatti hanno meno influenza rispetto alle emozioni e alle convinzioni personali».
Il rapporto rileva che esiste già una legislazione che si applica al mondo online e che attualmente a livello europeo stanno prendendo forma diverse iniziative normative come le norme sulla protezione dei consumatori che hanno portato alla rimozione di una grande quantità di disinformazione sul Covid-19 su Facebook e la direttiva sui servizi di media audiovisivi dell’UE che regola i contenuti su YouTube e altri siti.
Nel tentativo di contrastare l’estremismo, l’EU Internet Forum riunisce governi, Europol e le più grandi società tecnologiche e di social media per garantire che i contenuti illegali, inclusa la propaganda terroristica, siano identificati e rimossi il più rapidamente possibile.
Il rapporto fornisce ai responsabili politici spunti di scienza comportamentale che possono essere applicati in diversi settori, dalla lotta alla attiva all’informazione scorretta e alla disinformazione, alla salvaguardia dei procedimenti elettorali e alla facilitazione del dibattito pubblico.
Al Jrc aggiungono che «Azioni specifiche potrebbero includere il divieto del microtargeting per gli annunci politici, regole di trasparenza in modo che gli utenti comprendano come un algoritmo utilizza i loro dati e con quale effetto, o richiedere alle piattaforme online di fornire rapporti agli utenti che mostrano quando, come e quali dei loro dati vengono venduti. I responsabili politici devono perseguire questo tipo di azioni insieme a sforzi più ampi per impegnarsi politicamente in modo significativo con i cittadini per comprendere i loro diversi valori e prospettive e ristabilire la fiducia nelle istituzioni politiche».
Guardando al futuro, il rapporto avanza anche una previsione strategica per delineare possibili scenari futuri per lo spazio europeo dell’informazione nel 2035, «per aiutare i responsabili politici a immaginare come le scelte fatte ora potrebbero plasmare, ed essere plasmate, dal futuro delle nostre società».