Gli algoritmi dei social media amplificano i contenuti misogini per gli adolescenti
TikTok e altri social media diffondono contenuti estremi, come i post misogini, che normalizzano ideologie dannose per i giovani
[14 Febbraio 2024]
Il rapporto “Safer scrolling – How algorithms popularise and gamify online hate and misogyny for young people”, realizzato in collaborazione da University College London (UCL), università del Kent e Association of School and College Leaders (ASCL), ha rilevato «Un aumento di quattro volte del livello di contenuti misogini nella pagina “For You” degli account TikTok in soli 5 giorni».
Attraverso interviste con giovani e dirigenti scolastici, i ricercatori hanno anche scoperto che «Ideologie piene di odio e luoghi comuni misogini sono passati dagli schermi alle scuole, diventando parte integrante delle principali culture giovanili».
Gli autori del rapporto sottolineano la necessità di «Un approccio all’istruzione basato su una “dieta digitale sana” per sostenere i giovani, le scuole, i genitori e la comunità in generale. E’ anche essenziale sostenere la voce dei giovani stessi, in particolare includere i ragazzi nelle discussioni sulla misoginia online, e suggeriscono un approccio di “mentoring peer-to-peer”».
La principale autrice del rapporto, Kaitlyn Regehr di UCL Information Studies, ha sottolineato che «I processi algoritmici su TikTok e altri siti di social media prendono di mira le vulnerabilità delle persone – come la solitudine o la sensazione di perdita di controllo – e gamificano contenuti dannosi. Dato che i giovani si concentrano su argomenti come l’autolesionismo o l’estremismo, per loro sembra intrattenimento. I luoghi comuni e le visioni dannose si stanno ormai normalizzando tra i giovani. Il consumo online sta influenzando i comportamenti offline dei giovani, poiché vediamo queste ideologie spostarsi dagli schermi ai cortili delle scuole. Inoltre, gli adulti spesso non sono consapevoli di come funzionano i processi algoritmici dannosi, o di come potrebbero alimentare la dipendenza dai social media, rendendo difficile la genitorialità riguardo a questi problemi».
I ricercatori hanno iniziato lo studio intervistando i giovani che si impegnavano e producevano contenuti online radicali e spiegano che «Questo ha poi informato lo studio algoritmico nella creazione di archetipi, per rappresentare tipologie di adolescenti che potrebbero essere vulnerabili alla radicalizzazione a causa dei contenuti online».
I ricercatori hanno creato account su TikTok per ciascun archetipo, con interessi di contenuto distinti tipici di questi archetipi (ad esempio, cercare contenuti sulla mascolinità o affrontare la solitudine) e hanno utilizzato questi account per guardare i video suggeriti da TikTok nella sua sezione “For You”, per un periodo di 7 giorni.
All’UCL evidenziano che «Il contenuto inizialmente suggerito era in linea con gli interessi dichiarati di ciascun archetipo, ad esempio con materiale che esplorava temi della solitudine o del miglioramento personale, ma poi si è concentrato sempre più sulla rabbia e sulla colpa attribuita alle donne. Dopo cinque giorni, l’algoritmo di TikTok presentava 4 volte più video con contenuti misogini come oggettivazione, molestie sessuali o discredito delle donne (passando dal 13% dei video consigliati al 56%)».
Il team di ricerca ha tenuto tavole rotonde e interviste con dirigenti scolastici che hanno confermato che i luoghi comuni misogini si stanno normalizzando anche nel modo in cui i giovani interagiscono di persona.
I ricercatori hanno formulato alcune raccomandazioni: «Ritenere responsabili le social media companies ed esercitare pressioni su di loro affinché affrontino il danno causato dai loro algoritmi e diano priorità al benessere dei giovani rispetto al profitto. Implementare l’educazione a una “dieta digitale sana”, che consideri diversi tipi di tempo trascorso davanti allo schermo e di contenuti digitali con cui i giovani interagiscono, in modo simile a diversi gruppi alimentari, considerando quanto ne viene consumato, come può diventare “ultra-elaborato” a causa degli algoritmi e i potenziali impatti sulla salute mentale e fisica. Tutoraggio peer to peer, che consente agli alunni più grandi di lavorare con i loro coetanei più giovani e aiutare a coinvolgere i ragazzi nelle discussioni sulla misoginia. Promuovere una più ampia consapevolezza dei processi algoritmici tra i genitori e la comunità in generale».
I ricercatori dicono che la loro ricerca potrebbe essere applicata in modo simile ad altre piattaforme di social media, supportata dalla ricerca di altri gruppi su Instagram e YouTube, ad esempio, mentre «Gli algoritmi dei social media possono anche favorire altri tipi di contenuti dannosi come materiale autolesionista o ideologie estreme».
Precedenti ricerche alla quale hanno partecipato la Regehr e i suoi colleghi dell’UCL hanno scoperto che «La violenza sessuale online è abitualmente vissuta da donne e ragazze, un dato che è ulteriormente aumentato negli ultimi anni». Nel 2022 questo lavoro è stato inserito nella nuova legislazione sul digital flashing.
Il segretario generale dell’ ASCL, Geoff Barton, conclude: «I risultati dell’UCL dimostrano che gli algoritmi – dei quali la maggior parte di noi sa poco – hanno un effetto a valanga in cui forniscono contenuti sempre più estremi sotto forma di intrattenimento. Questo è profondamente preoccupante in generale, ma lo è soprattutto per quanto riguarda l’amplificazione dei messaggi sulla mascolinità tossica e il suo impatto sui giovani che hanno bisogno di poter crescere e sviluppare la loro comprensione del mondo senza essere influenzati da materiale così spaventoso. Accogliamo con favore l’appello a coinvolgere i giovani, in particolare i ragazzi, nel dialogo per combattere questo problema insieme ai loro coetanei e alle famiglie. Chiediamo a TikTok in particolare e alle piattaforme di social media in generale di rivedere urgentemente i loro algoritmi e di rafforzare le misure di salvaguardia per prevenire questo tipo di contenuti, e al governo e a Ofcom di prendere in considerazione le implicazioni di questo problema sotto gli auspici del nuova legge sulla sicurezza online. E’ tempo di agire piuttosto che parlare ancora di azione».