“Film your Hospital”: anatomia di una teoria cospirativa

La pandemia avrebbe dato vita ad almeno dieci teorie del complotto. La nuova malattia è stata collegata, come sappiamo, alla nuova rete 5G, infatti alcune antenne telefoniche sono state danneggiate o date alle fiamme proprio da chi crede a queste teorie bislacche

0
877

Molti ritengono che le teorie complottiste sui vari social media siano create da oscure entità, ma Wasim Ahmed Docente di Digital Business alla Newcastle University in un articolo su The Conversation spiega come i racconti delle persone comuni possano diventare un veicolo per diffondere bufale e disinformazione. Ahmed ha studiato una teoria che ha grande seguito, quella sulla cospirazione del COVID-19.
La pandemia avrebbe dato vita ad almeno dieci teorie del complotto. La nuova malattia è stata collegata, come sappiamo, alla rete 5G, infatti alcune antenne telefoniche sono state danneggiate o date alle fiamme proprio da chi crede a queste teorie bislacche. Per altri la pandemia è stata da alcuni causata da una qualche arma biologica. Chi cade in queste trappole tende spesso a ignorare le regole di distanziamento che potrebbero limitare la diffusione del virus.

Cos’è il movimento #FilmYourHospital?

Anche questo movimento, come scrive Ahmed è una teoria del complotto. Il movimento ha incoraggiato le persone a registrare video di se stesse in ospedali apparentemente vuoti o poco affollati per dimostrare che la pandemia è un’invenzione per ingannare il popolo e tenerlo al guinzaglio. La ricerca condotta da Ahmed ha cercato di identificare i responsabili cercando di capire se gli account dietro di essa fossero bot o persone reali.
Ahmed fa due conti e nell’articolo su The Conversation ci racconta che la cospirazione del 5G ha attirato 6.556 utenti Twitter nel corso di una sola settimana. La cospirazione #FilmYourHospital molti di più, 22.785 tweet inviati in una sola settimana da 11.333 utenti. Questa cospirazione ha ricevuto un forte sostegno internazionale.
Il un grafico molto particolare, Ahmed ci mostra gli utenti Twitter come piccoli cerchi e la discussione generale è raggruppata in un numero di gruppi diversi. Questi gruppi si aggregano in base al modo in cui gli utenti si menzionavano e si ritrovavano a vicenda.
file 20201013 19 tkfgaf
La visualizzazione evidenzia i tre grandi gruppi responsabili di diffondere maggiormente la cospirazione. Ad esempio, la discussione nei gruppi uno e due era incentrata su un un tweet che è stato ritwittato ripetutamente. Il tweet affermava come il pubblico fosse stato tratto in inganno e che gli ospedali non fossero occupati o sovraccarichi, come era stato riportato dai media mainstream. Il tweet ha quindi chiesto ad altri utenti di filmare i loro ospedali utilizzando l’hashtag in modo che potesse diventare un argomento di tendenza. Il grafico mostra la portata e le dimensioni di questi gruppi.
A quel punto Ahmed ha utilizzato un programma, Botomeg, che rileva i bot basati su un algoritmo di apprendimento automatico. Il programma ricava una scala di punteggi, quelli bassi indicano un comportamento umano, quelli alti invece segnalano un bot. Botometer funziona estraendo varie funzionalità da un account come il suo profilo, amici, social network, modelli di attività temporale, lingua e sentimenti. Lo studio condotto da Ahmed ha preso un campione rappresentativo del 10% di utenti per eseguire Botometer.
I risultati hanno indicato che il tasso di account automatici era probabilmente basso. I punteggi grezzi di Botometer sono stati usati per capire quanto fosse probabile che l’account fosse un bot. Questi andavano da probabilità molto bassa, bassa, bassa-media e alta.
Nella migliore delle ipotesi, solo il 9,2% del campione esaminato aveva apparenti comportamenti di account o bot altamente sospetti. Ciò significa che oltre il 90% degli account esaminati erano probabilmente persone reali.
Ahmed fa notare che gli gli account eliminati e gli account automatici contenevano parole chiave come “Trump” e “Make America Great Again” nelle loro biografie. Più o meno nello stesso periodo il presidente Donald Trump era in disaccordo con i consulenti scientifici su quando revocare le regole di blocco.
Quando sono stati presi in esame gli utenti più influenti collegati all’hashtag, Ahmed ha scoperto che la teoria del complotto era guidata da influenti politici conservatori e da attivisti politici di estrema destra. Gli studiosi, spiega Ahmed, hanno notato come l’estrema destra abbia sfruttato la pandemia. Ad esempio, alcuni hanno impostato canali su Telegram, un servizio di messaggistica istantanea basato su cloud, per discutere di COVID-19 amplificando la disinformazione.
La teoria della cospirazione ha iniziato a generare attenzione e si è auto alimentata grazie ai cittadini comuni. La campagna sembrava inoltre essere supportata e guidata da account Twitter pro-Trump e la ricerca ha rilevato che alcuni account che si comportavano come “bot” e account cancellati tendevano ad essere pro-Trump. È importante notare che non tutti gli account che si comportano come bot sono bot, poiché potrebbero esserci utenti molto attivi che potrebbero ricevere un punteggio elevato spiega Ahlmed. E, al contrario, non tutti i bot sono dannosi poiché alcuni sono stati impostati per scopi legittimi. Gli utenti di Twitter hanno spesso condiviso video di YouTube a sostegno della teoria e YouTube è stata infatti una fonte influente.
I social media sono in grado di monitorare account e contenuti sospetti e se violano alcuni standard, il contenuto dovrebbe essere rimosso rapidamente. Twitter ha sperimentato l’applicazione di avvisi sui tweet. Inizialmente non ha avuto successo perché Twitter ha accidentalmente etichettato erroneamente alcuni tweet, il che avrebbe potuto inavvertitamente spingere ulteriormente le cospirazioni. Ma se riuscissero a mettere insieme una migliore tecnica di etichettatura, questo potrebbe essere un metodo efficace.
Le cospirazioni possono anche essere contrastate fornendo informazioni affidabili, fornite dalle autorità sanitarie pubbliche e dagli “influencer” della cultura popolare. Ad esempio, Oldham City Council nel Regno Unito, ha chiesto aiuto all’attore James Buckley, famoso per il suo ruolo di Jay nella sitcom dell’E4 The Inbetweeners – per diffondere messaggi di salute pubblica .
Altre ricerche evidenziano che spiegare argomenti errati e descrivere il consenso scientifico può aiutare a ridurre i danni causati dalla disinformazione. Purtroppo, indipendentemente dalle procedure e dai passaggi messi in atto, ci saranno sempre persone che crederanno nelle cospirazioni. Secondo Ahlmed l’onere spetta alle piattaforme per assicurarsi che queste teorie non vengano diffuse così facilmente. I cospirazionisti, come abbiamo imparato, fanno danni incalcolabili.
Fonte: https://theconversation.com/film-your-hospital-the-anatomy-of-a-covid-19-conspiracy-theory-147948

2