Miliardi di persone voteranno alle elezioni più importanti quest’anno – circa la metà della popolazione mondiale, secondo alcune stime – in uno degli esercizi democratici più grandi e consequenziali a memoria d’uomo. I risultati influenzeranno il modo in cui verrà gestito il mondo per i decenni a venire.
Allo stesso tempo, le false narrazioni e le teorie del complotto si sono evolute in una minaccia sempre più globale.
Accuse infondate di frode elettorale hanno minato la fiducia nella democrazia. Le campagne di influenza straniera prendono regolarmente di mira le sfide nazionali polarizzanti. L’intelligenza artificiale ha potenziato gli sforzi di disinformazione e distorto la percezione della realtà. Il tutto mentre le principali società di social media hanno ridotto le loro garanzie e ridimensionato i team elettorali.
“Quasi ogni democrazia è sotto stress, indipendentemente dalla tecnologia”, ha affermato Darrell M. West, membro senior del think tank Brookings Institution. “Quando a tutto ciò si aggiunge la disinformazione, si creano solo molte opportunità di guai”.
Si tratta, ha detto, di una “tempesta perfetta di disinformazione”.
La posta in gioco è enorme.
La democrazia, che si è diffusa a livello globale dopo la fine della Guerra Fredda, si trova ad affrontare sfide crescenti in tutto il mondo: dalla migrazione di massa allo sconvolgimento climatico, dalle disuguaglianze economiche alla guerra. La lotta in molti paesi per rispondere adeguatamente a tali minacce ha eroso la fiducia nelle società liberali e pluralistiche, aprendo la porta agli appelli dei populisti e dei leader forti.
I paesi autocratici, guidati da Russia e Cina, hanno sfruttato le correnti di malcontento politico per diffondere narrazioni che minano la governance e la leadership democratica, spesso sponsorizzando campagne di disinformazione. Se questi sforzi avranno successo, le elezioni potrebbero accelerare la recente ascesa di leader dalla mentalità autoritaria.
Fyodor A. Lukyanov, un analista che guida un think tank allineato al Cremlino a Mosca, il Council on Foreign and Defense Policy, ha recentemente sostenuto che il 2024 “potrebbe essere l’anno in cui le élite liberali occidentali perderanno il controllo dell’ordine mondiale”.
L’establishment politico in molte nazioni, così come le organizzazioni intergovernative come il Gruppo dei 20, sembrano pronti per uno sconvolgimento, ha affermato Katie Harbath, fondatrice della società di politiche tecnologiche Anchor Change ed ex direttrice delle politiche pubbliche presso Facebook che gestisce le elezioni. La disinformazione – diffusa attraverso i social media ma anche attraverso la stampa, la radio, la televisione e il passaparola – rischia di destabilizzare il processo politico.
“Raggiungeremo il 2025 e il mondo apparirà molto diverso”, ha detto.
Agenti statali aggressivi
Tra le maggiori fonti di disinformazione nelle campagne elettorali ci sono i governi autocratici che cercano di screditare la democrazia come modello globale di governance.
Russia, Cina e Iran sono stati tutti citati negli ultimi mesi dai ricercatori e dal governo degli Stati Uniti come probabili tentativi di operazioni di influenza per interrompere le elezioni di altri paesi, comprese le elezioni presidenziali americane di quest’anno. I paesi vedono il prossimo anno come “una reale opportunità per metterci in imbarazzo sulla scena mondiale, sfruttare le divisioni sociali e minare il processo democratico”, ha affermato Brian Liston, analista di Recorded Future, una società di sicurezza digitale che ha recentemente riferito di potenziali minacce alla razza americana.
La società ha anche esaminato un tentativo di influenza russa identificato da Meta per la prima volta l’anno scorso, soprannominato “Doppelgänger”, che sembrava impersonare organizzazioni giornalistiche internazionali e creare account falsi per diffondere la propaganda russa negli Stati Uniti e in Europa. Sembra che Doppelgänger abbia utilizzato strumenti di intelligenza artificiale ampiamente disponibili per creare organi di informazione dedicati alla politica americana, con nomi come Election Watch e My Pride.
Campagne di disinformazione come questa attraversano facilmente i confini.
Le teorie del complotto – come le affermazioni secondo cui gli Stati Uniti complottano con collaboratori in vari paesi per organizzare spostamenti di potere a livello locale o che gestiscono fabbriche segrete di armi biologiche in Ucraina – hanno cercato di screditare l’influenza politica e culturale americana ed europea nel mondo. Potrebbero apparire in urdu in Pakistan ma anche emergere, con caratteri e linguaggi diversi, in Russia, spostando l’opinione pubblica di quei paesi a favore dei politici antioccidentali.
Le false narrazioni che circolano in tutto il mondo sono spesso condivise dalle comunità della diaspora o orchestrate da operatori sostenuti dallo Stato. Gli esperti prevedono che le narrazioni sulle frodi elettorali continueranno ad evolversi e a riverberarsi, come è successo negli Stati Uniti e in Brasile nel 2022 e poi in Argentina nel 2023.
Un ciclo di polarizzazione ed estremismo
Un ambiente politico sempre più polarizzato e combattivo sta alimentando discorsi di odio e disinformazione, che spingono ancora di più gli elettori in silos. Una minoranza motivata di voci estremiste, aiutata dagli algoritmi dei social media che rafforzano i pregiudizi degli utenti, spesso sta soffocando una maggioranza moderata.
“Siamo nel bel mezzo della ridefinizione delle nostre norme sociali riguardo al discorso e al modo in cui riteniamo le persone responsabili di quel discorso, online e offline”, ha detto la signora Harbath. “Ci sono molti punti di vista diversi su come farlo in questo paese, per non parlare del resto del mondo”.
Alcune delle voci più estreme si cercano su piattaforme di social media alternative, come Telegram, BitChute e Truth Social. Secondo Pyrra, una società che monitora le minacce e la disinformazione, recentemente si sono diffuse su tali piattaforme le richieste di fermare preventivamente le frodi elettorali – che storicamente sono statisticamente insignificanti.
La “prevalenza e l’accettazione di queste narrazioni sta solo guadagnando terreno”, influenzando anche direttamente la politica e la legislazione elettorale, ha scoperto Pyrra in un caso di studio.
“Queste cospirazioni stanno mettendo radici tra le élite politiche, che stanno usando queste narrazioni per ottenere il favore del pubblico, degradando al contempo la trasparenza, i controlli e gli equilibri dello stesso sistema che dovrebbero sostenere”, hanno scritto i ricercatori dell’azienda.
La proposta rischio-rendimento dell’AI
Secondo un rapporto dell’Agenzia, l’intelligenza artificiale “è una promessa per la governance democratica”. Università di Chicago e Università di Stanford. I chatbot focalizzati politicamente potrebbero informare gli elettori su questioni chiave e collegare meglio gli elettori con i funzionari eletti.
La tecnologia potrebbe anche essere un vettore di disinformazione. Immagini false dell’intelligenza artificiale sono già state utilizzate per diffondere teorie del complotto, come l’affermazione infondata secondo cui esiste un complotto globale per sostituire gli europei bianchi con immigrati non bianchi.
A ottobre, Jocelyn Benson, segretario di stato del Michigan, ha scritto al senatore Chuck Schumer, democratico di New York e leader della maggioranza, affermando che “i contenuti generati dall’intelligenza artificiale possono aumentare la credibilità della disinformazione altamente localizzata”.
“Una manciata di stati – e particolari distretti all’interno di quegli stati – probabilmente decideranno la presidenza”, ha detto. “Coloro che cercano di influenzare i risultati o seminare il caos possono avvalersi di strumenti di intelligenza artificiale per fuorviare gli elettori sui tempi di attesa, sulle chiusure o persino sulla violenza in specifici seggi elettorali”.
Lawrence Norden, che gestisce le elezioni e il programma governativo presso il Brennan Center for Justice, un istituto di politica pubblica, ha aggiunto che l’intelligenza artificiale potrebbe imitare grandi quantità di materiali provenienti dagli uffici elettorali e diffonderli ampiamente. Oppure potrebbe produrre in fase avanzata Le sorprese di ottobre, come l’audio con i segnali dell’intervento dell’intelligenza artificiale rilasciato durante le elezioni serrate in Slovacchia questo autunno.
“Tutte le cose che rappresentano una minaccia per la nostra democrazia da qualche tempo sono potenzialmente peggiorate dall’intelligenza artificiale”, ha affermato Norden durante la partecipazione a un panel online a novembre. (Durante l’evento, gli organizzatori hanno introdotto una versione manipolata artificialmente del signor Norden per sottolineare le capacità della tecnologia.)
Alcuni esperti temono che la semplice presenza di strumenti di intelligenza artificiale possa indebolire la fiducia nelle informazioni e consentire agli attori politici di ignorare i contenuti reali. Altri dicono che le paure, per ora, sono esagerate. L’intelligenza artificiale è “solo una delle tante minacce”, ha affermato James M. Lindsay, vicepresidente senior del think tank Council on Foreign Relations.
“Non perderei di vista tutti i modi antiquati di seminare disinformazione o disinformazione”, ha detto.
Protezioni per la schiena Big Tech Scale
Nei paesi in cui sono previste elezioni generali per il 2024, la disinformazione è diventata una delle principali preoccupazioni per la stragrande maggioranza delle persone intervistate dall’UNESCO, l’organizzazione culturale delle Nazioni Unite. Eppure gli sforzi delle società di social media per limitare i contenuti tossici, che si erano intensificati dopo le elezioni presidenziali americane del 2016, si sono recentemente attenuati, se non completamente invertiti.
Meta, YouTube e X, la piattaforma precedentemente nota come Twitter, lo scorso anno hanno ridimensionato o rimodellato i team responsabili di tenere sotto controllo materiale pericoloso o impreciso, secondo un recente rapporto di Free Press, un’organizzazione di difesa. Alcuni offrono nuove funzionalità, come le trasmissioni private unidirezionali, che sono particolarmente difficili da monitorare.
Le aziende stanno iniziando l’anno con “poca larghezza di banda, pochissima responsabilità scritta e miliardi di persone in tutto il mondo che si rivolgono a queste piattaforme per informarsi” – non l’ideale per salvaguardare la democrazia, ha affermato Nora Benavidez, consulente senior di Free Press.
Le piattaforme più recenti, come TikTok, molto probabilmente inizieranno a svolgere un ruolo più importante nei contenuti politici. Substack, la start-up di newsletter che il mese scorso ha dichiarato che non avrebbe bandito i simboli nazisti e la retorica estremista dalla sua piattaforma, vuole che la stagione elettorale del 2024 sia “l’elezione di Substack”. I politici stanno pianificando eventi in live streaming su Twitch, che ospita anche un dibattito tra le versioni generate dall’intelligenza artificiale del presidente Biden e dell’ex presidente Donald J. Trump.
Meta, proprietaria di Facebook, Instagram e WhatsApp, ha dichiarato in un post sul blog di novembre di essere in “una posizione forte per proteggere l’integrità delle elezioni del prossimo anno sulle nostre piattaforme”. (Il mese scorso, un comitato di sorveglianza nominato dalla società ha contestato gli strumenti automatizzati di Meta e la sua gestione di due video relativi al conflitto Israele-Hamas.)
YouTube ha scritto il mese scorso che i suoi “team focalizzati sulle elezioni hanno lavorato senza sosta per assicurarsi di avere le politiche e i sistemi giusti in atto”. La piattaforma ha dichiarato quest’estate che avrebbe smesso di rimuovere le false narrazioni sulle frodi elettorali. (YouTube ha affermato di volere che gli elettori ascoltino tutti i lati di un dibattito, anche se ha osservato che “questo non è un lasciapassare gratuito per diffondere disinformazione dannosa o promuovere una retorica piena di odio.”)
Tali contenuti hanno proliferato su X dopo che il miliardario Elon Musk è subentrato alla fine del 2022. Mesi dopo, Alexandra Popken ha lasciato il suo ruolo di gestione della fiducia e della sicurezza per la piattaforma. Molte società di social media si affidano pesantemente a strumenti inaffidabili di moderazione dei contenuti basati sull’intelligenza artificiale, lasciando squadre umane in costante modalità antincendio, ha affermato la signora Popken, che in seguito è entrata a far parte della società di moderazione dei contenuti WebPurify.
“L’integrità elettorale è uno sforzo così colossale che c’è davvero bisogno di una strategia proattiva, di molte persone, cervelli e sale di guerra”, ha detto.