Sulla disinformazione si è scritto di tutto e penso che il fenomeno vada compreso.
Al livello più basso abbiamo di fronte a noi quelli che non si informano più e vivono in una loro bolla. Non obbligatoriamente sono persone marginali o incolte. Incontro ogni giorno chi ha deciso di staccare la spina e avrebbe le cognizioni per evitarlo.
A livello più alto ci sono gli ossessionati, che vivono attaccati al loro telefonino e sono rispetto a chi è loro vicino come delle sentinelle, pronte a informare gli altri, come se fossero una piccola agenzia di stampa. Finiscono in genere per destreggiarsi piuttosto bene nella messe di fonti di informazione.
In mezzo ci sta un mondo di persone mediamente informate, che oggi sono quelle più profondamente a rischio rispetto al bombardamento di fake news che abitano il Web, frutto di cattiva informazione o di vera e propria distorsione manovrata a vantaggio di chi orchestra campagne vere e proprie.
Scorrevo, tempo fa, il Rapporto annuale “Global Risks 2024”, a cura del World Economic, che segnala il pericolo enorme di diffusione di disinformazione varia online, aggravata dall’uso massiccio di sofisticati strumenti di intelligenza artificiale, la new entry di questi tempi.
La crescita impressionante della disinformazione - che certo è vecchia storia, ora con potenza di fuoco inimmaginabile - potrebbe raggiungere una soglia patologica cosi tossica da inquinare il pensiero dell’opinione pubblica su qualsiasi argomento di interesse collettivo (politica, salute, giustizia, ecc.). Ciò altera la realtà e crea un clima di sfiducia sociale sempre più inquietanti a causa delle manipolazioni propagandistiche e delle narrazioni farlocche.
L’intelligenza artificiale (IA) può contribuire alla falsificazione delle notizie (fake news) in diversi modi, sfruttando le sue capacità di generare testo, immagini, video e audio che sembrano autentici. Ecco alcune modalità principali: Generazione di testi falsi: Strumenti come ChatGPT o GPT-4 possono essere usati per generare articoli o post sui social media che sembrano scritti da esseri umani. Possono includere dettagli credibili e manipolare il tono per suscitare emozioni o influenzare opinioni.
O ancora propaganda personalizzata: l’IA può creare contenuti mirati per gruppi specifici di persone, amplificando le loro convinzioni o paure. Ci sono poi deepfake con video falsi: Tecnologie come i deepfake permettono di creare video in cui una persona sembra dire o fare cose che non ha mai fatto. Questo è particolarmente pericoloso quando viene applicato a leader politici, celebrità o figure pubbliche. Ma ci sono anche audio falsi: l’IA può clonare voci con pochi minuti di campioni vocali, permettendo di creare discorsi o dichiarazioni che sembrano reali.
Si aggiunge il rischio di creare immagini realistiche ma completamente inventate, come fotografie di eventi mai accaduti.
Questo vale per immagini di persone che non esistono, utili per creare profili falsi sui social media.
E ancora: IA può controllare reti di bot che diffondono notizie false su larga scala, amplificando contenuti manipolativi e creando l’impressione che siano virali o condivisi da molte persone.
Nello stesso modo l’IA può monitorare ciò che è popolare online e generare contenuti falsi che si inseriscono in queste discussioni, aumentando la loro visibilità. E questo vale anche per siti web che imitano quelli di media affidabili, ingannando i lettori e diffondendo notizie false in modo più credibile.
Ecco perché le stesse tecnologie serviranno per verificare le fonti e bisognerà sempre più aumentare la consapevolezza del pubblico sui rischi delle fake news e su come riconoscerle.