lunedì 25 Novembre 2024

C'è una crepa in ogni cosa. E' da li' che entra la luce (Leonard Cohen)

Uno spettro s’aggira sulle elezioni: le bufale create dall’Intelligenza Artificiale

Nel 2024, tra pochi mesi non tra anni, si voterà in Europa, negli Stati Uniti, in India e in una quarantina di altri Stati.  Elezioni che riguarderanno miliardi di persone chiamate a scegliere chi dovrà governarle. Negli Usa la scelta, con tutta probabilità, sarà tra Joe Biden, penalizzato dall’età avanzata, e il discusso oltre che indagato ex presidente Donald Trump; in Europa tra conservatori e progressisti.

Ma c’è un’ombra che aleggia sulla libera espressione della cosiddetta volontà popolare: l’Intelligenza Artificiale, ormai entrata con prepotenza inarrestabile nella nostra vita con il suo inimmaginabile livello tecnologico e generativo. Logico preoccuparsi. Bene nutrire timori sulla facilità con cui l’Intelligenza Artificiale riesce a creare una falsa rappresentazione della realtà, quella, per intenderci, che dovrebbe orientare le nostre convinzioni e, di conseguenza, il nostro voto.

C’è il rischio che tra non molto le nostre menti siano manipolate dalla tecnologia creativa? Quale ruolo avrà l’I.A. nelle prossime elezioni? La sorprendente capacità di creare immagini e situazioni false è in continuo aumento. Quali derive prenderanno le campagne elettorali? E si potrà correre ai ripari, difenderci? In estrema sintesi, l’anno prossimo a vincere sarà la disinformazione oppure la nostra liberà volontà politica?

LEGGI ANCHE: C’E’ GIA’ TROPPA I.A. NELLE CAMPAGNE ELETTORALI

Interrogativi che cominciano a preoccupare sia i social network, sia le istituzioni democratiche. Finanche colossi tecnologici come Google si pongono il problema. A tal punto che molto presto, almeno così assicura, richiederà che tutti gli annunci politici sulle sue sterminate piattaforme facciano sapere con chiarezza quanndo le immagini, gli audio e i testi siano stati cfreati con l’Intelligenza Artificiale.

In passato, non tanto tempo fa, la diffusione di fake news (notizie false, fasulle, bufale) generate con l’I.A. ha dimostrato come possano interferire in maniera negativa nella politica. In pratica il gioco elettorale potrebbe risultare alterato da una falsa rappresentazione della vita e della realtà.

Se Google corre ai ripari, temendo proprio l’accentuarsi di fenomeni negativi e inquietanti, che cosa si sta facendo in Europa? E in  Italia? Tranne alcune lodevoli quanto isolate iniziative,  in Inghilterra il Guardian, poco o niente. Eppure il problema è enorme cn una carica di pericolosità che potrebbe far esplodere, da un momento all’altro, le nostre democrazie.

Google presto pretenderà che gli annunci politici sulle sue piattaforme informino le persone quando immagini e audio sono stati creati usando l’intelligenza artificiale. Il perché lo ha spiegato un suo portavoce alla Bbc: “C’è una crescente diffusione di strumenti che producono contenuti sintetici”. Il cambiamento è previsto per novembre, tra due mesi., a un anno esatto dalle presidenziali negli Stati Uniti e a pochi mesi dalle elezioni europee, giugno 2024.

Alphabet di Google ha già politiche pubblicitarie che vietano la manipolazione dei media digitali per ingannare o fuorviare le persone in materia di politica, questioni sociali o affari di interesse pubblico. Con la nuova appendice, gli annunci legati alle elezioni dovranno “evidenziare in modo chiaro se contengono contenuti sintetici che raffigurano persone o eventi reali o realistici”. Google suggerisce etichette e watermark.

Il watermark appare in una foto o in un video come un marchio visibile, ma semitrasparente: può essere un marchio commerciale, un logo o un nome applicato sopra l’immagine originale. Se creato e applicato correttamente, non attira troppo l’attenzione per non disturbare la percezione della foto nell’insieme. Vi si potrebbe scrivere questa immagine non raffigura eventi reali” o “questo video è stato generato sinteticamente” al fine di segnalare i post creati con l’intelligenza artificiale.

E gli altri? L’azione di Google potrebbe esercitare una necessaria pressione su altre piattaforme online affinché seguano l’esempio. Meta, la società di Facebook e Instagram, non ha una regola specifica per gli annunci politici generati dall’I.A., ma limita già l’audio e le immagini falsificate, manipolate o trasformate utilizzate per la disinformazione.

TikTok non consente annunci politici, ma sono invece ammessi i deepfake ovvero foto, video e audio di personaggi pubblici creati grazie a software di I.A. che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce. X, ex Twitter di Elon Musk  appare come quello maggiormente a rischio.

GLI ESEMPI NON MANCANO. All’inizio dell’anno – rivela ancora Wired – su Twitter è circolato un video falso che sembrava mostrare il presidente degli Stati Uniti, Joe Biden, mentre annunciava di aver reintrodotto la leva obbligatoria e di voler mandare gli americani a combattere in Ucraina.

All’inizio il video riportava una didascalia che lo descriveva come “un’immaginazione” dell’AI, ma ha perso il testo di accompagnamento in seguito alla sua diffusione, dimostrando quanto facilmente l’uso della tecnologia, pur se condiviso in modo trasparente, possa trasformarsi in disinformazione.

Alcune campagne presidenziali per le elezioni statunitensi del 2024 – tra cui quella del governatore della Florida Ron DeSantis che mostrava il rivale alle primarie repubblicane Donald Trump abbracciare il rivale Anthony Fauci – hanno già utilizzato questa tecnologia.

In Sudafrica si sono verificate violenze causate dalla xenofobia sui social media nei confronti di migranti, rifugiati e richiedenti asilo dovute ad immagini artificiali che mostravano un vasto numero di individui in necessità nelle strade locali.

In India si è assistito di recente una nuova ondata di violenze a sfondo religioso dovuto alla diffusione su Whatsapp di fake news accompagnate da testi e immagini generate tramite I.A. Anche le email per inviare informazioni agli elettori sono un altro campo dove la tecnologia rischia di incentivare il proliferare di notizie false.

Esistono comunque anche potenziali usi benefici dell’I.A in politica. Uno dei principali è  setacciare grandi quantità di dati per aiutare a informare le decisioni politiche dei governi. Inoltre, può funzionare come moderatore delle discussioni elettorali per risalire a quanto detto da un candidato in passato e verificare se le sue affermazioni siano originali.  L’I.A. generativa verrà impiegata anche per personalizzare i messaggi ai singoli elettori.

Oggi i rischi appaiono maggiori rispetto alle prospettive positive, perché la legge di Gresham ci ricorda che “la moneta cattiva scaccia sempre la moneta buona”. Il 2024 sarà quindi un banco di prova importante per scoprire quanto l’applicazione dell’I.A. possa influenzare le nostre scelte. Quindi, occorre prestare molta attenzione a ciò che leggiamo, vediamo e ascoltiamo, e tenere sempre a mente il principio alla base del corretto giornalismo e dell’informazione: “Se tu madre ti dice che ti vuole bene, controlla”.

FOTO: simulazione con l’I.A.dell’arresto di Trump diffusa dalla stesso ex presidente Usa

Articoli correlati

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

CATEGORIE ARTICOLI

Articoli recenti