I grandi organi d’informazione italiani hanno scoperto i rischi che l’Intelligenza Artificiale (AI) farà correre alle aziende, ai cittadini e allo Stato. Si comincia a far di conto, a prendere coscienza dei rischi e a calcolare anche posti di lavoro tradizionali che si perderanno.
C’è chi azzarda un numero: trecentomila nuovi disoccupati in poco tempo e ben individuati in alcune categorie professionali che più delle altre risentiranno degli effetti “rivoluzionari” dell’AI.
I capitani dei colossi informatici danno giudizi entusiastici descrivendo un futuro in cui, come sostiene Bill Gates, al centro di tutto saranno i nostri interessi. L’AI ci aiuterà ad articolare meglio le nostre intenzioni e ad organizzarci. In pratica avremo un angelo custode tecnologico pensante e efficiente. Entreremo in un nuovo Eden in cui avremo tanto di quel tempo libero da non sapere più che cosa fare. O, forse, passeremo il nostro tempo a stare appresso e a tentare di comprendere le novità e le innovazioni, davvero complesse, che la tecnologia ci sfornerà a ripetizione.
Si stanno delineando – tra l’immobilismo dei decisori legislativi e l’entusiasmo di quelli che un tempo chiamavamo “smanettoni” senza accorgerci che lo stavamo diventando anche noi – problemi di grande rilevanza in presenza di una norma fondamentale che stenta però a decollare: un regolamento europeo, l’AI Act. Una Costituzione dei diritti e dei doveri nell’era digitale che si allinei a quelle in vigore incentrate sui diritti umani.
Doveva essere approvato a marzo ma, nonostante la rapidità con cui l’intelligenza artificiale si sta sviluppando, rischia di vedere la luce tra almeno due anni. Deve mettere d’accordo i vari organi legislativi su questioni molto spinose e controverse come la trasparenza e l’etica delle applicazioni.
Nel frattempo, però, “abbiamo bisogno di un qualcosa” ha detto la commissaria europea alla concorrenza, Margrethe Vestager , consapevole dei pericoli e soprattutto delle preoccupazioni dell’opinione pubblica. Ma il Parlamento europeo stenta a trovare una soluzione che accontenti tutti.
Negli ultimi due anni i legislatori europei si sono dovuti mettere d’accordo, a fatica, su vari temi cruciali che vedono interpretazioni molto diverse tra loro, soprattutto in base alle opinioni politiche e agli interessi sociali difesi dai vari esponenti.
Ma l’obiettivo finale è ben presente in tutti: tutelare i diritti del cittadino e obbligare chiunque sviluppi un’applicazione di intelligenza artificiale ad adottare “un approccio incentrato sull’essere umano e non sul risultato che produce la macchina”. L’uso dell’Ai causa infatti problemi di enorme portata: etici, di trasparenza, di controllo della giurisdizione e finanche di disinformazione.
L’intelligenza artificiale sta rivoluzionando le nostre vite e ci aiuta a renderle più comode e sicure, ma a seconda di come viene utilizzata può anche trasformarsi in un pericolo per i diritti delle persone, come nel caso dei sistemi di sorveglianza biometrica o la produzione di testi che può favorire la diffusione di notizie false. Ecco gli aspetti problematici che l’AI ci pone davanti.
TRASPARENZA. Quasi tutti i sistemi di AI sono sviluppati da aziende private, che non vogliono rivelare come funzionano gli algoritmi. Una mancanza di trasparenza che impedisce ai governi di controllare la sicurezza e la legalità dei sistemi e ai privati di sapere con esattezza come vengono utilizzati i dati raccolti su di loro.
ETICA. Questo aspetto è collegato al precedente: le applicazioni devono essere trasparenti innanzitutto per motivi etici, a cui si aggiungono i principi di ciascuna legislazione statale che devono essere salvaguardati. Uno degli usi proibiti dall’AI Act, ad esempio, sarà il cosiddetto social scoring, ovvero l’assegnazione di punteggi sociali alle persone, il loro monitoraggio e la discriminazione in base al punteggio di ciascuno. (Foto dall’articolo sul Social scoring di Elena Nati www.ultimavoce.it)
Sembra fantascienza, ma ci sono paesi nel mondo in cui la libertà individuale non è tutelata e che potrebbero introdurre un sistema di controllo sociale tramite punteggi e intelligenza artificiale. L’applicazione più controversa rimane il controllo biometrico, in particolare tramite videosorveglianza in tempo reale potenziata dall’AI.
Per capire l’impatto di questa tecnologia sui diritti delle persone, basta pensare che l’Iran ha annunciato di volerla utilizzare per monitorare l’uso del velo da parte delle donne, mentre la Russia vuole usarla per scovare i disertori. Più vicino a noi, la Francia ha presentato un disegno di legge per l’implementazione di un sistema di videocontrollo pubblico per le Olimpiadi del 2024. Questa misura ha suscitato le proteste di associazioni e partiti politici, che vedono in questo tipo di misure una minaccia alla libertà.
NAZIONALITA’. Un punto molto controverso è quello della nazionalità delle applicazioni e la conseguente giurisdizione e leggi a cui si deve attenere ciascun sistema. Moltissime tecnologie basate su AI sono sviluppate fuori dall’Europa per cui seguono norme e standard diversi dai nostri, ma vengono applicate anche agli utenti europei.
L’AI Act si propone di regolamentare questo difficile aspetto dell’uso dell’intelligenza artificiale, che crea conflitti e problemi legali soprattutto alle Big Tech, ma che potenzialmente mina i diritti dei cittadini dell’UE, in cui in generale le leggi sono più severe e restrittive rispetto agli Stati Uniti o altre potenze mondiali.
DISINFORMAZIONE. Un capitolo a parte è quello dei sistemi di AI che imitano il linguaggio umano e producono testi e conversazioni in tempo reale, come il ChatGPT. Il ritardo nell’approvazione del regolamento europeo è dovuto soprattutto al lancio di questa tecnologia, che a dicembre del 2022 ha costretto i legislatori a rivedere il testo per includere alcune norme specifiche.
I sistemi di machine learning come ChatGPT creano problemi anche a livello etico e di trasparenza, ma il pericolo più grosso secondo l’UE rimane la disinformazione. ChatGPT non controlla le fonti durante il processo di apprendimento e può favorire la diffusione di opinioni infondate, pregiudizi e notizie false. Per questo, una prima misura da prendere sarà sicuramente avvertire l’utente quando il contenuto che gli viene proposto è stato generato da un algoritmo di AI e non da una persona.
CHE FARE? L’AI Act si propone tre grandi strategie.
Sulla persona. Il regolamento europeo obbligherà le aziende a sviluppare e applicare le tecnologie di AI pensando innanzitutto all’utente e ai diritti umani. Le aziende dovranno dimostrare attivamente che i propri prodotti e servizi basati su AI non ledono i diritti delle persone, da quello alla libertà alla mancanza di discriminazione, fino al diritto all’accesso all’informazione.
Sicurezza e affidabilità I sistemi di AI dovranno rispettare precisi standard di poter essere commercializzati, per ridurre al minimo gli errori e l’impatto che questi possono avere sulle infrastrutture critiche.
Classificazione del rischio. Le applicazioni di AI verranno classificate in base al livello di pericolosità per le persone e a ciascun livello saranno applicati requisiti più o meno stringenti. Il rilevamento biometrico delle emozioni, ad esempio, sarà considerato un’applicazione ad alto rischio e sarà soggetto a molte limitazioni.
Ma come riporta IctBusiness, non tutti i colossi tecnologici statunitensi, nonostante timide aperture sulla necessità di una regolamentazione, sono d’accordo nell’accogliere interamente l’AI Act europeo. Sam Altman, l’amministratore delegato di OpenAI, l’azienda di San Francisco che ha sviluppato ChatGPT, ha detto che la sua azienda cercherà di adeguarsi alle regole tracciate dall’AI Act. Ma se questo dovesse risultare difficile, perché le regole sono troppo restrittive, OpenAI potrebbe ritirarsi dal mercato europeo.
Nell’attuale versione della proposta legislativa europea è previsto, per esempio, che le aziende sviluppatrici siano tenute a dichiarare quali contenuti protetti da copyright vengano usati per l’allenamento degli algoritmi. “L’attuale bozza dell’AI Act dell’Ue sarebbe un eccesso di regolamentazione – ha dichiarato Altman alla Reuters – ma ci è stato detto che ci sarà un passo indietro. Ne stanno ancora discutendo”.
La settimana scorsa al G7 di Hiroshima i primi ministri hanno concordato sull’esigenza di definire degli standard tecnici per una intelligenza artificiale “degna di fiducia”, governabile e trasparente”. E il 30 e 31 maggio è prevista in Svezia una riunione che, a detta di molti, imprimerà una svolta all’approvazione del Regolamento europeo. Non resta che aspettare.
Piero Di Antonio