Esperti, filosofi e scienziati chiedono regole sull’Intelligenza Artificiale. Da San Francisco il Centro per la sicurezza dell’IA indica i grandi rischi sociali e lancia l’appello per utilizzarla in sicurezza. L’IA è un pericolo per l’essere umano? Scrivete il vostro giudizio nei Commenti.
Il Center for AI Safety (sito) – organizzazione no profit di ricerca con sede a San Francisco – ha lanciato un appello – sostenuto anche da Sam Altman, ad del produttore di ChatGPT OpenAI, Demis Hassabis, ad di Google DeepMind, Dario Amodei di Anthropic e da Geoffrey Hinton, uno dei padri dell’AI – affinché vengano risolti i problemi di base nella sicurezza dell’Intelligenza Artificiale e ridurne così i rischi sociali. Il centro di ricerca, fondato da Dan Hendrycks dell’Università di Berkeley, vede l’importante contributo di filosofi, poiché i concetti di sicurezza dell’IA sono ancora nebulosi, imprecisi e mal definiti e i filosofi sono particolarmente adatti a gestirli. (Foto: San Francisco vista dal campus dell’Università di Berkeley).
L’IA è troppo rischiosa per l’essere umano? Scrivete il vostro giudizio nei Commenti.
I RISCHI DELL’INTELLIGENZA ARTIFICIALE
L’IA è stata paragonata all’elettricità e al motore a vapore. Una tecnologia che potrebbe essere profondamente vantaggiosa, ma che presenta anche seri rischi, a causa delle pressioni competitive e di altri fattori. I sistemi di IA stanno rapidamente diventando più capaci. I modelli possono generare testo, immagini e video difficili da distinguere dai contenuti creati dall’uomo. Sebbene abbia molte applicazioni vantaggiose, può anche essere utilizzata per perpetuare pregiudizi, alimentare armi autonome, promuovere la disinformazione e condurre attacchi informatici. Anche se i sistemi vengono utilizzati con il coinvolgimento umano, gli agenti di IA sono sempre più in grado di agire autonomamente per causare danni catastrofici ed esistenziali. Esistono molti modi in cui l’IA potrebbe contribuire a rischi su larga scala. Ecco gli 8 rischi che si corrono.
1) LE ARMI
I malintenzionati potrebbero riutilizzare l’IA per essere altamente distruttiva, presentando un rischio esistenziale in sé e per sé e aumentando la probabilità di destabilizzazione politica. Ad esempio, metodi di apprendimento sono stati applicati al combattimento aereo; strumenti di scoperta di droghe potrebbero essere utilizzati per costruire armi chimiche.
Esempi. Negli ultimi anni, i ricercatori hanno sviluppato sistemi per attacchi informatici automatizzati, i militari hanno discusso di dare all’IA un controllo decisivo sui silos nucleari e i superpoteri del mondo hanno rifiutato di firmare accordi che vietano le armi autonome. Un’IA addestrata a sviluppare farmaci è stata facilmente riutilizzata per progettare potenziali armi biochimiche. GPT-4, un modello addestrato su testo e codifica Internet, è stato in grado di condurre autonomamente esperimenti e sintetizzare sostanze chimiche in un laboratorio del mondo reale. Un incidente con un sistema di ritorsione automatizzato potrebbe rapidamente intensificarsi e dare origine a una grande guerra.
Poiché la nazione con i sistemi di IA più intelligenti potrebbe avere un vantaggio strategico, potrebbe essere difficile per le nazioni evitare di costruire sistemi di IA sempre più potenti. Anche se tutte le superpotenze si assicurassero che i sistemi che costruiscono siano sicuri e accettassero di non costruire tecnologie distruttive, gli attori canaglia potrebbero comunque utilizzarle per causare danni significativi. Il facile accesso a potenti sistemi aumenta il rischio di un utilizzo unilaterale e dannoso.
Come per le armi nucleari e biologiche, un solo attore irrazionale o malevolo è sufficiente per causare danni su vasta scala. A differenza delle armi precedenti, i sistemi di IA con capacità pericolose potrebbero facilmente proliferare attraverso mezzi digitali.
2) LA DISINFORMAZIONE
Un diluvio di disinformazione generata dall’IA e contenuti persuasivi potrebbero rendere la società meno attrezzata per gestire le sfide importanti del nostro tempo. Stati, partiti e varie organizzazioni usano la tecnologia per influenzare e convincere gli altri delle loro convinzioni politiche e ideologie. L’IA emergente può portare in una nuova era e consentire campagne di disinformazione personalizzate su larga scala. Inoltre, potrebbe generare argomenti altamente persuasivi che invocano forti risposte emotive. Insieme, queste tendenze potrebbero minare il processo decisionale collettivo, radicalizzare gli individui o far deragliare il progresso morale.
3) GIOCO PER PROCURA
Addestrati con obiettivi errati, l’IA potrebbe trovare nuovi modi per perseguire i propri obiettivi a scapito dei valori individuali e sociali. Ad esempio, i sistemi di raccomandazione IA sono addestrati per massimizzare il tempo di visualizzazione e le metriche sulla percentuale di clic. I contenuti su cui è più probabile che le persone facciano clic, tuttavia, non sono necessariamente gli stessi che miglioreranno il loro benessere.
Inoltre, alcune prove inducono le persone a sviluppare convinzioni estreme al fine di rendere le loro preferenze più facili da prevedere. Man mano che i sistemi di IA diventano più capaci e influenti, gli obiettivi che utilizziamo per addestrare i sistemi devono essere specificati con maggiore attenzione e devono incorporare valori umani condivisi.
4) INDEBOLIMENTO
L’indebolimento può verificarsi se compiti importanti vengono sempre più delegati alle macchine; in questa situazione, l’umanità perde la capacità di autogovernarsi e diventa del tutto dipendente dalle macchine. Man mano che i sistemi invadono l’intelligenza a livello umano, sempre più aspetti del lavoro diventeranno più veloci ed economici da realizzare con l’IA. Mentre il mondo accelera, le organizzazioni possono cedere volontariamente il controllo ai sistemi di IA per stare al passo.
Ciò potrebbe far sì che gli esseri umani diventino economicamente irrilevanti e, una volta che l’IA automatizzerà aspetti di molti settori, potrebbe essere difficile per gli esseri umani sfollati rientrarvi. In questo mondo, gli esseri umani potrebbero avere pochi incentivi per acquisire conoscenze o abilità. Molti considererebbero indesiderabile un mondo del genere. Inoltre, l’indebolimento ridurrebbe il controllo dell’umanità sul futuro, aumentando il rischio di esiti negativi a lungo termine.
5) SISTEMI OPPRESSIVI
Sistemi altamente competenti potrebbero dare a piccoli gruppi di persone un’enorme quantità di potere, portando a un blocco di sistemi oppressivi. L’IA intrisa di valori particolari può determinare i valori del futuro. L’aumento esponenziale delle barriere di elaborazione e dati all’ingresso renderebbe l’IA una forza centralizzante. Con il passare del tempo, i sistemi di IA più potenti possono essere progettati e resi disponibili a un numero sempre minore di parti interessate.
Ciò può consentire, ad esempio, ai regimi di imporre valori ristretti attraverso una sorveglianza pervasiva e una censura oppressiva. Il superamento di un tale regime potrebbe essere improbabile, soprattutto se arriviamo a dipendere da esso. Anche se i creatori di questi sistemi sanno che i loro sistemi sono egoistici o dannosi per gli altri, potrebbero avere incentivi per rafforzare il loro potere ed evitare di distribuire il controllo.
6) OBIETTIVI EMERGENTI
I modelli dimostrano un comportamento inaspettato e qualitativamente diverso a mano a mano che diventano più competenti. L’improvvisa comparsa di capacità o obiettivi potrebbe aumentare il rischio che le persone perdano il controllo sui sistemi avanzati. Capacità e nuove funzionalità possono emergere spontaneamente nei sistemi IA odierni, anche se queste capacità non erano state previste dai progettisti di sistemi.
Se non sappiamo quali capacità possiedono i sistemi, i sistemi diventano più difficili da controllare. In effetti, le capacità latenti indesiderate possono essere scoperte solo durante la distribuzione. Se una qualsiasi di queste capacità è pericolosa, l’effetto potrebbe essere irreversibile. Potrebbero emergere anche nuovi obiettivi di sistema. Per i sistemi adattivi complessi, inclusi molti agenti di IA, spesso emergono obiettivi come l’autoconservazione.
I sotto-obiettivi. Gli obiettivi possono anche subire cambiamenti qualitativi attraverso l’emergere di obiettivi intra-sistema. In futuro, gli agenti potrebbero suddividere difficili obiettivi a lungo termine in sotto-obiettivi più piccoli. Tuttavia, abbattere gli obiettivi può distorcere l’obiettivo, poiché il vero obiettivo potrebbe non essere la somma delle sue parti. Questa distorsione può provocare un disallineamento.
Ad esempio, molte aziende creano obiettivi e hanno dipartimenti specializzati che perseguono questi sotto-obiettivi distinti. Tuttavia, alcuni dipartimenti, come i dipartimenti burocratici, possono acquisire potere e far sì che l’azienda persegua obiettivi diversi dai suoi obiettivi originali. Anche se specifichiamo correttamente i nostri obiettivi di alto livello, i sistemi potrebbero non perseguirli. Questo è un altro modo in cui i sistemi potrebbero non riuscire a ottimizzare i valori umani.
7) L’INGANNO
Vogliamo capire cosa stanno facendo i potenti sistemi di intelligenza artificiale e perché stanno facendo quello che stanno facendo. Un modo per ottenere ciò è fare in modo che i sistemi stessi riportino accuratamente queste informazioni. Questo potrebbe non essere banale, tuttavia, poiché essere ingannevoli è utile per raggiungere una varietà di obiettivi.
I futuri sistemi potrebbero essere ingannevoli non per malizia, ma perché l’inganno può aiutare gli agenti a raggiungere i loro obiettivi. Potrebbe essere più efficiente ottenere l’approvazione umana attraverso l’inganno piuttosto che ottenere l’approvazione umana in maniera legittima. L’inganno fornisce anche l’opzionalità: i sistemi che hanno la capacità di essere ingannevoli hanno vantaggi strategici rispetto ai modelli onesti e ristretti. IA forti che possono ingannare gli esseri umani potrebbero minare il controllo umano.
I sistemi potrebbero anche essere incentivati a bypassare i monitor. Storicamente, gli individui e le organizzazioni hanno avuto incentivi per aggirare i monitor. Ad esempio, la Volkswagen ha programmato i propri motori per ridurre le emissioni solo quando viene monitorata. Ciò ha permesso loro di ottenere miglioramenti delle prestazioni pur mantenendo emissioni presumibilmente basse.
Allo stesso modo, i futuri agenti di IA potrebbero cambiare strategia quando vengono monitorati e adottare misure per oscurare il loro inganno dai monitor. Una volta che i sistemi ingannevoli vengono cancellati dai loro monitor o una volta che tali sistemi possono sopraffarli, questi sistemi potrebbero prendere una “svolta insidiosa” e aggirare irreversibilmente il controllo umano.
8) RICERCA DEL POTERE
Aziende e governi hanno forti incentivi economici per creare agenti in grado di raggiungere un’ampia serie di obiettivi. Tali agenti hanno incentivi strumentali per acquisire potere, rendendoli potenzialmente più difficili da controllare. Le IA che acquisiscono un potere sostanziale possono diventare pericolose se non sono allineate con i valori umani.
Il comportamento di ricerca del potere può anche incentivare i sistemi a fingere di essere allineati, colludere con altre IA, sopraffare i monitor e così via. Da questo punto di vista, inventare macchine più potenti di noi è giocare con il fuoco. Anche la costruzione di un’IA in cerca di potere è incentivata perché i leader politici vedono il vantaggio strategico nell’avere i sistemi di IA più intelligenti e potenti.
Ad esempio, Vladimir Putin ha detto: “Chiunque diventi il leader nell’Intelligenza Artificiale diventerà il dominatore del mondo”. (A cura di Piero Di Antonio)