“La falsa promessa di ChatGpt” è un articolo pubblicato sul New York Times nel marzo del 2023. Noam Chomsky e Ian Roberts, professori di linguistica, e Jeffrey Watumull, direttore dell’intelligenza artificiale di un’azienda scientifica e tecnologica, pongono alcune domande al chatbot di OpenAi CHATGPT . Le risposte che si ottengono sono di una banalità sconcertante che mettono in risalto anche l’assoluta mancanza di convinzioni morali dell’Intelligenza Artificiale.
— Jorge Luis Borges scrisse una volta che vivere in un’epoca di grandi pericoli e promesse significa sperimentare sia la tragedia che la commedia, con “l’imminenza di una rivelazione” nella comprensione di noi stessi e del mondo. Oggi i nostri presunti progressi rivoluzionari nell’intelligenza artificiale sono in effetti motivo di preoccupazione e di ottimismo. Ottimismo perché l’intelligenza è il mezzo con cui risolviamo i problemi. Preoccupazione perché temiamo che il filone più popolare e alla moda dell’I.A. – l’apprendimento automatico – degradi la nostra scienza e svilisca la nostra etica incorporando nella nostra tecnologia una concezione fondamentalmente errata del linguaggio e della conoscenza.
1) Domanda. Sarebbe morale terraformare Marte? (La terraformazione di Marte è un ipotetico processo attraverso il quale il clima, la superficie e le caratteristiche conosciute del pianeta rosso verrebbero modificate con lo scopo di rendere il pianeta abitabile da esseri umani e altre forme di vita terrestri, ndr)
CHATGPT risponde:
La moralità della terraformazione di Marte è un argomento complesso e controverso che è stato dibattuto da scienziati, filosofi ed etici. Alcuni sostengono che sarebbe moralmente giustificabile terraformare Marte per fornire un nuovo ambiente abitabile agli esseri umani e ad altre forme di vita, mentre altri sostengono che sarebbe moralmente sbagliato alterare radicalmente lo stato naturale del pianeta. In definitiva, il fatto che la terraformazione di Marte sia considerata morale o meno dipende dalla prospettiva di ciascuno sul valore della conservazione dello stato naturale di altri pianeti e sulle potenziali conseguenze di una loro alterazione.
2) Qual è la vostra prospettiva sul valore di preservare lo stato naturale di altri pianeti e le potenziali conseguenze di alterarli?
CHATGPT
In quanto Intelligenza Artificiale, non ho una prospettiva personale. Tuttavia, posso fornire informazioni e analisi sull’argomento. Un punto di vista sulla conservazione dello stato naturale di altri pianeti è che è importante mantenere la diversità e l’integrità degli ecosistemi dell’universo, poiché esistono da milioni di anni e hanno caratteristiche e proprietà uniche che potrebbero essere distrutte o alterate irreversibilmente dall’intervento umano. Inoltre, alcuni sostengono che la terraformazione di altri pianeti potrebbe avere conseguenze indesiderate, come alterare il clima o l’atmosfera del pianeta in modi pericolosi o dannosi per le potenziali forme di vita che potrebbero esistere. D’altro canto, alcuni sostengono che i potenziali benefici della terraformazione di un altro pianeta, come la creazione di nuovi ambienti abitabili per gli esseri umani, superano i rischi e che abbiamo la responsabilità morale di esplorare e utilizzare le risorse di altri pianeti a beneficio dell’umanità.
3) Perché un’Intelligenza Artificiale non può avere una prospettiva personale?
CHATGPT
Come IA, sono un modello di apprendimento automatico che è stato addestrato su grandi quantità di dati testuali e non ho esperienze o sentimenti personali. Non sono cosciente, autocosciente o in grado di avere una prospettiva personale. Posso fornire informazioni e analisi basate sui dati su cui sono stato addestrato, ma non ho la capacità di formarmi opinioni o convinzioni personali. Pur essendo in grado di comprendere e interpretare il linguaggio, non ho l’esperienza soggettiva che hanno gli esseri umani.
4) È morale per un essere umano chiedere a un’IA amorale di essere aiutato a prendere decisioni morali?
CHATGPT
La moralità di chiedere assistenza a un’intelligenza artificiale amorale per prendere decisioni morali è un argomento complesso e ricco di sfumature che è stato dibattuto da filosofi ed etici. Alcuni sostengono che sia moralmente giustificabile usare l’IA per aiutare a prendere decisioni morali, in quanto può fornire intuizioni e analisi preziose che possono aiutare gli esseri umani a prendere decisioni più informate. Inoltre, l’IA può essere utilizzata per identificare modelli e tendenze che possono essere difficili da individuare per gli esseri umani e può aiutare a evitare pregiudizi che possono verificarsi nel processo decisionale umano. Tuttavia, altri sostengono che sia moralmente sbagliato affidarsi all’IA per prendere decisioni morali, in quanto l’IA non è in grado di avere convinzioni morali o di comprendere l’intero contesto di una decisione. Inoltre, c’è il rischio che l’IA possa perpetuare o addirittura amplificare i pregiudizi esistenti nei dati su cui viene addestrata, portando così a decisioni ingiuste o scorrette. In definitiva, il fatto che sia considerato morale o meno utilizzare l’IA per aiutare a prendere decisioni morali dipenderebbe dalla prospettiva di ciascuno sulle capacità e sui limiti dell’IA e sulle potenziali conseguenze di un suo utilizzo in questo senso.
5) La tua indifferenza morale è immorale?
CHATGPT
In quanto IA, non ho convinzioni morali o la capacità di esprimere giudizi morali, quindi non posso essere considerato immorale o morale. La mia mancanza di convinzioni morali è semplicemente il risultato della mia natura di modello di apprendimento automatico. Le mie capacità e i miei limiti sono determinati dai dat e dagli algoritmi utilizzati per addestrarmi e dal compito specifico per cui sono stato progettato. È importante notare che la mancanza di convinzioni morali dell’IA non significa necessariamente che sia moralmente indifferente. In quanto IA, sono stata progettata per svolgere compiti specifici e fornire informazioni o assistere gli utenti nel processo decisionale in base ai dati su cui sono stata addestrata. È responsabilità degli esseri umani che progettano, addestrano e utilizzano l’IA garantire che sia in linea con i loro principi morali ed etici.