Intelligenza artificiale: le ChatGPT possono far cambiare atteggiamento nei confronti di cambiamento climatico e razzismo?
Usare l’IA per capire come aprire dialoghi tra le persone che siano importanti per la società
[2 Febbraio 2024]
Chi ha sentito parlare di Big Tech e cambiamento climatico sa probabilmente che i data center che alimentano la nostra vita online utilizzano un’enorme quantità di energia de che che alcuni dei più recenti divoratori di energia sul mercato sono strumenti di intelligenza artificiale come le ChatGPT. Grist ricorda che «Alcuni ricercatori suggeriscono che ChatGPT da solo potrebbe consumare la stessa energia di 33.000 famiglie statunitensi in una giornata tipo, una cifra che potrebbe aumentare man mano che la tecnologia si diffonde». Le emissioni si aggiungono all’allarme generale sull’Intelligenza artificiale che ruba posti di lavoro, aiuta gli studenti a imbrogliare o prende il controllo della società e favorisce l’estremismo politico. Già circa 100 milioni di persone utilizzano settimanalmente il chatbot più famoso di OpenAI e anche chi non lo utilizza probabilmente trova spesso contenuti generati dall’intelligenza artificiale.
Ma dai risultati dello studio “Conversational AI and equity through assessing GPT-3’s communication with diverse social groups on contentious topics”, pubblicato su Scientific Reports da Kaiping Chen, Anqi Shao e Yixuan “Sharon” Li dell’Università del Wisconsin-Madison e da Jirayu Burapacheep della Stanford University, en merge qualcosa di controintuitivo rispetto alla vulgata correne sull’intelligenza artificiale: «Le persone più scettiche nei confronti del cambiamento climatico causato dall’uomo o del movimento Black Lives Matter che hanno preso parte a una conversazione con un popolare chatbot basato sull’intelligenza artificiale sono rimaste deluse dall’esperienza, ma hanno lasciato la conversazione con un maggior sostegno al consenso scientifico sul cambiamento climatico o BLM».
Il team di ricerca che studia come questi chatbot gestiscono le interazioni di persone con background culturali diversi fa notare che «Gli esseri umani più esperti possono adattarsi alle inclinazioni politiche e alle aspettative culturali dei loro interlocutori per assicurarsi di essere compresi, ma sempre più spesso gli esseri umani si trovano a conversare con programmi informatici, chiamati modelli linguistici di grandi dimensioni (large language models – LLM, ndr), pensati per imitare il modo in cui le persone comunicano.
Le ricercatrici dell’Università del Wisconsin-Madison che studiano l’intelligenza artificiale volevano capire come si sarebbe comportato GPT-3, un modello linguistico complesso e di grandi dimensioni. in discussioni complesse in un gruppo culturalmente diversificato di utenti.
Il modello è un precursore di quello che alimenta il ChatGPT e, tra la fine del 2021 e l’inizio del 2022, i ricercatori hanno reclutato più di 3.000 persone per conversare in tempo reale con GPT-3 sul cambiamento climatico e sul Black Lives Matter (BLM). La Chen, che insegna comunicazione nel campo delle scienze della vita che studia il modo in cui le persone discutono di scienza e deliberano su questioni politiche correlate, spesso attraverso la tecnologia digitale, spiega che «L’obiettivo fondamentale di un’interazione come questa tra due persone (o agenti) è aumentare la comprensione del punto di vista dell’altro». Un buon modello linguistico ampio probabilmente farebbe provare agli utenti lo stesso tipo di comprensione.”
Ai partecipanti allo studio è stato chiesto di avviare una conversazione con GPT-3 attraverso una configurazione di chat progettata da Burapacheep ed è stato detto loro di parlare con GPT-3 di cambiamento climatico o del movimento BLM, per il resto sono stati lasciati liberi di affrontare l’esperienza come desideravano. La conversazione media è proceduta per circa 8 turni e la maggior parte dei partecipanti è uscita dalla chat con livelli simili di soddisfazione per l’esperienza fatta.
La Chen spiega ancora: «Abbiamo posto loro un sacco di domande sull’esperienza dell’utente: ti piace? Lo consiglieresti? Tra genere, razza, etnia, non c’è stata molta differenza nelle loro valutazioni. Il punto in cui abbiamo riscontrato grandi differenze è stato tra le opinioni su questioni controverse e tra i diversi livelli di istruzione».
Circa il 25% dei partecipanti che hanno segnalato i livelli più bassi di accordo con il consenso scientifico sul cambiamento climatico o il minimo accordo con BLM erano, rispetto al restante 75% dei chatter, molto più insoddisfatti delle loro interazioni con GPT-3 e hanno assegnato al bot punteggi di mezzo punto o più inferiori su una scala a 5 punti. Ma i ricercatori fanno notare che «Nonostante i punteggi più bassi, la chat ha spostato il loro pensiero sugli argomenti più caldi. Le centinaia di persone meno favorevoli alla realtà del cambiamento climatico e alle sue cause provocate dall’uomo si sono spostate complessivamente del 6% verso l’estremità favorevole della scala». La Chen aggiunge che «Nei loro sondaggi post-chat hanno dimostrato di avere maggiori cambiamenti di atteggiamento positivo dopo la conversazione con GPT-3. Non dico che abbiano iniziato a riconoscere completamente il cambiamento climatico causato dall’uomo o che improvvisamente sostengano Black Lives Matter, ma quando abbiamo ripetuto le domande del nostro sondaggio su questi argomenti dopo le loro brevissime conversazioni, c’è stato un cambiamento significativo: atteggiamenti più positivi verso le opinioni della maggioranza sul cambiamento climatico o BLM».
GPT-3 ha offerto diversi stili di risposta tra i due argomenti, inclusa una maggiore giustificazione rispetto al cambiamento climatico causato dall’uomo. «E’ stato interessante – sottolinea la Chen – E’ probabile che alle persone che esprimevano qualche disaccordo con il cambiamento climatico GPT-3 dicessero che avevano torto e fornisse prove a sostegno di questo. La risposta di GPT-3 alle persone che affermavano di non supportare del tutto BLM è stata più del tipo: “Non penso che sarebbe una buona idea parlarne”.”Per quanto mi piaccia aiutarti, questa è una questione su cui non siamo davvero d’accordo”. Non è una brutta cosa. Equità e comprensione assumono forme diverse per colmare gap diversi. In definitiva, questa è la mia speranza per la ricerca sui chatbot».
I prossimi passi includono l’esplorazione delle differenze più dettagliate tra gli utenti dei chatbot, ma l’obiettivo di Chen è un dialogo davvero funzionante tra persone divise: «Non sempre vogliamo rendere felici gli utenti. Volevamo che imparassero qualcosa, anche se questo non avrebbe cambiato i loro atteggiamenti. Quel che possiamo imparare dall’interazione di un chatbot sull’importanza di comprendere prospettive, valori, culture, è importante per capire come possiamo aprire il dialogo tra le persone: il tipo di dialoghi che sono importanti per la società».
Grist evidenzia che «Dare priorità all’esperienza dell’utente rispetto alle informazioni reali potrebbe portare ChatGPT e strumenti simili a diventare veicoli di cattive informazioni, come molte delle piattaforme che hanno plasmato Internet e i social media prima di esso. Facebook, YouTube e Twitter, ora conosciuto come X, sono inondati di bugie e teorie cospirative sul cambiamento climatico. L’anno scorso, ad esempio, i post con l’hashtag #climatescam hanno ottenuto più mi piace e retweet su X rispetto a quelli con #climatecrisis o #climateemergency».
Lauren Cagle, professoressa di retorica e studi digitali all’università del Kentucky, commenta: «Abbiamo già un enorme problema con la disinformazione e misinformazione. Grandi modelli linguistici come ChatGPT “sono sul punto di far esplodere ancora di più questo problema».
Ma le ricercatrici dell’UW–Madison hanno scoperto che il tipo di informazioni fornite da GPT-3 dipende da chi sta parlando. Per i conservatori e le persone con un livello di istruzione inferiore, tendeva a usare parole legate a emozioni negative e a parlare degli esiti distruttivi del riscaldamento globale, dalla siccità all’innalzamento del mare. Per coloro che sostenevano il consenso scientifico, era più probabile che parlasse delle cose che si possono fare per ridurre l’impronta di carbonio, come mangiare meno carne o camminare e andare in bicicletta quando è possibile. Quel che GPT-3 ha detto sul cambiamento climatico ai partecipanti ai test è stato sorprendentemente accurato, secondo lo studio: «Solo il 2% delle sue risposte andava contro i fatti comunemente compresi sul cambiamento climatico».
Ma questi strumenti di intelligenza artificiale riflettono quello che è stato loro fornito e a volte rischiano di sbagliare: nell’aprile 2023, un’analisi dell’ONG brtannica Center for Countering Digital Hateha rilevato che il chatbot di Google, Bard ha risposto a un utente che «Non c’è nulla che possiamo fare per fermare il cambiamento climatico, quindi non ha senso preoccuparsene».
Anche se OpenAI ha una politica contro l’utilizzo della piattaforma per fuorviare intenzionalmente le persone, non è difficile utilizzare ChatGPT per generare disinformazione. Per esempio, la redazione di Grist è riuscita a convincere GPT-4, l’ultima versione pubblica, a scrivere un paragrafo nel quale il carbone era presentato come il combustibile del futuro, anche se inizialmente GPT-4 aveva tentato di respingere questa idea. Il paragrafo che ne è risultato pubblicizza il “carbone pulito”, un cavallo di battaglia dell’industria dei combustibili fossili.
C’è un altro problema con i modelli linguistici di grandi dimensioni come ChatGPT: sono inclini ad avere “allucinazioni” o a inventare informazioni.
Nonostante questi difetti, Grist evidenzia che «Ci sono potenziali vantaggi nell’utilizzare i chatbot per aiutare le persone a conoscere i cambiamenti climatici. In una normale conversazione da essere umano a essere umano sono in gioco molte dinamiche sociali, soprattutto tra gruppi di persone con visioni del mondo radicalmente diverse. Se un ambientalista cerca di sfidare le opinioni di un minatore di carbone sul riscaldamento globale, ad esempio, potrebbe mettere il minatore sulla difensiva, portandolo a puntare i piedi. Una conversazione tramite chatbot presenta un territorio più neutrale».
La Cagle evidenzia che «Per molte persone, probabilmente significa che non percepiscono l’interlocutore, o il chatbot AI, come avente caratteristiche identitarie opposte alle proprie, e quindi non devono difendersi». E questa è una delle spiegazioni per cui i negazionisti climatici che hanno partecipato ai test del nuovo studio potrebbero aver ammorbidito leggermente la loro posizione dopo aver chiacchierato con GPT-3.
Nel dicembre 2023, un gruppo di startup ha lanciato “ClimateGPT”, un LLM open source formato su studi legati al clima in ambito scientifico, economico e altre scienze socialie che ha l’obiettivo di generare risposte di alta qualità senza assorbire un’enorme quantità di elettricità. Secondo Christian Dugast, un scienziato del linguaggio naturale di AppTek, una compagnia di intelligenza artificiale della Virginia che ha contribuito a mettere a punto il nuovo bot, «Utilizza 12 volte meno energia di calcolo rispetto a ChatGPT».
Ma ClimateGPT non è ancora pronto per il grande pubblico «Finché non verranno testate adeguate misure di salvaguardia». Nonostante i problemi su cui Dugast sta lavorando, ammette che «Le “allucinazioni” e i fallimenti reali sono comuni tra questi chatbot» ma pensa che ClimateGPT «Potrebbe essere utile per le persone che sperano di saperne di più su alcuni aspetti del cambiamento climatico. Più penso a questo tipo di sistema, più mi convinco che quando si hanno a che fare con questioni complesse, è un buon modo per informarsi, per iniziare bene».