Skip to main content
Vai all'homepage della Commissione europea (si apre in una nuova finestra)
italiano italiano
CORDIS - Risultati della ricerca dell’UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Article Category

Article available in the following languages:

Possiamo fidarci dell’intelligenza artificiale per prendere decisioni migliori delle nostre?

Secondo un nuovo studio, i migliori chatbot basati sull’intelligenza artificiale rischiano spesso di commettere gli stessi errori decisionali degli esseri umani.

ChatGPT di OpenAI riceve miliardi di visite mensili da persone curiose della sua influenza rivoluzionaria; tuttavia, potrebbe essere che il chatbot basato sull’intelligenza artificiale (IA) più famoso al mondo pensi in modo analogo al nostro più di quanto crediamo? È possibile che sia altrettanto parziale? Uno studio condotto da un team di ricercatori canadesi si è prefisso di rispondere a queste domande coinvolgendo ChatGPT in diversi test. Pubblicati sulla rivista «Manufacturing & Service Operations Management»(si apre in una nuova finestra), i risultati hanno dimostrato che il sistema commette gli stessi errori perpetrati dagli esseri umani in determinate situazioni. Questo chatbot basato sull’IA non si limita quindi a elaborare enormi quantità di dati, ma «pensa» anche come noi.

Pregiudizi simili a quelli umani

I ricercatori hanno sottoposto ChatGPT a 18 diversi test sulla parzialità; pur eccellendo in logica e matematica, il chatbot ha messo in evidenza molti degli stessi pregiudizi che manifestano gli esseri umani nel prendere decisioni soggettive. Tra di essi figurano l’eccesso di fiducia, l’avversione al rischio e la fallacia dello scommettitore, ovvero la falsa convinzione che se un evento si è verificato più volte in passato, accadrà meno spesso in futuro. Questi pregiudizi sono rimasti costanti in diversi scenari aziendali; tuttavia, il team di ricerca ritiene che potrebbero cambiare man mano che l’IA continuerà a migliorare con il rilascio di nuove versioni. «Dato che l’IA apprende dai dati umani, è possibile che pensi anche come un essere umano, con tutti i suoi pregiudizi», ha commentato Yang Chen, autore principale dello studio e docente assistente presso la Western University, in un comunicato stampa(si apre in una nuova finestra). «La nostra ricerca dimostra che quando l’IA viene utilizzata per formulare giudizi, a volte utilizza le stesse scorciatoie mentali adottate dalle persone.»

Cadere nelle stesse trappole decisionali

I ricercatori hanno inoltre rilevato che ChatGPT amava andare sul sicuro, sopravvalutarsi, cercare conferme ed evitare ambiguità. «Quando esiste una chiara scelta appropriata per una decisione, l’IA la trova con certezza: è più brava a trovare la formula giusta di quanto lo sia la maggior parte delle persone», ha dichiarato Anton Ovchinnikov, docente presso la Queen’s University. «Quando si tratta di giudicare, tuttavia, l’IA può cadere nelle stesse trappole cognitive degli esseri umani.» «L’IA non è un arbitro neutrale», ha aggiunto Samuel Kirshner, docente presso l’University of New South Wales Business School in Australia. «Se non la si sottopone a un controllo, potrebbe non solo non risolvere i problemi decisionali, ma addirittura peggiorarli.» A causa di tutti questi pregiudizi, gli autori dello studio affermano che le aziende e i responsabili delle politiche dovrebbero essere cauti nell’affidarsi all’IA per la realizzazione dei processi decisionali chiave: essa infatti potrebbe non eliminare l’errore umano e, al contrario, automatizzarlo. «L’IA dovrebbe essere trattata come un dipendente che prende decisioni importanti: ha bisogno di supervisione e di linee guida etiche», ha spiegato Meena Andiappan, professoressa alla McMaster University. «Altrimenti, invece di eliminarli, rischiamo di automatizzare gli errori di ragionamento.» I ricercatori raccomandano di effettuare verifiche sistematiche mediante la programmazione e le revisioni, in modo da ridurre i pregiudizi manifestati dai chatbot odierni. «L’evoluzione del software GPT dalla versione 3.5 al 4.0 suggerisce che i modelli più recenti stanno diventando più umani in alcune aree e meno umani ma più precisi in altre», ha spiegato Tracy Jenkin, docente presso la Queen’s University, concludendo: «I manager devono valutare le prestazioni dei diversi modelli nei casi d’uso decisionali e valutarli più volte con regolarità per evitare sorprese. Alcuni casi d’uso richiederanno un significativo affinamento del modello.»

Parole chiave

AI, chatbot, chatbot basato sull’IA, ChatGPT, pregiudizio, processo decisionale, decisione