Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Article Category

Article available in the following languages:

Pouvons-nous faire confiance à l’IA pour prendre de meilleures décisions que nous?

Selon une nouvelle étude, les meilleurs dialogueurs d’IA risquent souvent de commettre les mêmes erreurs de décision que les humains.

ChatGPT d’OpenAI reçoit des milliards de visites mensuelles de personnes curieuses de découvrir son influence révolutionnaire. Mais le dialogueur d’IA le plus populaire au monde raisonne-t-il davantage comme nous que nous ne le pensons? Peut-il être aussi partial? Une équipe de chercheurs canadiens a mené une étude pour tenter de répondre à cette question en soumettant ChatGPT à plusieurs tests. Publiées dans la revue «Manufacturing & Service Operations Management»(s’ouvre dans une nouvelle fenêtre), les conclusions ont montré qu’il commettait les mêmes erreurs que les humains dans certaines situations. Le dialogueur d’IA ne se contente pas de traiter des quantités massives de données, il «pense» comme nous.

Des biais de type humain

Les chercheurs ont soumis ChatGPT à 18 tests de partialité différents. Tout en excellant dans la logique et les mathématiques, il a présenté de nombreux biais similaires à ceux des humains lorsqu’il devait prendre des décisions subjectives. Les biais comprennent l’excès de confiance, l’aversion au risque et l’erreur du joueur, à savoir croire de manière erronée que si un événement s’est produit plusieurs fois dans le passé, il se produira moins souvent dans l’avenir. Ces biais sont restés constants dans différents scénarios commerciaux, mais l’équipe de recherche pense qu’ils pourraient évoluer au fur et à mesure que l’IA s’améliore avec de nouvelles versions. «Alors que l’IA apprend à partir de données humaines, elle pourrait aussi penser comme un être humain, avec tous ses biais», a déclaré l’auteur principal, Yang Chen, professeur adjoint à l’université Western, dans un communiqué de presse(s’ouvre dans une nouvelle fenêtre). «Nos recherches montrent que lorsque l’IA est utilisée pour prendre des décisions, elle recourt parfois aux mêmes raccourcis mentaux que les humains.»

Tomber dans les mêmes pièges décisionnels

Les chercheurs ont également constaté que ChatGPT aimait jouer la carte de la sécurité, se surestimer, rechercher la confirmation et éviter l’ambiguïté. «Lorsqu’une décision comporte une bonne réponse claire, l’IA l’emporte, car elle est plus apte à trouver la bonne formule que la plupart des personnes», déclare Anton Ovchinnikov, de l’université Queen’s. «Toutefois, lorsqu’il s’agit de juger, l’IA pourrait tomber dans les mêmes pièges cognitifs que les humains.» «L’IA n’est pas un arbitre neutre», ajoute Samuel Kirshner, de l’école de commerce de l’université de Nouvelle-Galles du Sud, en Australie. «Si l’on n’y prend pas garde, elle pourrait ne pas résoudre les problèmes de prise de décision, mais au contraire les aggraver.» En raison de tous ces biais, les auteurs de l’étude affirment que les entreprises et les décideurs politiques devraient faire preuve de discernement avant de compter sur l’IA pour prendre des décisions importantes. Elle pourrait ne pas éliminer l’erreur humaine, mais l’automatiser. «L’IA devrait être traitée comme un employé qui prend des décisions importantes, elle a besoin d’une supervision et de directives éthiques», explique Meena Andiappan de l’université McMaster. «Nous risquons autrement d’automatiser une pensée erronée au lieu de l’améliorer.» Les chercheurs recommandent de procéder à des audits systématiques de la programmation et d’effectuer des révisions afin de réduire les biais dont font preuve les dialogueurs actuels. «L’évolution de GPT-3.5 à 4.0 laisse penser que les derniers modèles deviennent plus humains dans certains domaines, et moins humains mais plus précis dans d’autres», explique Tracy Jenkin de l’université Queen’s. «Les responsables doivent évaluer les performances des différents modèles dans leurs cas d’utilisation pour la prise de décision et les réévaluer régulièrement pour éviter les surprises. Certains cas d’utilisation nécessiteront un affinement significatif du modèle.»

Mots‑clés

IA, dialogueur, dialogueur d’IA, ChatGPT, biais, prise de décision, décision