Trauen wir der KI zu, bessere Entscheidungen zu treffen als wir Menschen?
Der ChatGPT von OpenAI wird jeden Monat milliardenfach von Menschen besucht, die sich für seinen transformativen Einfluss interessieren. Aber ist uns der beliebteste KI-Chatbot der Welt im Denken ähnlicher, als uns bewusst ist? Kann er genauso voreingenommen sein? Ein kanadisches Forscherteam wollte dieser Frage in seiner Studie auf den Grund gehen, indem es ChatGPT in mehrere Tests einbezog. Die in der Fachzeitschrift „Manufacturing & Service Operations Management“(öffnet in neuem Fenster) veröffentlichten Ergebnisse zeigen, dass das System Fehler macht, die auch bei Menschen in bestimmten Situationen vorkommen. Der KI-Chatbot verarbeitet nicht nur riesige Datenmengen, er „denkt“ auch wie wir.
Menschenähnliche Voreingenommenheit
Die Forscher unterzogen ChatGPT 18 verschiedenen Verzerrungstests. Obwohl das Sprachmodell in Logik und Mathematik hervorragend abschnitt, wies es bei subjektiven Entscheidungen viele der gleichen Voreingenommenheiten auf wie der Mensch. Solche Verzerrungen sind beispielsweise übermäßiges Vertrauen, Risikoaversion und der Spielerfehlschluss – die fehlerhafte Annahme, dass ein Ereignis, das in der Vergangenheit mehrmals aufgetreten ist, deshalb in der Zukunft seltener auftreten wird. Diese Verzerrungen blieben über verschiedene Geschäftsszenarien hinweg konstant. Das Forschungsteam geht jedoch davon aus, dass sie sich bei einer fortlaufenden Optimierung neuer KI-Versionen ändern könnten. „Wenn KI mithilfe menschlicher Daten lernt, kann sie auch wie ein Mensch denken – Vorurteile miteingeschlossen“, kommentiert der Hauptautor Yang Chen, Assistenzprofessor an der Western University, in einer Pressemitteilung(öffnet in neuem Fenster). „Unsere Forschung zeigt, dass KI, wenn sie zur Entscheidungsfindung eingesetzt wird, manchmal die gleichen mentalen Abkürzungen verwendet wie Menschen.“
In die gleichen Entscheidungsfallen tappen
Die Forscher fanden auch heraus, dass ChatGPT gerne auf Nummer sicher geht, sich selbst überschätzt, Bestätigung sucht und Mehrdeutigkeit vermeidet. „Wenn es für eine Entscheidung eine eindeutige richtige Antwort gibt, wird die KI die besten Ergebnisse erzielen – sie ist besser darin, die richtige Formel zu finden als die meisten Menschen“, so Anton Ovchinnikov von der Queen's University. „Wenn aber Urteilsvermögen gefragt ist, kann sich die KI in denselben kognitiven Fallen wiederfinden wie die Menschen.“ „KI verhält sich nicht wie ein neutraler Schiedsrichter“, fügt Samuel Kirshner von der Business School der Universität von Neusüdwales in Australien hinzu. „Wenn sie sich selbst überlassen bleibt, werden Entscheidungsprobleme möglicherweise nicht gelöst, sondern sogar verschlimmert.“ Aufgrund all dieser Verzerrungen sind die Autoren der Studie der Ansicht, dass Unternehmen und politische Entscheidungsträger sich bei wichtigen Entscheidungen nicht vollständig auf KI verlassen sollten. Möglicherweise beseitigt sie menschliche Fehler nicht, sondern automatisiert sie. „KI sollte wie ein Angestellter behandelt werden, der wichtige Entscheidungen trifft – sie braucht Aufsicht und ethische Richtlinien“, erklärt Meena Andiappan von der McMaster University. „Andernfalls riskieren wir, fehlerhaftes Denken zu automatisieren, anstatt es zu berichtigen.“ Die Forscher empfehlen systematische Audits mit Programmierung und Überprüfungen, um die Voreingenommenheit der heutigen Chatbots zu verringern. „Die Entwicklung von GPT-3.5 zu 4.0 deutet darauf hin, dass die neuesten Modelle in einigen Bereichen menschlicher und in anderen weniger menschlich, aber genauer werden“, erklärt Tracy Jenkin von der Queen's University. „Manager müssen bewerten, wie die verschiedenen Modelle bei ihren Entscheidungsfindungsprozessen abschneiden, und sie müssen regelmäßig eine Neubewertung vornehmen, um Überraschungen zu vermeiden. Für einige Anwendungsfälle wird eine erhebliche Verfeinerung des Modells erforderlich sein.“
Schlüsselbegriffe
KI, Chatbot, KI-Chatbot, ChatGPT, Voreingenommenheit, Entscheidungsfindung, Entscheidung