Skip to main content
Przejdź do strony domowej Komisji Europejskiej (odnośnik otworzy się w nowym oknie)
polski polski
CORDIS - Wyniki badań wspieranych przez UE
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary

Article Category

Article available in the following languages:

Czy możemy ufać, że sztuczna inteligencja podejmie lepsze decyzje od nas samych?

Zdaniem autorów nowego badania, najlepsze czatboty oparte na sztucznej inteligencji często popełniają te same błędy decyzyjne, co ludzie.

Serwis ChatGPT autorstwa OpenAI jest odwiedzany każdego miesiąca przez miliardy osób ciekawych tego przełomowego rozwiązania. Niektórzy zadają pytania, na przykład dotyczące tego, czy sposób myślenia najpopularniejszego na świecie czatbota jest bardziej zbliżony do naszego, niż zdajemy sobie z tego sprawę? Czy może kierować się dokładnie tymi samymi uprzedzeniami? Badanie przeprowadzone przez zespół kanadyjskich naukowców miało na celu znalezienie odpowiedzi na to pytanie dzięki przeprowadzeniu szeregu testów z udziałem ChatGPT. Wyniki opublikowane na łamach czasopisma naukowego „Manufacturing & Service Operations Management”(odnośnik otworzy się w nowym oknie) wykazały, że rozwiązanie popełniało takie same błędy, które popełniają także ludzie w określonych sytuacjach. Oznacza to, że czatbot nie tylko przetwarza ogromne ilości danych, ale także „myśli” podobnie jak my.

Ludzkie uprzedzenia

Naukowcy przeprowadzili 18 różnych testów, które miały zweryfikować uprzedzenia rozwiązania ChatGPT. Czatbot doskonale poradził sobie z zagadnieniami logicznymi i matematycznymi, jednak jego działanie charakteryzowało się wieloma uprzedzeniami i błędami poznawczymi podobnymi do ludzkich przy podejmowaniu subiektywnych decyzji. To między innymi nadmierna pewność siebie, awersja do ryzyka i błąd hazardzisty - fałszywe przekonanie, że jeśli zdarzenie miało miejsce kilka razy w przeszłości, to musi występować rzadziej w przyszłości. Podobne błędy poznawcze występowały w trakcie analizy różnych scenariuszy biznesowych, ale zdaniem zespołu badawczego mogą ulegać zmianom wraz z ulepszaniem sztucznej inteligencji i w nowych wersjach modelu. „Gdy sztuczna inteligencja uczy się na podstawie ludzkich danych, może również przejmować ludzki sposób myślenia, łącznie z uprzedzeniami, błędami poznawczymi i innymi problemami”, zauważa Yang Chen, główny autor badania i adiunkt na Western University. Jego wypowiedź została zacytowana w informacji prasowej(odnośnik otworzy się w nowym oknie). „Nasze badania pokazują, że gdy sztuczna inteligencja jest wykorzystywana do podejmowania decyzji, czasami stosuje te same skróty myślowe, jakie zastosowaliby ludzie w podobnej sytuacji”.

Pułapki w procesie podejmowania decyzji

Badacze odkryli również, że ChatGPT preferuje unikanie ryzyka, jednocześnie przecenia swoje możliwości, szuka potwierdzenia i unika dwuznaczności. „Kiedy istnieje konkretna prawidłowa odpowiedź, sztuczna inteligencja radzi sobie doskonale - jest lepsza w znajdowaniu właściwego rozwiązania niż większość ludzi”, twierdzi Anton Ovchinnikov z Queen's University. „Kiedy w grę wchodzi osąd, sztuczna inteligencja wpada w te same pułapki poznawcze, co ludzie”. „Sztuczna inteligencja nie potrafi dokonać bezstronnego osądu”, dodaje Samuel Kirshner z University of New South Wales Business School w Australii. „Pozwolenie SI na podejmowanie decyzji bez nadzoru może nie rozwiązać problemów decyzyjnych - wręcz przeciwnie, może je pogorszyć”. Biorąc pod uwagę wszystkie uprzedzenia i błędy poznawcze, autorzy badania twierdzą, że zarówno przedsiębiorstwa, jak i decydenci powinni ostrożnie podchodzić do stosowania sztucznej inteligencji przy podejmowaniu kluczowych decyzji. Szczególnie biorąc pod uwagę fakt, że zamiast eliminować ludzkie błędy, nowa technologia może zautomatyzować ich powtarzanie. „Sztuczna inteligencja powinna być traktowana jak pracownik, który podejmuje istotne decyzje - potrzebuje nadzoru i zasad etycznych”, wyjaśnia Meena Andiappan z McMaster University. „W przeciwnym razie ryzykujemy automatyzację błędnego myślenia zamiast jego usprawnienia”. Badacze zalecają przeprowadzanie systematycznych audytów z programowaniem i przeglądami, aby pomóc ograniczyć uprzedzenia, które wykazują dzisiejsze czatboty. „Rozwój, jaki miał miejsce między modelami GPT-3.5 i 4.0 wskazuje, że najnowsze modele stają się bardziej ludzkie w niektórych obszarach, a jednocześnie mniej ludzkie, ale bardziej dokładne w innych”, wyjaśniła Tracy Jenkin z Queen's University. „Menedżerowie muszą ocenić, jak różne modele sprawdzają się w ich obszarach decyzyjnych i regularnie dokonywać ponownej oceny, aby uniknąć niespodzianek. Niektóre scenariusze użycia i zastosowania będą wymagały istotnego dopracowania modelu”.

Słowa kluczowe

SI, czatbot, czatbot oparty na SI, ChatGPT, błąd poznawczy, uprzedzenie, podejmowanie decyzji, decyzja