Skip to main content
Ir a la página de inicio de la Comisión Europea (se abrirá en una nueva ventana)
español español
CORDIS - Resultados de investigaciones de la UE
CORDIS

Article Category

Article available in the following languages:

¿Podemos confiar en que la inteligencia artificial tome mejores decisiones que nosotros?

Según se revela en un nuevo estudio, los chatbots de inteligencia artificial (IA) corren a menudo el riesgo de cometer los mismos errores de decisión que los humanos.

ChatGPT de OpenAI recibe miles de millones de visitas mensuales de curiosos por su influencia transformadora. ¿Y si el chatbot de IA más popular del mundo piensa como nosotros más de lo que creemos? ¿Puede ser igual de sesgado? En un estudio, dirigido por un equipo de investigadores canadienses, se propusieron responder a esta pregunta sometiendo a ChatGPT a varias pruebas. Publicados en la revista «Manufacturing & Service Operations Management»(se abrirá en una nueva ventana), los resultados mostraron que cometía errores que también cometen los humanos en determinadas situaciones. El chatbot de IA no solo procesa cantidades ingentes de datos, sino que «piensa» como nosotros.

Sesgo humano

Los investigadores sometieron a ChatGPT a dieciocho pruebas de sesgo diferentes. Aunque sobresalió en lógica y matemáticas, mostró muchos de los mismos sesgos que los humanos a la hora de tomar decisiones subjetivas. Entre los sesgos se encontraron el exceso de confianza, la aversión al riesgo y la falacia del jugador, es decir, la falsa creencia de que si un acontecimiento ha ocurrido varias veces en el pasado, ocurrirá con menos frecuencia en el futuro. Estos sesgos se mantuvieron constantes en escenarios empresariales diferentes, pero el equipo de investigación cree que podrían cambiar a medida que la IA siga mejorando con nuevas versiones. «A medida que la IA aprende de los datos humanos, también puede pensar como un ser humano, con sus prejuicios y todo», comentó el autor principal, Yang Chen, profesor adjunto de la Universidad de Ontario Occidental, en un comunicado de prensa(se abrirá en una nueva ventana). «En nuestra investigación se demuestra que cuando la IA se utiliza para emitir juicios, a veces emplea los mismos atajos mentales que las personas».

Caer en las mismas trampas al tomar decisiones

Los investigadores también descubrieron que a ChatGPT le gustaba ser precavido, sobrevalorarse, buscar confirmación y evitar la ambigüedad. «Cuando una decisión tiene una respuesta correcta clara, la IA acierta: es mejor encontrando la fórmula correcta que la mayoría de las personas», afirma Anton Ovchinnikov, de la Universidad de Queen. «Pero cuando se requiere juicio, la IA puede caer en las mismas trampas cognitivas que las personas». «La IA no es un árbitro neutral», añade Samuel Kirshner, de la Escuela de Negocios de la Universidad de Nueva Gales del Sur (Australia). «Si no se controla, puede que no solucione los problemas de toma de decisiones, sino que los empeore». Debido a todos estos sesgos, los autores del estudio afirman que las empresas y los responsables políticos deben ser cautos a la hora de confiar en la IA para tomar decisiones clave. Puede que no elimine el error humano, pero sí que lo automatice. «La IA debe ser tratada como un empleado que toma decisiones importantes: necesita supervisión y directrices éticas», explica Meena Andiappan, de la Universidad McMaster. «De lo contrario, corremos el riesgo de automatizar el pensamiento erróneo en lugar de mejorarlo». Los investigadores recomiendan auditorías sistemáticas con programación y revisiones para ayudar a reducir los sesgos que muestran los chatbots actuales. «La evolución de GPT-3.5 a 4.0 sugiere que los últimos modelos son cada vez más humanos en algunas áreas, y menos humanos pero más precisos en otras», explicó Tracy Jenkin, de la Universidad de Queen. «Los gestores deben evaluar el rendimiento de los distintos modelos en sus casos de uso para la toma de decisiones y reevaluarlos periódicamente para evitar sorpresas. Algunos casos de uso necesitarán un refinamiento significativo del modelo».