Yakarta, CNN Indonesia —
A Estudios Lo último muestra que el uso de inteligencia artificial (AI) Demasiado puede eliminar el efecto Dunning-Kruger. Mira la investigación.
Científicos de la Universidad Aalto de Finlandia, junto con colaboradores de Alemania y Canadá, han descubierto que el uso de IA casi elimina el efecto Dunning-Kruger y casi lo revierte.
PUBLICIDAD
Desplácese para continuar con el contenido
El efecto Dunning-Kruger es un sesgo cognitivo en el que alguien que tiene bajas habilidades en un área tiende a sentir que sus habilidades son mayores que la realidad, mientras que alguien que es muy competente tiende a subestimar sus propias habilidades. Este fenómeno fue probado por primera vez mediante una serie de experimentos realizados por Justin Kruger y David Dunning.
Los investigadores publicaron sus hallazgos en la edición de febrero de 2026 de la revista Computers in Human Behavior.
Además, los investigadores demostraron que cuando se utiliza la IA para resolver problemas, todos (independientemente de su nivel de habilidad) tienden a confiar demasiado en la calidad de la respuesta.
A medida que la inteligencia artificial se vuelve más conocida gracias al uso más amplio de grandes modelos de lenguaje (LLM), los investigadores esperan que los participantes no solo puedan interactuar mejor con los sistemas de IA, sino que también puedan evaluar con mayor precisión su propio desempeño al usarlos.
“Sin embargo, nuestros resultados muestran una incapacidad significativa en nuestra muestra para evaluar con precisión el propio desempeño cuando se utiliza la IA”, informó Robin Welsch, uno de los investigadores involucrados en el estudio. LiveScienceLunes (17 de noviembre).
En el estudio, los investigadores asignaron a 500 participantes tareas de razonamiento del examen de ingreso a la facultad de derecho y la mitad de ellos usaron ChatGPT.
Luego, ambos grupos fueron evaluados en cuanto a sus conocimientos de IA y evaluaciones de desempeño, con la promesa de una compensación adicional por autoevaluaciones precisas.
Las razones de estos hallazgos son diversas. Cualquiera que utilice IA en este tipo de experimentos suele quedar satisfecho con la respuesta tras una pregunta o solicitud y la acepta sin comprobarla ni confirmarla.
Según Welshch, se puede decir que realizan una “descarga cognitiva”, es decir, hacen preguntas con una reflexión reducida y las abordan de una manera más “superficial”.
La falta de participación en el propio razonamiento, o “monitoreo metacognitivo”, significa que se pasan por alto los ciclos de retroalimentación habituales del pensamiento crítico y se reduce la capacidad de evaluar con precisión el desempeño.
Aún más sorprendente es el hecho de que tendemos a sobreestimar nuestras capacidades cuando utilizamos la IA, independientemente del nivel de inteligencia. La brecha entre los usuarios de alto y bajo rendimiento se está reduciendo.
Aunque los investigadores no abordaron esto directamente, sus hallazgos llegan en un momento en el que los científicos se preguntan si los modelos de lenguaje grande (LLM, por sus siglas en inglés) utilizados comúnmente son demasiado glamorosos.
El equipo de Aalto advierte de algunas posibles consecuencias si se generaliza el uso de la IA.
En primer lugar, la precisión metacognitiva general puede verse afectada. Cuanto más dependientes nos volvemos de los resultados sin examinarlos rigurosamente, más surge una compensación en la que el rendimiento del usuario aumenta pero nuestra comprensión de qué tan bien realizamos esas tareas disminuye.
Sin reflexionar sobre los resultados, comprobar si hay errores o pensar más profundamente, corremos el riesgo de socavar nuestra capacidad de obtener información de forma fiable, dijeron los científicos en el estudio.
Además, un debilitamiento del efecto Dunning-Kruger significa que todos seguiremos considerándonos más capaces cuando se trata de utilizar la IA, y aquellos que tienen más conocimientos sobre la IA lo harán en mayor medida, lo que conducirá a un clima de toma de decisiones defectuosa y erosión de habilidades.
Un método sugerido en este estudio para detener el declive es alentar a los usuarios a hacer preguntas adicionales mientras los desarrolladores redirigen sus respuestas para fomentar la reflexión.
Esto puede incluir preguntas como “¿Qué tan seguro estás de esta respuesta?” acto. o “¿Qué te podría estar perdiendo?” o fomentar una mayor participación a través de medidas como puntuaciones de confianza.
Esta nueva investigación respalda aún más la creciente creencia, expresada recientemente por la Royal Society, de que la formación en inteligencia artificial (IA) debería incluir tanto pensamiento crítico como habilidades técnicas.
“Ofrecemos recomendaciones de diseño para sistemas interactivos de IA que mejoran el monitoreo metacognitivo al permitir a los usuarios reflexionar críticamente sobre su desempeño”, dijeron los científicos.
(wpj/dmi)
(Gambas: vídeo de CNN)