Cada vez usamos más la inteligencia artificial para ayudarnos a decidir, resumir, escribir, comparar opciones o resolver problemas, a pensar, en definitiva. Esto abre oportunidades para aprender mejor y trabajar de forma más eficiente, pero también nos enfrenta a nuevos retos a nivel cognitivo
¿Qué ocurre cuando dejamos de revisar lo que la IA nos propone?
Hoy traemos una investigación que creo que es interesante “Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender”, de Steven D. Shaw y Gideon Nave.
Tradicionalmente distinguimos entre un pensamiento rápido e intuitivo (sistema 1) y un pensamiento lento, reflexivo y analítico (sistema 2) (Kahneman, 2011) Los autores de esta investigación plantean que la IA introduce un nuevo actor en este proceso, un Sistema 3, una forma de pensamiento artificial.
Los autores señalan que este sistema 3 puede ser muy útil, ya que puede ayudarnos a contrastar ideas, encontrar errores, generar alternativas o ampliar nuestra capacidad de análisis. Pero también puede llevarnos a algo muy preocupante, que ya hemos abordado, la rendición cognitiva. Es decir, aceptar la respuesta de la IA con poca o ninguna revisión crítica.
¿Cuáles son los resultados principales de la investigación?
Rendición cognitiva. El estudio muestra que, cuando las personas usan IA, su rendimiento pasa a depender de ella, mejorando el mismo cuando la IA acierta en sus respuestas (71.0%) y empeorando cuando esta falla (31.5%), incluso por debajo del nivel sin IA (45.8%). Esto indica que no se utiliza como apoyo, sino como sustituto del pensamiento, evidenciando una rendición cognitiva que implica aceptar las respuestas de la IA sin evaluarlas críticamente.
Alta adopción de respuestas de la IA, incluso cuando eran incorrectas. Los participantes consultaron la IA en más del 50% de los ensayos. Cuando lo hacían, seguían sus recomendaciones en el 92.7% de los casos si eran correctas, pero también en el 79.8% cuando eran incorrectas. Es decir, incluso ante errores evidentes, solo se corregían en torno al 20% de las ocasiones, lo que muestra una baja tasa de supervisión crítica y una fuerte tendencia a aceptar la respuesta externa.
Confianza en la IA incluso cuando esta se equivoca. El uso de IA aumentó la confianza subjetiva en las respuestas, un 77.0% de los que usan IA frente a 65.3% sin IA (+11.7 puntos), esto teniendo en cuenta que aproximadamente la mitad de las respuestas de la IA eran erróneas.
Dejo una infografía desarrollada con ChatGPT, para que puedan acceder a un resumen del artículo.
¿Qué implicaciones tiene en la educación?
Todo lo anterior, nos hace pensar en las consecuencias que tiene en el aprendizaje. Podemos pensar en las siguientes:
En primer lugar, aparece un riesgo de debilitamiento del pensamiento crítico. Si los estudiantes aceptan las respuestas de la IA sin analizarlas, se reduce la activación del pensamiento analítico y reflexivo. Esto implica que pueden llegar a responder correctamente en algunos casos, pero sin comprender realmente lo que están haciendo. El aprendizaje se vuelve más superficial y dependiente.
Se genera una ilusión de competencia. El aumento de la confianza cuando se utiliza IA, incluso cuando las respuestas son incorrectas, provoca que los estudiantes crean que saben más de lo que realmente saben. Esta desconexión entre confianza y conocimiento puede reducir el esfuerzo cognitivo y dificultar la consolidación del aprendizaje.
Cambia la naturaleza del aprendizaje. El valor ya no está tanto en producir una respuesta, sino en saber evaluarla, contrastarla y justificarla. Esto desplaza el foco desde la resolución de problemas hacia la supervisión del razonamiento, lo que exige nuevas competencias como la verificación del proceso, el pensamiento crítico y la argumentación.
Por último, se redefine el papel del docente. Más que transmitir contenidos, su función pasa a ser la de entrenar cognitivamente al estudiante, diseñando actividades que obliguen a pensar, a explicar procesos y a cuestionar los resultados generados por la IA.
El verdadero reto educativo no es enseñar a usar la IA, sino enseñar a pensar con IA.
Referencias
Shaw, S. D., & Nave, G. (2025). Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender. Wharton School Research Paper.
Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
Proponen en el Senado prohibir la IA para sustituir mano de obra y vigilar a empleados
Senado propuso prohibir que empresas usen IA como sustituto de trabajadores o para vigilarlos; todavía es iniciativa, pero el tono ya quedó puesto.
En el Senado hay una propuesta de reforma a la LFT para regular el uso de inteligencia artificial en el trabajo, no solo para evitar la sustitución laboral de las personas, sino para prohibir la vigilancia excesiva y decisiones automatizadas sin control humano.
La IA obliga a los CEOs a elegir bando
El Wall Street Journal trae una mega historia: la IA está partiendo en dos a las cúpulas corporativas. De un lado, los que despiden. Del otro, los que aprietan a las que se quedan. En el primer bando: Coinbase tijeretea 14% de su plantilla, PayPal planea recortar 20% en tres años, y la CFO de Meta dijo que no se sabe cuál será el tamaño óptimo de la empresa. Del otro, la compañía Axon les prometió a sus 5,000 empleados que la IA no les costará el puesto, pero la letra chiquita es que cada cabeza rinda el doble.
¿Qué une a ambos bandos? Que nadie está contratando. Va la versión desbloqueada para lectura.
Apple es obligado a pagar por vender IA que no tenía
Un acuerdo de 250 millones de dólares en California confirma que Apple vendió el iPhone 16 y los 15 Pro prometiendo funciones de inteligencia artificial que al momento de la compra eran puro humo. Unos 37 millones de usuarios podrían cobrar entre 25 y 95 dólares por dispositivo. Apple no admitió culpa.
El acuerdo aplica solo en Estados Unidos, pero el patrón de vender hardware con IA de catálogo que todavía no existe cruzó todas las fronteras. Allá, nada de andar vendiendo espejitos (en teoría).
La pareja de Musk revela en juicio su plan con OpenAI
Tremendo chisme el cómo está avanzando el juicio contra OpenAI. Shivon Zilis, ex consejera de la compañía y madre de cuatro hijos del empresario, declaró en tribunal que Musk propuso formalmente absorber OpenAI como subsidiaria de Tesla.
Cuando le dijeron que no, fue cuando salió del consejo en 2018. La narrativa del "donante altruista traicionado" se resquebraja en el estrado.
Empieza a cuajar la narrativa de propuesta fallida de adquisición. Altman debe estar sonriendo, pero este novelón todavía no se acaba.
Al mismo tiempo, SpaceX firmó para rentar más de 200,000 GPU a Anthropic y acto seguido la empresa duplicó los límites de consumo diario a usuarios de Claude. Golpazo por el costado a OpenAI, por parte de Musk.
Beijing invertirá en DeepSeek con su fondo nacional de IA, valuando a la startup en 50,000 millones de dólares; hace semanas hablaban de entre 10,000 y 30,000. De laboratorio a activo de Estado.
Publicar un comentario