Quiero leer los ultimos artículos

Destacado

El analgésico y la cirugía

La OCDE quiere curar la educación con inteligencia artificial.Pero el paciente necesita otra operación.

Por Roberto Barrientos Mollo

Marzo 2026

En una escuela secundaria de Estambul, mil estudiantes se sentaron frente a un problema de matemáticas. Un tercio de ellos lo resolvió como siempre: con sus apuntes, su libro de texto y su propio esfuerzo mental. Otro tercio recibió acceso a GPT-4, el modelo de lenguaje más avanzado del momento. El tercio restante usó una versión especial de GPT-4, diseñada para enseñar: no daba respuestas directas, hacía preguntas, guiaba el razonamiento. Era, en teoría, el futuro de la educación.

Los resultados durante la práctica fueron espectaculares. Los estudiantes con GPT-4 respondieron correctamente un 48% más que sus compañeros sin tecnología. Los que usaron la versión educativa, un 127% más. Si uno se hubiera detenido ahí —y gran parte de la industria tecnológica se detiene exactamente ahí—, la conclusión habría sido obvia: la inteligencia artificial mejora el aprendizaje. Caso cerrado.

Pero los investigadores hicieron algo que la industria rara vez hace: esperaron. Luego sometieron a los tres grupos al mismo examen, sin acceso a ninguna herramienta. Y ocurrió algo perturbador. Los estudiantes que habían usado GPT-4 genérico rindieron un 17% peor que quienes habían estudiado solos. La versión educativa apenas empató con el grupo de control. La tecnología más poderosa del planeta, aplicada a la educación, había producido la ilusión del aprendizaje mientras erosionaba el aprendizaje real.

Este experimento, conducido por investigadores de la Universidad de Pensilvania y publicado en 2024, aparece citado en un lugar prominente del OECD Digital Education Outlook 2026, el informe de 247 páginas que la Organización para la Cooperación y el Desarrollo Económicos acaba de publicar sobre inteligencia artificial y educación. He pasado varios días con este documento. Lo he leído con la atención que merece: trece capítulos, decenas de estudios empíricos, entrevistas con expertos de primera línea. Y la conclusión a la que he llegado es incómoda: la OCDE ha producido el diagnóstico correcto y la receta equivocada.

* * *

El informe es, en muchos sentidos, admirable. Reúne la mejor evidencia disponible sobre lo que ocurre cuando la inteligencia artificial generativa entra al mundo educativo. Documenta que el 37% de los docentes de secundaria en países de la OCDE ya usan IA generativa en su trabajo. Que el 86% de los estudiantes universitarios la emplean. Que en Alemania el 94% de los estudiantes de educación superior usa alguna forma de IA. Que en Estonia el 90% de los estudiantes de secundaria superior la utiliza, mientras que solo el 50% de sus profesores lo hace. La IA generativa no tocó la puerta de la escuela: entró por la ventana.

Y el informe no esconde los riesgos. Además del experimento turco, cita un estudio neurocientífico de cinco universidades estadounidenses que midió lo que ocurre en el cerebro de los estudiantes mientras escriben ensayos bajo tres condiciones: solos, con un buscador web y con ChatGPT. Los ensayos del grupo con ChatGPT fueron bien calificados. Pero una hora después, solo el 12% de esos estudiantes podía recordar algo de lo que habían escrito. En los otros dos grupos, el 89% recordaba con claridad. El cerebro, literalmente, no se había encendido.

Los investigadores llamaron a este fenómeno “descarga cognitiva”. El informe de la OCDE lo describe con un término más académico: “pereza metacognitiva”. Cuando los estudiantes interactúan con un chatbot de propósito general, tienden a saltarse las fases de diagnóstico, evaluación e iteración que caracterizan el aprendizaje genuino. Piden la respuesta, la copian, siguen adelante. La IA no les falló. Les funcionó demasiado bien para el propósito equivocado.

El informe documenta también que los usos más frecuentes de la IA entre estudiantes son obtener información (56%), pedir explicaciones de conceptos (45%) y, de manera preocupante, obtener soluciones completas a tareas (31%). Solo un 20% la usa para funciones de autorregulación como estructurar planes de aprendizaje o hacer seguimiento de su propio progreso. En otras palabras: los estudiantes usan la IA como atajo, no como herramienta de pensamiento.

* * *

Hasta aquí, el diagnóstico es impecable. Pero entonces llega la solución, y algo se tuerce.

La principal recomendación del informe puede resumirse así: necesitamos IA educativa con propósito pedagógico, diseñada junto con los docentes, alineada con los currículos, integrada en escenarios de aprendizaje intencionalmente diseñados por los profesores. En lugar de chatbots genéricos, herramientas específicas. En lugar de respuestas directas, andamiaje socrático. En lugar de automatización ciega, complementariedad entre humano y máquina.

Suena razonable. Suena prudente. Suena, si uno se detiene a pensarlo, exactamente a lo que un organismo internacional diría.

El problema es que esta receta asume que el paciente solo necesita un analgésico mejor. Asume que la estructura fundamental de la educación —currículo, asignaturas, grados, horarios, evaluaciones estandarizadas, docentes como transmisores de contenido, estudiantes como receptores— es correcta, y que lo único que hace falta es una herramienta más inteligente para optimizarla. Es, en los términos del teórico de la innovación Clayton Christensen, innovación de eficacia: mejorar el rendimiento de un sistema existente sin cuestionar sus premisas (2013).

Pero, ¿y si las premisas son el problema?

* * *

Hace casi una década, antes de que la inteligencia artificial generativa existiera como fenómeno masivo, exploré esta disyuntiva en un texto que titulé “Desaparecer el sistema educativo para mejorar aprendizajes”. Siguiendo a Christensen, planteaba que existen dos tipos de innovación: la de eficacia, que mejora y optimiza un sistema existente, y la disruptiva, que lo reemplaza por algo fundamentalmente distinto. Y citaba a Richard Elmore, de Harvard, quien después de décadas estudiando el cambio educativo había llegado a una formulación brutal: 

la cruel ironía de nuestra circunstancia actual es que las escuelas son lugares hostiles e inhospitalarios para el aprendizaje. Son hostiles al aprendizaje de los adultos y, por eso mismo, son necesariamente hostiles al aprendizaje de los estudiantes. (Elmore, 2002, pp.45)

No dijo que las escuelas fueran imperfectas. Dijo que eran hostiles. Y notó, con una lucidez que ningún reporte internacional ha igualado desde entonces, que esa hostilidad opera primero contra los maestros: solo después, y como consecuencia, contra los estudiantes.

Junto a Elmore aparecía Iván Illich, quien medio siglo antes había escrito que “la escalada de las escuelas es tan destructiva como la de las armas, si bien de manera menos visible.” (2013) Y junto a estas voces radicales, colocaba a Michael Fullan y Santiago Rincón-Gallardo, quienes desde una postura más moderada insistían en que el aprendizaje profundo —ese aprendizaje verdadero, enraizado, transferible, que hace que un estudiante no escuche el timbre del recreo porque está absorto en lo que hace— podía germinar incluso dentro del sistema, si se creaban las condiciones correctas.

Entonces, la distinción entre las dos opciones era filosófica. Se podía debatir en un seminario, asentir con la cabeza y volver a la oficina a llenar formularios de planificación curricular. Hoy, la inteligencia artificial convierte esa distinción en una emergencia práctica.

La razón es sencilla: por primera vez en la historia, los estudiantes tienen acceso masivo, gratuito e incontrolable a una herramienta que hace mejor que la escuela aquello que la escuela dice hacer. Si la función de la escuela es transmitir información, la IA lo hace mejor. Si es evaluar la retención de datos, la IA puede fabricar las respuestas. Si es producir ensayos, resúmenes, ejercicios resueltos, la IA lo hace en segundos. El monopolio organizativo que la escuela tenía sobre el aprendizaje se rompió. No mañana. Ya.

Frente a esto, la respuesta de la OCDE es: diseñemos mejor IA para el currículo. Es como si, ante la invención del automóvil, alguien hubiera propuesto diseñar mejores herraduras.

* * *

Años más tarde, ya con ChatGPT en el aire, en otro artículo,  intenté articular esta inquietud de otra manera. Recurrí al mito de Ícaro y Dédalo. La historia es conocida: Dédalo, el ingenioso inventor, fabrica alas de plumas y cera para escapar del laberinto que él mismo construyó. Su hijo Ícaro, embriagado por la emoción de volar, se acerca demasiado al sol, la cera se derrite, y cae al mar.

La lectura convencional del mito es una advertencia contra la soberbia tecnológica: no vueles demasiado alto. Pero hay un detalle que suele pasarse por alto. Dédalo tampoco es inocente. Fue él quien colaboró con la diosa Pasífae para la concepción del Minotauro, un monstruo devorador de humanos. Actuó sin criterio ético, sin considerar las consecuencias de su ingenio. De modo que en el mito no hay un usuario sabio de la tecnología: hay un imprudente y un irresponsable.

Hace falta una tercera postura, más allá de Ícaro y más allá de Dédalo: el uso de la inteligencia artificial al servicio de fines humanísticos. No la IA que embelesa como el vuelo embelesó a Ícaro, ni la IA que crea monstruos como los que engendró el ingenio sin ética de Dédalo, sino una IA al servicio de lo que la educación debería haber sido siempre y raramente ha logrado ser.

* * *

¿Para qué educamos? Es la pregunta que el informe de la OCDE nunca formula. No qué contenidos enseñamos, ni cómo los evaluamos, ni con qué tecnología los entregamos. Para qué.

Si la respuesta es “para que los estudiantes adquieran conocimientos disciplinares medidos por exámenes estandarizados”, entonces la IA debe alinearse con el currículo, y el informe de la OCDE es una guía razonable. Pero si la respuesta es otra —y estoy convencido de que debe ser otra—, entonces estamos usando la tecnología más transformadora de nuestra era para parchar un tren viejo cuando podríamos estar construyendo un avión.

Propongo que la educación debería organizarse en torno a cuatro propósitos fundamentales. No son nuevos. Son, de hecho, tan antiguos como la humanidad misma. Pero ningún currículo convencional los articula con claridad, y la inteligencia artificial podría servirlos de manera extraordinaria.

Primero: ayudar a cada persona a conocerse a sí misma. No en el sentido trivial de un test de personalidad, sino en el sentido profundo de entender cómo piensa, qué la mueve, cuál es el sentido de su vida, cuáles son sus fortalezas y fragilidades, qué tipo de contribución quiere hacer al mundo. La IA generativa, con su capacidad de sostener conversaciones largas, personalizadas y pacientes, podría ser el primer instrumento en la historia capaz de facilitar esta exploración a escala. No como tutor de matemáticas, sino como espejo socrático.

Segundo: ayudar a cada persona a saber cuidar de otros. La empatía, el servicio, la responsabilidad por el bienestar ajeno no se enseñan con un examen de opción múltiple. Pero una IA que simule dilemas éticos complejos, que presente perspectivas diversas, que acompañe proyectos de servicio comunitario con retroalimentación constante, podría amplificar la capacidad de las escuelas de formar personas que no solo sepan, sino que cuiden.

Tercero: ayudar a cada persona a mejorar el mundo, tanto en su entorno cercano como en el lejano. Aquí el informe de la OCDE ofrece, sin quererlo, una pista. El capítulo sobre aprendizaje colaborativo documenta que la IA puede actuar como nodo de información, generador de materiales personalizados, fuente de retroalimentación y compañero de trabajo grupal. Pero estos roles se describen dentro del aula tradicional. Imaginen esos mismos roles al servicio de proyectos reales: estudiantes de Paruro usando IA para analizar datos de calidad de agua de sus ríos, jóvenes de Lima Sur diseñando con IA propuestas de mejora para sus barrios, adolescentes co-inteligentes —en el sentido que Ethan Mollick le da al término— resolviendo problemas que antes eran demasiado ambiciosos para la escuela. Ya no se trata de preguntar cuáles son las partes del hígado, sino de preguntar cómo podríamos curar el cáncer de hígado con los conocimientos existentes. La IA convierte esas preguntas imposibles en preguntas trabajables.

Cuarto: aprender a aprender continuamente, porque el mundo es cambiante. Este es quizá el propósito donde la paradoja es más aguda. El informe de la OCDE demuestra que la IA, mal usada, destruye exactamente esta capacidad: genera pereza metacognitiva, descarga cognitiva, ilusión de competencia. Pero bien usada —diseñada no para dar respuestas sino para provocar preguntas, no para completar tareas sino para hacer visible el propio proceso de pensamiento— la IA podría ser la herramienta más poderosa jamás creada para desarrollar la metacognición. El problema no es la IA. El problema es ponerla al servicio de un sistema que premia respuestas correctas en lugar de buenas preguntas.

* * *

Quien mejor anticipó esta paradoja fue Seymour Papert, el matemático del MIT que inventó el lenguaje Logo y que fue maestro de Mitchel Resnick, creador de Scratch. Papert pasó su vida convencido de que la computadora podía transformar radicalmente el aprendizaje. Y, sin embargo, hacia el final de su carrera escribió una observación devastadora: el fenómeno más importante que había comprendido era el poder de la escuela, como institución, para asimilar cualquier cosa nueva que apareciera. La computadora llegó —y la escuela se la tragó. La convirtió en un instrumento más para hacer lo mismo de siempre. Si la tecnología se adapta al sistema, decía Papert, es señal de que la promesa se arruinó. Si lo cuestiona y lo rompe, es señal de que algo nuevo puede empezar.

Es la advertencia que la OCDE debería leer cada mañana antes de redactar sus informes. Porque el mercado de tutores de inteligencia artificial que está creciendo aceleradamente —plataformas que prometen ayudar al estudiante a aprobar el curso, a ingresar a la universidad, a mantenerse en ella— es exactamente eso: la herramienta más poderosa del universo puesta al servicio del viejo sistema. No es que esté mal aprobar cursos. Es que estamos usando un cohete para empujar una carreta.

Y, sin embargo, hay momentos en los que la tecnología, puesta en el lugar correcto y al servicio del propósito correcto, hace cosas que ninguna otra herramienta podría hacer. Lo aprendí hace algunos años, cuando empezaba a aplicar el modelo de Relación Tutora en una escuela pública de Surco.

Me tocó tutorar a un niño de sexto grado que tenía dos años más que sus compañeros y que era expulsado, salón por salón, por su indisciplina. Su padre estaba metido en el mundo de la delincuencia y era conocido en el barrio. Su madre vivía aparte. Era, en el lenguaje de la escuela, “el niño problema”. Cuando me senté a trabajar con él, descubrí en pocos minutos que tenía vacíos serios en matemáticas: no podía abordar el tema que tocaba tutorar porque le faltaban las bases. Le propuse algo distinto. Le dije: “Trabaja a mi lado con Khan Academy. Yo te voy a asignar tareas, y mientras tanto sigo tutorando a otros estudiantes. Pero no te alejes.”

Aceptó. Empezó a las nueve de la mañana en el salón, en silencio, frente a la pantalla. Luego me mudé al laboratorio de cómputo a tutorar a otro estudiante, y él se vino conmigo. No le pedí que viniera: vino. Y siguió trabajando. Cuando levanté la vista, eran casi las doce del día. El niño que era expulsado de todos los salones llevaba tres horas concentrado, esforzándose, haciendo matemáticas. Aquella mañana entendí dos cosas que el informe de la OCDE, con todos sus estudios empíricos, no termina de articular: que la tecnología sí puede acelerar el cierre de brechas, y que no lo hace nunca por sí sola. Lo que hizo posible esa mañana no fue Khan Academy. Fue que un adulto se sentó a su lado, le asignó algo a su medida, y le hizo saber, sin decírselo, que esperaba algo de él. La tecnología cerró el vacío curricular. El vínculo abrió la puerta. Faltando una de las dos, el milagro no ocurre.

Esa es, en miniatura, la pregunta que la OCDE no formula y que Papert dejó planteada hace casi tres décadas: ¿al servicio de qué —y de quién— ponemos la tecnología?

* * *

Hay algo que debemos aceptar sin nostalgia: el ser humano ya es un cyborg. Un cyborg, en su definición original, es un organismo que integra componentes tecnológicos que amplían sus capacidades naturales. Un par de lentes. Un marcapasos. Un teléfono que funciona como extensión de la memoria, la orientación espacial y la comunicación. La IA generativa es el siguiente paso de esa integración: una extensión de la capacidad de razonamiento, análisis y creación.

Ethan Mollick, de Wharton, lo llama co-inteligencia: el trabajo armónico e integrado entre la persona y la IA, de manera que no se pueden desligar. Si aceptamos esta premisa, la pregunta educativa se transforma radicalmente. Ya no es “¿cómo enseñamos contenidos a un cerebro humano?”, sino “¿cómo educamos a un ser co-inteligente para que florezca como humano?”

El informe de la OCDE no llega ahí. Se queda en el paso anterior: cómo diseñar herramientas de IA que se integren en el currículo existente sin hacer demasiado daño. Es una pregunta legítima, pero es una pregunta pequeña. Es la pregunta de cómo diseñar mejores herraduras cuando el caballo ya fue reemplazado.

* * *

Debo hacer una confesión. Escribo todo esto mientras trabajo, cada día, dentro del sistema que cuestiono. Coordino proyectos educativos que operan dentro de UGEL, con escuelas públicas, con currículos nacionales, con las estructuras que acabo de describir como obsoletas.

Hace algunos meses entré sin avisar al aula de una escuela en Paruro, en los Andes cusqueños, un viernes a las dos de la tarde. Venía de tres reuniones seguidas y aproveché para visitar el aula donde la maestra Aymé trabajaba con la estrategia de aprendizaje entre pares (Relación Tutora). Lo primero que me sorprendió fue la hora. Un viernes a las dos. Yo recordaba, como recuerda cualquier adulto, que mis viernes escolares terminaban a esa hora y que las clases de matemáticas a esa hora eran un suplicio. Aquí vi lo contrario. Estudiantes en parejas, concentrados. En algunos rincones, silencio absoluto. En otros, conversaciones en voz baja —pero conversaciones sustantivas, sobre desafíos matemáticos, no sobre otra cosa. La maestra se paseaba entre las parejas sin ser el centro de nada. Cuando hablamos después, me dijo que lo que más le había sorprendido al adoptar este método era ver a los estudiantes concentrados. “Eso no me ocurría antes —me dijo—, cuando yo era el centro.”

Esa frase llevo varios meses pensándola. Esa frase es, en una sola línea, el resumen de toda la reforma educativa que la OCDE no se atreve a proponer. Mientras el docente es el centro, los estudiantes no se concentran. Cuando deja de serlo, se concentran. ¿Cuántos siglos llevamos diseñando sistemas educativos alrededor del centro equivocado?

He visto cosas así muchas veces. He visto a docentes en Paruro mover a sus estudiantes del 3% al 30% en nivel satisfactorio de Comunicación, dentro del sistema. He visto a maestras en Lima Sur descubrir el aprendizaje entre pares y emocionarse hasta las lágrimas porque sus estudiantes, por primera vez, querían seguir trabajando después del timbre. He visto lo que Fullan llama aprendizaje profundo germinar en escuelas que no tienen laboratorio de cómputo, mucho menos inteligencia artificial.

Así que no soy un teórico que dice “hay que destruir la escuela” desde un escritorio. Soy alguien que trabaja dentro de la escuela todos los días y, precisamente por eso, ve con claridad sus límites. La Pedagogía de la Doble T —tertulias dialógicas y aprendizaje entre pares— que hemos desarrollado en la Universidad Marcelino Champagnat no necesita inteligencia artificial para funcionar. Funciona porque pone en el centro la relación humana, el diálogo, el pensamiento propio. Pero imagino lo que podría ocurrir si la IA se pusiera al servicio de esa pedagogía en lugar de al servicio del currículo estandarizado. Imagino una IA que no corrija exámenes, sino que ayude a un estudiante a formular la pregunta que no sabía que tenía. Una IA que no mida el rendimiento, sino que haga visible el proceso de pensamiento. Una IA que no reemplace al maestro, sino que amplifique lo que el mejor maestro hace: provocar el encuentro de una persona consigo misma y con el mundo.

* * *

El informe de la OCDE termina con una frase que, leída con generosidad, podría interpretarse como una apertura: “El desafío para los formuladores de políticas es asegurar que la IA generativa sea un compañero de aprendizaje y no un atajo.” Es una frase correcta. Pero se queda corta. Porque un compañero de aprendizaje dentro de un sistema que no sabe para qué aprende sigue siendo un compañero perdido.

La pregunta no es cómo integramos la IA en la educación. La pregunta es cómo la IA nos obliga, por fin, a preguntarnos qué es la educación. Si la respuesta sigue siendo un currículo, unas asignaturas, unos grados, unos exámenes —aunque sean corregidos por algoritmos más sofisticados—, habremos desperdiciado la oportunidad más grande que la historia de la educación ha tenido. Habremos confirmado la advertencia de Papert: que la escuela asimila cualquier cosa nueva y la convierte en más de lo mismo. Habremos usado la invención del fuego para calentar la misma cueva.

Pero si la respuesta es el florecimiento humano —conocerse, cuidar, mejorar el mundo, seguir aprendiendo—, entonces la IA no es una herramienta para el sistema educativo. Es la fuerza que lo hace, por fin, obsoleto en su forma actual. Y necesario en una forma que todavía no hemos inventado. Cada quien puede elegir a qué causa desea sumarse: a la innovación de eficacia o a la disruptiva, a hacer mejores herraduras o a aprender a volar. Lo que nos une es el sentimiento de no fallarles a nuestros estudiantes. Solo que ahora, con una inteligencia no humana sentada en cada pupitre, la urgencia de no fallarles se ha multiplicado.

Para seguir leyendo

Una breve lista de las fuentes que sostienen este ensayo, para quien quiera prolongar la conversación.

Barrientos Mollo, R. (2017). “Desaparecer el sistema educativo para mejorar aprendizajes.” Blog personal. Leer en robertobarrientos.com

Mi primer intento de aplicar la distinción de Christensen al sistema educativo: ¿optimizar o reemplazar?

Barrientos Mollo, R. (2024). “Más allá de Ícaro y Dédalo: rediseño de la educación con la Inteligencia Artificial.” Blog personal. Leer en robertobarrientos.com

El mito griego como brújula ética para pensar la IA en educación; introducción del concepto de co-inteligencia.

Bastani, H. et al. (2024). “Generative AI Can Harm Learning.” The Wharton School Research Paper. Descargar en SSRN

El experimento de Estambul con mil estudiantes: GPT-4 mejora el rendimiento durante la práctica, pero deteriora el aprendizaje real.

Christensen, C. (2013). The Innovator’s Dilemma: When New Technologies Cause Great Firms to Fail. Harvard Business Review Press. Ver en Amazon

El libro que distingue innovación de eficacia de innovación disruptiva: por qué las grandes instituciones fracasan ante lo nuevo.

Elmore, R. F. (2002). Bridging the Gap Between Standards and Achievement. Washington, D.C.: Albert Shanker Institute. Descargar PDF

La tesis de Elmore en su forma más cruda: las escuelas son hostiles al aprendizaje porque son hostiles al aprendizaje de sus propios maestros.

Illich, I. (1971/2013). La sociedad desescolarizada. Ediciones Godot. Ver en Amazon

El clásico que comparó la escalada escolar con la escalada armamentista: medio siglo después sigue siendo incómodamente lúcido.

Kosmyna, N. et al. (2025). “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task.” MIT Media Lab. Visitar brainonllm.com

El estudio con EEG del MIT que midió, literalmente, cómo el cerebro se apaga al escribir con ChatGPT.

Mollick, E. (2024). Co-Intelligence: Living and Working with AI. Penguin Random House. Ver en Amazon

Cuatro principios para trabajar con la IA como compañera de pensamiento, no como sustituta.

OECD (2026). OECD Digital Education Outlook 2026: Exploring Effective Uses of Generative AI in Education. OECD Publishing, Paris. Leer en OECD iLibrary

El informe que motiva este ensayo: diagnóstico empírico riguroso, receta institucional tímida.

Papert, S. (1996). “School’s Out?” Entrevista con David S. Bennahum, MEME. Leer la entrevista

La advertencia del fundador de Logo: la escuela tiene el poder de asimilar cualquier tecnología nueva y convertirla en más de lo mismo.


Comentarios

Entradas populares