Inicio » La pregunta equivocada sobre la inteligencia artificial en educación

La pregunta equivocada sobre la inteligencia artificial en educación

by Pluma Invitada
8 Vistas

Luis Medina-Gual. Director de Innovación Educativa. Universidad Iberoamericana, Ciudad de México

La irrupción de la inteligencia artificial ha desatado una avalancha de preguntas en el campo educativo. ¿Cómo enseñar en la era de los modelos de lenguaje natural y la inteligencia artificial generativa? ¿Cómo evaluar cuando los estudiantes pueden producir respuestas en segundos? ¿Cómo rediseñar actividades para evitar el plagio? ¿Cómo distinguir entre apoyo legítimo y sustitución del esfuerzo intelectual? La lista crece cada semana. Sin embargo, conviene plantear una provocación: hay algo profundamente insuficiente en esta conversación. Todas estas preguntas, aunque relevantes, siguen siendo secundarias si no se formulan junto a otras más incómodas.

Estamos, en gran medida, haciendo la pregunta equivocada.

El debate educativo sobre inteligencia artificial se ha concentrado obsesivamente en el cómo: cómo enseñar, cómo evaluar, cómo adaptar la práctica docente. Pero esa insistencia revela una inercia más profunda: asumimos que lo que se enseña sigue siendo válido y que el problema es únicamente didáctico, metodológico o evaluativo. Como si bastara con actualizar las formas para que el fondo permanezca intacto. Como si el currículo pudiera mantenerse estable mientras el mundo del trabajo, la producción del conocimiento y la distribución del poder tecnológico cambian aceleradamente.

No es así.

La inteligencia artificial no es solamente una herramienta que optimiza procesos educativos; es una tecnología que está reconfigurando las condiciones bajo las cuales se produce, circula, valida y monetiza el conocimiento. Cuando un sistema puede escribir ensayos, resolver problemas, programar, traducir, clasificar información y sintetizar grandes volúmenes de texto en segundos, la pregunta ya no es solo cómo enseñar mejor eso. La pregunta es otra: ¿sigue teniendo sentido enseñar lo mismo del mismo modo, con los mismos fines, bajo las mismas jerarquías de valor?

Ese es el punto ciego del debate actual.

Se nos advierte, con razón, que delegar el pensamiento en la IA puede empobrecer procesos cognitivos fundamentales. La advertencia importa. Pero antes de insistir únicamente en la práctica, convendría preguntarse si la partitura sigue siendo la misma, o si seguimos ensayando piezas para una orquesta cuyo repertorio, cuyos instrumentos y cuyos dueños ya cambiaron. Porque el problema no es solo cognitivo. También es político, económico y cultural.

Algo similar ocurre con la preocupación por la llamada “descarga cognitiva”. El diagnóstico no es falso, pero resulta incompleto si se lo separa de preguntas más estructurales. Mientras discutimos estrategias didácticas más sofisticadas (zonas con IA y zonas sin IA, reflexiones metacognitivas, rúbricas centradas en el proceso) evitamos confrontar una transformación más radical: la del currículo, sí, pero también la del trabajo profesional, la autoridad disciplinaria y la relación entre universidad, mercado y sociedad. Profesiones enteras están cambiando, no solo en sus métodos sino en sus fundamentos. Lo que significa ser abogado, ingeniero, diseñador, periodista, docente o investigador ya no es lo mismo. Y, sin embargo, los planes de estudio permanecen sorprendentemente estables, apenas maquillados con cursos de “IA aplicada” o con competencias digitales añadidas al margen.

Hay aquí una especie de simulación de cambio. Se incorporan nuevas herramientas, se rediseñan actividades, se habla de innovación, pero se preserva casi intacta la estructura de qué conocimientos importan, quién los define y para qué fines se consideran valiosos. Es una transformación sin demasiado riesgo institucional: se cambia la superficie para no tocar el fondo.

Pero el fondo es precisamente lo que está en juego.

Y no se trata de una discusión abstracta. No basta con agregar contenidos sobre IA al currículo si no se revisa, al mismo tiempo, qué formas de dependencia crea esa misma incorporación. Tampoco basta con preparar estudiantes para un “nuevo mercado laboral” si no se interroga críticamente qué tipo de mercado está emergiendo: uno marcado por automatización desigual, concentración de poder en grandes corporaciones tecnológicas, extracción masiva de datos, precarización de ciertas tareas cognitivas y revalorización de otras bajo criterios definidos fuera de las instituciones educativas. Adaptar el currículo a la IA sin analizar esas condiciones puede terminar significando, en los hechos, adaptar la educación a las necesidades de un capitalismo digital cada vez más concentrado.

Por eso, la discusión no puede reducirse a una pregunta de eficiencia pedagógica. Decidir qué enseñar es decidir qué tipo de sujeto, qué tipo de trabajador, qué tipo de ciudadano y qué tipo de sociedad estamos ayudando a producir. Es decidir si la universidad será únicamente un engranaje de ajuste para un orden tecnológico ya dado, o si también será un espacio capaz de interrogarlo, disputarlo y transformarlo.

En ese sentido, el problema no es que ciertas habilidades pierdan centralidad relativa, sino bajo qué horizonte político decidimos reubicarlas. Si la inteligencia artificial desplaza el valor instrumental de algunas tareas, como la redacción rutinaria, la búsqueda básica de información o ciertas formas estandarizadas de resolución, insistir en enseñarlas como si nada hubiera cambiado puede producir desalineación. Pero abandonar esas capacidades sin más sería igual de problemático. Una educación crítica no debe renunciar a la lectura, la escritura, la argumentación, la memoria disciplinar ni al dominio de procedimientos complejos solo porque ahora existan sistemas capaces de simularlos. Hacerlo podría ampliar desigualdades: las élites seguirían accediendo a una formación intelectual profunda, mientras otros recibirían una educación empobrecida, asistida por máquinas y desprovista de herramientas para comprender el mundo y disputarlo.

La pregunta, entonces, no es qué dejamos de enseñar para someternos con mayor rapidez a la nueva economía, sino qué preservamos, qué transformamos y qué incorporamos para que las personas puedan comprender críticamente un mundo atravesado por sistemas automatizados, intervenir en él con juicio propio y no quedar reducidas al papel de usuarias pasivas de infraestructuras diseñadas por otros.

Esto vuelve la discusión profundamente política y epistemológica.

Y en América Latina hay una dimensión adicional que no podemos darnos el lujo de ignorar. Los modelos de inteligencia artificial que hoy dominan el mercado fueron entrenados, en su mayoría, con datos, lenguas, prioridades y marcos conceptuales del norte global. También están controlados, en gran medida, por corporaciones que concentran infraestructura, capacidad de cómputo, propiedad de modelos y poder de definición sobre qué cuenta como innovación útil. Si nuestros sistemas educativos se limitan a incorporar esas herramientas sin repensar desde nuestros propios contextos qué conocimiento producimos, qué problemas consideramos urgentes y qué fines públicos debería servir la tecnología, el riesgo es claro: convertirnos en consumidores de una inteligencia diseñada en otro lugar, para resolver problemas definidos por otros, bajo lógicas de valor que no necesariamente responden a nuestras necesidades colectivas.

No se trata de rechazar la tecnología, ni de romantizar una pureza pedagógica previa a la IA. Se trata de reconocer que un currículo que no se pregunta qué conocimiento es valioso desde su propio territorio termina importando, por omisión, respuestas ajenas. Y en un continente atravesado por desigualdades persistentes, violencias estructurales, riquezas culturales y economías del conocimiento dependientes, esa omisión no es inocente. Es una forma de dependencia epistémica, tecnológica y, potencialmente, política.

Por eso resulta más cómodo hablar del cómo. Porque el cómo permite innovar sin cuestionar estructuras. Permite capacitar docentes sin rediseñar instituciones. Permite incorporar herramientas sin discutir propiedad de datos, infraestructura pública, soberanía tecnológica, condiciones laborales del profesorado o poder corporativo. Permite crear “zonas libres de IA” en el aula sin preguntarnos si el aula, la universidad y el currículo mismo necesitan repensarse desde sus cimientos. Permite actualizar prácticas sin redistribuir el poder que define qué cuenta como conocimiento legítimo.

Pero si la inteligencia artificial realmente está transformando el mundo, el desafío educativo no puede limitarse a adaptar prácticas. Tiene que pasar por una revisión más profunda e incómoda del contenido mismo de lo que enseñamos, de las condiciones materiales en que lo enseñamos y de los intereses a los que esa enseñanza termina sirviendo.

Tal vez, entonces, la pregunta urgente no es simplemente cómo enseñar con inteligencia artificial. Tal vez la pregunta más difícil sea otra: qué conocimientos, capacidades y formas de juicio deben volverse centrales en un tiempo en que el saber se automatiza, el trabajo se reordena, el poder tecnológico se concentra y la dependencia puede profundizarse bajo el lenguaje seductor de la innovación.

Mover la conversación hacia ahí no implica negar la pedagogía. Implica dejar de usarla como refugio para evitar la discusión de fondo.

Hasta que no hagamos ese desplazamiento, seguiremos innovando en los márgenes de un sistema que ya empezó a quedarse atrás. Y peor aún: corremos el riesgo de rediseñar la educación para acomodarla a un orden tecnológico desigual, en lugar de formar sujetos capaces de comprenderlo críticamente, de disputarlo democráticamente y de imaginar alternativas más justas.

Facebook Comentarios

También te puede interesar

Contacto

Revista Aula. Revista de periodismo y análisis especializado en temas educativos que fortalece el debate de manera libre y plural.

Publicaciones destacadas

Suscríbete

Suscribirse para recibir noticias de Revista Aula