María enseña literatura en una escuela secundaria de Mendoza. Tiene 32 estudiantes, tres horas diarias de planificación, y una pila de trabajos prácticos que corregir cada fin de semana. La semana pasada, mientras revisaba los ensayos sobre el Martín Fierro, notó algo extraño: cinco de sus estudiantes habían entregado textos sorprendentemente similares. No iguales —eso habría sido demasiado obvio—, pero con la misma estructura impecable, los mismos argumentos bien ordenados, el mismo tono... demasiado perfecto.
Cuando confrontó a uno de ellos, la respuesta fue desarmante en su honestidad: "Profe, ¿usted no usa ChatGPT? Todos lo usamos. No está mal, ¿no? Solo le pedí que me ayudara a organizar las ideas".
María se quedó sin palabras. No porque estuviera enojada —aunque algo de eso había—, sino porque se dio cuenta de que no tenía una respuesta clara. ¿Estaba mal? ¿Estaba bien? ¿Dónde estaba el límite entre "ayuda" y "trampa"? Y más importante aún: ¿cómo se supone que debe enseñar en un mundo donde sus estudiantes tienen acceso a una inteligencia artificial que puede escribir mejor que muchos adultos?
Si sos docente, parte de una familia con hijos en edad escolar, o simplemente alguien interesado en educación, probablemente te hayas hecho preguntas similares. La inteligencia artificial ha llegado a las aulas —no como una posibilidad futura, sino como una realidad presente— y está transformando silenciosamente todo lo que creíamos saber sobre enseñar y aprender.
No es el futuro: ya está aquí
Los números son contundentes. Según una encuesta del Digital Education Council realizada en 2024 a más de 3.800 estudiantes universitarios de 16 países, el 86% ya había utilizado alguna forma de inteligencia artificial generativa en sus estudios (Digital Education Council, 2024). No estamos hablando de una minoría de early adopters tecnológicos; estamos hablando de la inmensa mayoría.
Pensalo un momento. Mientras los sistemas educativos debaten si permitir o prohibir estas herramientas, mientras las universidades redactan políticas de "uso aceptable", mientras los docentes —como María— se preguntan qué hacer, los estudiantes ya tomaron una decisión: la están usando. Masivamente. Y no van a dejar de hacerlo porque alguien les diga que está prohibido.
Esta no es simplemente la incorporación de otra tecnología en el aula, como fueron en su momento las calculadoras o las computadoras. Es algo cualitativamente diferente. Como documenta el AI Index 2025 del Stanford Human-Centered AI Institute, 2024 fue el año en que la IA generativa se consolidó en múltiples sectores, incluyendo educación (Maslej et al., 2025). Pero el mismo informe advierte algo que no podemos ignorar: los incidentes relacionados con IA —definidos como eventos que causaron o pudieron causar daño a individuos, organizaciones o sociedades, incluyendo sesgos discriminatorios, filtraciones de datos y usos maliciosos— aumentaron un 56% respecto al año anterior. La oportunidad es extraordinaria; los riesgos, también.
Cuando el mundo se detuvo, la educación tuvo que reinventarse
Para entender dónde estamos, necesitamos mirar brevemente hacia atrás. La pandemia de COVID-19 actuó como un acelerador brutal de la transformación digital educativa. De la noche a la mañana, literalmente, millones de docentes tuvieron que reinventarse. Clases por Zoom, tareas por WhatsApp, exámenes a distancia. Fue caótico, imperfecto, agotador. Pero también fue revelador.
Según el Banco Interamericano de Desarrollo, décadas de implementación de tecnología educativa en América Latina habían producido resultados mixtos, principalmente por falta de integración pedagógica y deficiencias de infraestructura (Arias Ortiz et al., 2024). La tecnología estaba ahí, pero no sabíamos bien qué hacer con ella. La pandemia nos obligó a aprender —torpemente, a los golpes— pero aprender al fin.
Y entonces, en noviembre de 2022, apareció ChatGPT. Y todo cambió de nuevo.
La pregunta incómoda: ¿esto realmente sirve?
Antes de entusiasmarnos —o asustarnos—, vale la pena preguntarse: ¿hay evidencia de que la IA mejora el aprendizaje? ¿O es otra moda tecnológica condenada a decepcionar?
La respuesta corta es: la evidencia es prometedora, pero todavía incompleta. Un metaanálisis reciente que examinó 51 estudios sobre el impacto de ChatGPT en el aprendizaje encontró efectos positivos tanto en el rendimiento académico como en el desarrollo del pensamiento de orden superior (Wang et al., 2025). Los estudiantes que usaron IA de manera guiada no solo obtuvieron mejores calificaciones; también mostraron mayor capacidad de análisis crítico y síntesis.
Pero —y este "pero" es importante— la mayoría de estos estudios provienen de contextos universitarios en países desarrollados, con metodologías heterogéneas y períodos de seguimiento cortos. No sabemos todavía cómo funcionan estas herramientas en escuelas primarias, en contextos de bajos recursos, o a largo plazo. La ciencia avanza, pero más lento que la adopción tecnológica.
Lo que sí sabemos, gracias a décadas de investigación previa, es que los sistemas tutoriales inteligentes —una forma de IA educativa que existe desde antes de ChatGPT— pueden ser efectivos cuando están bien diseñados (Zawacki-Richter et al., 2019). La personalización, la retroalimentación inmediata y la adaptación al ritmo del estudiante son principios pedagógicos sólidos. La IA, en su mejor versión, los hace posibles a una escala antes impensable.
Un tutor que nunca se cansa, nunca juzga, y siempre tiene tiempo
Tomás tiene 19 años y estudia ingeniería en Buenos Aires. Como muchos estudiantes de primer año, llegó a la universidad con lagunas importantes en matemáticas. El cálculo diferencial se le hacía cuesta arriba, y la vergüenza de preguntar "cosas básicas" en clase lo paralizaba. Sus compañeros parecían entender todo a la primera; él necesitaba que le explicaran lo mismo tres, cuatro, cinco veces.
Un día, casi por accidente, empezó a usar Khanmigo —el tutor basado en IA de Khan Academy— para repasar conceptos. Lo que encontró lo sorprendió: podía hacer todas las preguntas "tontas" que quisiera, sin que nadie lo mirara raro. Podía pedir que le explicaran lo mismo de otra manera, y de otra, y de otra. A las 2 de la mañana, cuando ningún profesor ni compañero estaría disponible, el tutor seguía ahí, infinitamente paciente.
Lo interesante es que Khanmigo no simplemente le daba las respuestas. Estaba diseñado para guiarlo mediante preguntas —lo que los pedagogos llaman "andamiaje socrático"— obligándolo a pensar en lugar de copiar (Khan Academy, 2024). "¿Qué pasaría si la función fuera negativa en ese punto?", le preguntaba. "¿Puedes pensar en un ejemplo de la vida real donde esto aplicaría?".
La historia de Tomás ilustra una de las promesas más potentes de la IA educativa: la personalización a escala. Durante siglos, el "tutor personal" fue un privilegio reservado a las élites. La IA tiene el potencial de democratizarlo. No reemplaza al docente —Tomás sigue yendo a clases, sigue necesitando la explicación humana, el contexto, la motivación—, pero complementa lo que el sistema educativo tradicional no puede ofrecer: atención individualizada, disponible siempre, sin juicio.
Ver lo invisible: cuando los datos anticipan el fracaso
Hay otra aplicación de la IA que, aunque menos visible, podría tener un impacto enorme en la equidad educativa: el análisis predictivo.
Imaginá que pudieras identificar, en las primeras semanas del año escolar, qué estudiantes tienen mayor riesgo de reprobar o abandonar. No basándote en intuición —que puede estar sesgada por prejuicios inconscientes— sino en patrones detectados a partir de miles de trayectorias educativas previas. La investigación en minería de datos educativos lleva años desarrollando estos sistemas (Siemens & Baker, 2012), y los resultados son prometedores.
Un algoritmo puede detectar señales tempranas que a un docente con 35 estudiantes se le escapan: el estudiante que dejó de entregar las tareas optativas, el que empezó a llegar tarde sistemáticamente, el que participa menos en los foros online. Ninguna de estas señales es, por sí sola, alarmante. Pero el patrón combinado puede predecir problemas con semanas de anticipación.
La pregunta ética, por supuesto, es qué hacemos con esa información. ¿Intervenir preventivamente? ¿Ofrecer apoyo adicional? ¿O corremos el riesgo de etiquetar estudiantes, de crear profecías autocumplidas? Como veremos más adelante, la IA no es neutral, y sus sesgos pueden amplificar injusticias existentes.
María, versión 2.0: de corregir trabajos a encender mentes
Volvamos a María, nuestra profesora de literatura. Después del episodio con ChatGPT, decidió no prohibir la herramienta —sabía que sería inútil—, sino cambiar el enfoque. En lugar de pedir ensayos que la IA podía escribir, empezó a diseñar actividades donde los estudiantes usaran ChatGPT como punto de partida, pero tuvieran que ir más allá.
"Pídanle a ChatGPT que escriba un análisis del Martín Fierro", les dijo. "Después, identifiquen qué le falta. ¿Qué contexto histórico ignora? ¿Qué matices de la gauchesca no entiende? ¿Dónde se equivoca?" De pronto, la tarea ya no era escribir un ensayo; era pensar críticamente sobre un ensayo escrito por una máquina. Y eso, curiosamente, requería entender el texto mucho mejor.
La investigación sugiere que María intuyó algo importante. Un estudio reciente encontró que el aprendizaje profundo ocurría cuando los estudiantes usaban la IA generativa para construir y expandir conocimiento, en contraste con el aprendizaje superficial que resultaba de usarla de manera procedimental —simplemente para obtener respuestas— (Cotton et al., 2023). La diferencia no está en la herramienta; está en cómo se usa.
Y hay otra dimensión que beneficia directamente a docentes como María: la posibilidad de automatizar tareas administrativas. Muchos directivos y docentes expresan el deseo de que la tecnología reduzca la carga burocrática —corregir ejercicios mecánicos, tomar asistencia, generar reportes— para dedicar más tiempo a lo que realmente importa: conversar con los estudiantes, diseñar experiencias de aprendizaje significativas, encender la curiosidad.
Lo que nadie quiere escuchar: los riesgos son reales
Hasta aquí, la historia suena esperanzadora. Pero sería irresponsable no hablar de los riesgos —y son considerables.
Empecemos por la privacidad. Para que un sistema de IA personalice el aprendizaje, necesita datos. Muchos datos. Qué responde el estudiante, cuánto tarda, dónde se equivoca, a qué hora estudia, cuántas veces repite un ejercicio. Toda esa información, agregada, construye un perfil detallado de cada estudiante. ¿Quién tiene acceso a esos datos? ¿Cómo se protegen? ¿Qué pasa si caen en manos equivocadas o se usan para fines no educativos?
Según un estudio de EDUCAUSE, una proporción significativa de profesionales educativos expresaba preocupación por la privacidad y seguridad de datos, así como por el sesgo en los modelos de IA (Galanek & Gierdowski, 2024). No son preocupaciones paranoicas; son riesgos documentados.
Y hablando de sesgo: los algoritmos no son neutrales. Aprenden de datos históricos, y si esos datos reflejan desigualdades —estudiantes de ciertos grupos sistemáticamente calificados más bajo, por ejemplo—, el algoritmo puede perpetuar y amplificar esas injusticias. Un análisis exhaustivo sobre sesgo algorítmico en educación documentó múltiples formas en que los sistemas de IA pueden discriminar: por género, por etnia, por nivel socioeconómico (Baker & Hawn, 2022). Cuando un algoritmo etiqueta a un estudiante como "en riesgo", ¿está detectando una realidad o creando una profecía autocumplida?
Existe también el problema de la "caja negra". Muchos modelos de IA —especialmente los más avanzados— tienen una explicabilidad limitada: su proceso de toma de decisiones no siempre es transparente, incluso para quienes los diseñan. Si un sistema decide que un estudiante no está listo para avanzar al siguiente nivel, ¿puede explicar por qué? ¿Hay un mecanismo para apelar esa decisión? En muchos casos, la respuesta es no —aunque están surgiendo enfoques de "IA explicable" que buscan mitigar este problema.
Cuando la innovación profundiza la desigualdad
Hay un riesgo que me preocupa especialmente, porque contradice la promesa democratizadora de la IA: la posibilidad de que, en lugar de cerrar brechas, las amplíe.
Las escuelas con más recursos tendrán acceso a las mejores herramientas de IA, a docentes mejor capacitados para usarlas, a infraestructura tecnológica confiable. Las escuelas en contextos vulnerables seguirán luchando con conexiones intermitentes, dispositivos obsoletos, y docentes que nunca recibieron formación en tecnología educativa. El resultado: los estudiantes que más podrían beneficiarse de la personalización serán, probablemente, los que menos acceso tengan a ella.
Las directrices internacionales enfatizan la urgencia de formación docente integral (INTEF, 2025). Pero la realidad es que esa formación avanza más lento que la tecnología. Y mientras tanto, la brecha crece.
Una herramienta que no discrimina (si se diseña bien)
Para estudiantes con dificultades de aprendizaje, TDAH, dislexia o autismo, la IA puede ser particularmente valiosa —o particularmente peligrosa.
En su mejor versión, ofrece exactamente lo que estos estudiantes necesitan: paciencia infinita, repetición sin juicio, adaptación al ritmo individual, múltiples formatos de presentación (texto, audio, visual), y retroalimentación inmediata. Un estudiante con dislexia puede usar lectores de texto a voz integrados. Un estudiante con TDAH puede beneficiarse de tareas fragmentadas en pasos pequeños con recompensas frecuentes. Un estudiante con autismo puede preferir interactuar con un sistema predecible antes que con las complejidades sociales de un aula.
Pero si los sistemas de IA están entrenados predominantemente con datos de estudiantes neurotípicos, pueden fallar en reconocer patrones de aprendizaje divergentes (Baker & Hawn, 2022). Un estudiante con un estilo de pensamiento no convencional podría ser sistemáticamente mal evaluado por un algoritmo que no fue diseñado para entenderlo. La inclusión requiere intencionalidad: no basta con esperar que la tecnología sea neutral.
Entonces, ¿qué hacemos con todo esto?
Si sos docente, como María, probablemente te sientas abrumado. La tecnología avanza más rápido que cualquier capacitación, los estudiantes saben más que vos sobre las herramientas, y las políticas institucionales van siempre un paso atrás. ¿Qué hacer?
Mi sugerencia es empezar pequeño, pero empezar. Elegí una herramienta de IA y experimentá con ella —no para usarla en clase mañana, sino para entender qué puede y qué no puede hacer. Diseñá una actividad donde los estudiantes la usen críticamente, como hizo María con el Martín Fierro. Abrí la conversación con ellos sobre uso ético: ¿dónde está el límite entre ayuda y trampa? Por ejemplo, pedirle a la IA que revise la claridad de un texto que ya escribiste es diferente a pedirle que genere la tarea completa. No tenés que tener todas las respuestas; el diálogo mismo es valioso.
Si sos directivo, la responsabilidad es mayor. Revisá las políticas de privacidad de las herramientas que ya se usan en tu institución —probablemente descubras que no sabés exactamente qué datos se recopilan ni adónde van. Organizá formación docente, pero no solo técnica: también ética, crítica, pedagógica. Y establecé canales claros para que docentes y estudiantes reporten preocupaciones.
Si sos padre o madre, empezá por informarte. Preguntá a la escuela qué herramientas de IA utilizan y qué políticas tienen. Conversá con tus hijos sobre cómo usan estas tecnologías —probablemente te sorprenda lo que ya saben y hacen. Y modelá vos mismo un uso crítico y reflexivo.
Las reglas del juego (que recién se están escribiendo)
A nivel regulatorio, estamos en territorio nuevo. El Reglamento de IA de la Unión Europea —conocido como AI Act— clasifica ciertos usos de IA en educación como "alto riesgo", lo que implica requisitos estrictos de transparencia, auditorías de sesgo y mecanismos de apelación (Unión Europea, 2024). Es un comienzo, pero la mayoría de los países de América Latina todavía no tienen marcos específicos.
Lo que sí sabemos es que la investigación sobre retroalimentación formativa —cómo dar devoluciones que realmente mejoren el aprendizaje— tiene décadas de desarrollo (Shute, 2008). La IA puede ser una herramienta poderosa para implementar esos principios, pero solo si está diseñada con intencionalidad pedagógica, no solo técnica.
El factor que ninguna máquina puede reemplazar
Volvamos una última vez a María. Después de meses de experimentar con IA en sus clases, llegó a una conclusión que le dio tranquilidad: la tecnología puede hacer muchas cosas mejor que ella. Puede corregir gramática más rápido, detectar plagio con mayor precisión, explicar un concepto de diez maneras diferentes sin perder la paciencia. Pero hay algo que no puede hacer, y probablemente nunca podrá: encender en un estudiante el amor por la literatura.
Ese momento en que un adolescente lee un poema y algo hace clic, ese instante de conexión humana cuando alguien se siente visto y comprendido, esa chispa de curiosidad que transforma una obligación escolar en una pasión de vida —eso sigue siendo territorio humano. Y probablemente lo seguirá siendo.
"Estamos al borde de usar la IA para la transformación positiva más grande que la educación haya visto jamás." — Sal Khan, fundador de Khan Academy
Es una afirmación audaz. Y como toda afirmación audaz, su realización no está garantizada.
La promesa de la IA en educación es real. Pero su realización dependerá de nosotros: de la sabiduría con que la implementemos, de la ética con que la regulemos, del compromiso con que defendamos la justicia educativa. La tecnología abre puertas; quiénes entran por ellas, y hacia dónde, sigue siendo una decisión humana.
Glosario de términos clave
- Algoritmo de aprendizaje automático: Programa informático que mejora su desempeño a partir de ejemplos, sin ser programado explícitamente para cada tarea.
- Andamiaje socrático: Técnica pedagógica que guía al estudiante mediante preguntas en lugar de darle respuestas directas.
- Caja negra: Sistema cuyo funcionamiento interno no es fácilmente visible ni explicable.
- IA generativa: Inteligencia artificial capaz de crear contenido nuevo (texto, imágenes, audio). ChatGPT es el ejemplo más conocido.
- Minería de datos educativos: Análisis de grandes volúmenes de información sobre estudiantes para identificar patrones y predecir resultados.
- Sesgo algorítmico: Cuando un sistema de IA produce resultados sistemáticamente injustos para ciertos grupos de personas.
⚠ AVISO IMPORTANTE
Este artículo tiene fines exclusivamente informativos y educativos. No sustituye el asesoramiento profesional en materia de implementación tecnológica, cumplimiento normativo o políticas institucionales. Para decisiones específicas, consulte con especialistas en su contexto.
Referencias bibliográficas
Arias Ortiz, E., Brechner, M., Pérez Alfaro, M., & Vásquez, M. (2024). Tecnología educativa en América Latina y el Caribe: Lecciones aprendidas y camino a seguir. Banco Interamericano de Desarrollo. https://publications.iadb.org/es/tecnologia-educativa-en-america-latina-y-el-caribe
Baker, R. S., & Hawn, A. (2022). Algorithmic bias in education. International Journal of Artificial Intelligence in Education, 32(4), 1052-1092. https://doi.org/10.1007/s40593-021-00285-9
Cotton, D. R., Cotton, P. A., & Shipway, J. R. (2023). Chatting and cheating: Ensuring academic integrity in the era of ChatGPT. Frontiers in Education, 8, Article 1087947. https://doi.org/10.3389/feduc.2023.1087947
Digital Education Council. (2024). Global student survey on AI in higher education 2024. https://www.digitaleducationcouncil.com/post/global-student-survey-ai-2024
Galanek, J., & Gierdowski, D. (2024). 2024 EDUCAUSE AI landscape study. EDUCAUSE. https://www.educause.edu/ecar/research-publications/2024/educause-ai-landscape-study
Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado. (2025). Orientaciones para la integración de la inteligencia artificial en educación. INTEF. https://intef.es/recursos-educativos/orientaciones-ia-educacion/
Khan Academy. (2024). Khanmigo for teachers: AI-powered teaching assistant. https://www.khanacademy.org/khan-labs
Maslej, N., Fattorini, L., Perrault, R., Parli, V., Reuel, A., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Niebles, J. C., Shoham, Y., Wald, R., & Clark, J. (2025). The AI Index 2025 annual report. Stanford Institute for Human-Centered AI. https://aiindex.stanford.edu/report/
Shute, V. J. (2008). Focus on formative feedback. Review of Educational Research, 78(1), 153-189. https://doi.org/10.3102/0034654307313795
Siemens, G., & Baker, R. S. (2012). Learning analytics and educational data mining: Towards communication and collaboration. En Proceedings of the 2nd International Conference on Learning Analytics and Knowledge (pp. 252-254). ACM. https://doi.org/10.1145/2330601.2330661
Unión Europea. (2024). Reglamento (UE) 2024/1689 por el que se establecen normas armonizadas en materia de inteligencia artificial. Diario Oficial de la Unión Europea. https://eur-lex.europa.eu/eli/reg/2024/1689/oj
Wang, S., Wang, H., Liu, M., & Xu, Y. (2025). The effect of ChatGPT on students' learning performance, higher-order thinking, and learning perception: A meta-analysis. Humanities and Social Sciences Communications, 12, Article 341. https://doi.org/10.1057/s41599-025-04787-y
Zawacki-Richter, O., Marín, V. I., Bond, M., & Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education: Where are the educators? International Journal of Educational Technology in Higher Education, 16, Article 39. https://doi.org/10.1186/s41239-019-0171-0