Educación Superior

Evaluar con inteligencia (artificial)

Por qué y cómo transformar nuestras prácticas docentes ante el nuevo escenario digital

Resumen

Vivimos un momento clave en la enseñanza superior. La aparición arrolladora y popularización de la inteligencia artificial generativa (IA), particularmente en formas accesibles como ChatGPT, TextCortex, Gemini o Claude, no han hecho sino acentuar una crisis que ya se insinuaba en nuestras aulas: los dispositivos clásicos de evaluación, pensados para certificar aprendizajes individuales, en contextos cerrados y bajo control del docente, están cada vez más distanciados respecto del modo en que se produce y circula el conocimiento en el presente.

La IA no inaugura el problema, lo hace visible de manera inocultable. Ya no se trata de “si” debemos revisar nuestras prácticas de evaluación, sino de “cómo”, “cuándo” y, sobre todo, “con qué horizonte”. Este ensayo reflexivo propone pensar la IA no como amenaza, sino como catalizador de transformaciones más amplias en la forma en que concebimos el aprender, el enseñar y el evaluar. Nos centraremos especialmente en la doble dimensión de la evaluación —sumativa y formativa—, explorando estrategias y principios que permitan aprovechar las herramientas disponibles sin renunciar al juicio pedagógico ni a la responsabilidad docente.

Palabras clave: inteligencia artificial, evaluación educativa, educación superior, innovación pedagógica, evaluación formativa, evaluación sumativa.

De la evaluación como control a la evaluación como acompañamiento

Durante décadas, el modelo dominante de evaluación en la educación superior ha sido el sumativo: se evalúa para asignar calificaciones, certificar niveles de logro o seleccionar trayectorias. En este marco, los exámenes escritos tradicionales, trabajos finales o pruebas orales han funcionado como dispositivos de control, con la presunción de que es posible medir objetivamente el conocimiento.

Sin embargo, este modelo ya estaba puesto en cuestión antes de la irrupción de la IA. La emergencia de perspectivas centradas en la evaluación formativa —aquella que acompaña el proceso de aprendizaje, da retroalimentación significativa y permite revisiones— venía ganando terreno en muchas disciplinas. Hoy, la IA no hace más que acelerar esa necesidad de cambio: si una herramienta puede generar respuestas plausibles para una consigna en segundos, el foco debe desplazarse desde el resultado hacia el proceso, desde la respuesta hacia la construcción de la pregunta.

La transformación de la evaluación sumativa no implica su eliminación, sino su refinamiento. Mientras la evaluación formativa se beneficia naturalmente del acompañamiento continuo que facilita la IA, la sumativa puede evolucionar hacia certificaciones de competencias complejas que ningún algoritmo puede simular.

Pensemos en exámenes finales que, en lugar de solicitar definiciones o aplicaciones mecánicas, planteen estudios de caso abiertos donde el estudiante debe diagnosticar problemas, proponer soluciones y justificar éticamente sus decisiones. O en defensas orales donde se evalúe no la memorización de contenidos, sino la capacidad de argumentar, rebatir y reformular frente a interpelaciones imprevistas. La IA puede asistir la preparación, pero no puede reemplazar el juicio crítico en tiempo real, la creatividad argumentativa o la responsabilidad ética frente a dilemas complejos.

La IA como espejo de nuestras prácticas: ¿qué está realmente en juego?

Frente a la IA, muchas reacciones docentes han oscilado entre el pánico moral y la negación: se prohíbe su uso, se retorna al examen presencial, se incrementan los controles. Pero estas respuestas, si bien comprensibles, tienden a reforzar un modelo pedagógico que la propia realidad digital ha tornado obsoleto.

La IA nos enfrenta a una pregunta incómoda: ¿qué tipo de conocimiento estamos promoviendo si puede ser reemplazado por un algoritmo? Más aún: ¿qué sentido tiene evaluar “autenticidad” si no hemos enseñado a construirla? ¿No es esta una oportunidad para redefinir qué entendemos por saber, por comprensión, por creación?

En este contexto, recuperar la tradición socrática del saber preguntar se vuelve fundamental. Si la IA puede generar respuestas cada vez más sofisticadas, la capacidad de formular preguntas significativas, contextualmente situadas y éticamente orientadas emerge como competencia específicamente humana. No se trata solo de «qué pregunto», sino de «por qué pregunto esto», «desde dónde lo pregunto», «para qué sirve esta pregunta». La mayéutica socrática toma relevancia renovada: enseñar no es ofrecer respuestas que un algoritmo puede generar, sino cultivar la capacidad de interrogar la realidad, incluidas las mismas respuestas de la IA, con sentido crítico.

Más que una amenaza, la IA funciona aquí como un espejo: refleja las limitaciones de nuestras prácticas y nos invita a repensarlas. Las respuestas no pueden ser tecnológicas de exclusión—bloqueadores, software antiplagio—, sino fruto del diseño pedagógico: diseñar tareas que impliquen elaboración crítica, reflexiva y situada, que inviten a explorar en lugar de repetir, a la conversación en lugar de la demostración.

Una transformación que exige rediseño institucional

Pretender que cada cátedra, cada docente individual, reinvente sus prácticas de evaluación frente a la IA, sin recursos ni respaldo institucional, es condenar la transformación al agotamiento, favorecer la homeostasis sistémica. La envergadura del cambio exige una estrategia institucional coordinada, que incluya:

  • Capacitación transversal en el uso pedagógico de la IA.
  • Revisión curricular que contemple competencias críticas, éticas y digitales.
  • Sistemas de seguimiento dotados de flexibilidad y que, alejados de tecnofobia y tecnofilia, reconozcan los aportes de la IA.
  • Espacios de cocreación docente-estudiantil para redefinir los criterios de evaluación y dotarlos de sentido compartido.

Muchas instituciones siguen ancladas en lógicas previas a la digitalización. La llegada de la IA no hace más que evidenciar una doble fractura: entre los supuestos evaluativos heredados y las prácticas reales del estudiantado, y entre las posibilidades actuales del conocimiento y las formas en que seguimos certificándolo. Intentar adaptar las viejas estructuras es, muchas veces, insuficiente. Lo que se requiere es un rediseño desde la base, sostenido y articulado por políticas institucionales comprometidas.

Las resistencias institucionales operan en múltiples niveles y requieren estrategias diferenciadas. A nivel reglamentario, muchas instituciones mantienen códigos de integridad académica que prohíben explícitamente el uso de «ayudas externas», categoría que incluye inadvertidamente a la IA. La transformación exige actualización normativa participativa: comisiones mixtas docente-estudiantiles que redefinan qué constituye «trabajo propio» en esta era digital.

A nivel cultural, la resistencia se manifiesta en la creencia de que integrar IA equivale a «bajar el nivel» o «facilitar el camino». Aquí resultan cruciales experiencias piloto documentadas que demuestren cómo el uso responsable de IA puede elevar la complejidad y autenticidad de los aprendizajes. Es de pensar que cuando los colegas observan que estudiantes que trabajan con IA desarrollan mejores capacidades críticas y reflexivas, las resistencias ideológicas tienden a ceder.

A nivel logístico, la falta de recursos para capacitación o actualización tecnológica genera inercias. La estrategia debe incluir alianzas inter-cátedras que compartan experiencias, recursos y dilemas, evitando que cada docente haya de resolver individualmente desafíos sistémicos.

El imperativo ético de transformar la evaluación en tiempos de IA

Más allá de los desafíos pedagógicos y logísticos, la transformación de la enseñanza y la evaluación frente a la IA constituye también un imperativo ético. No revisar nuestras prácticas equivale a formar estudiantes para un mundo que ya no existe, perpetuando mecanismos de exclusión y desconexión con la realidad.

Negar a los estudiantes la posibilidad de pensar con IA, de desarrollar habilidades de discernimiento, colaboración y construcción de sentido en entornos mediados tecnológicamente, no es una posición neutral. Es, en los hechos, una forma de marginación cognitiva.

Desde esta perspectiva, la ética educativa se expresa en al menos tres planos:

  1. Responsabilidad generacional: Educar como si la IA no existiera es sustraer herramientas y capacidades fundamentales a quienes deberán habitar y transformar un mundo profundamente digitalizado.
  2. Equidad cognitiva: Solo quien comprende y domina críticamente las herramientas emergentes puede aspirar a participar activamente de los debates, decisiones y diseños del futuro.
  3. Justicia epistémica: Evaluar solo lo reproducible, lo memorizado o lo “entregable” es renunciar a formar pensadores, críticos, creadores. Es permitir que el juicio humano sea reemplazado por el resultado del algoritmo.

En este contexto, el statu quo no es neutral: sostener estructuras evaluativas inadecuadas es también una decisión política y ética. Y en tiempos de aceleración tecnológica, la omisión es una forma de daño.

Hacia una evaluación con inteligencia: algunas estrategias posibles

Pueden pensarse principios orientadores del rediseño de las prácticas evaluativas con el

uso responsable de la IA que puedan ser de ayuda para el docente:

  • Transparencia y metacognición: Propiciar la declaración por el estudiantado de uso de herramientas de IA en la elaboración de sus trabajos. No como control, sino como parte del aprendizaje.
  • Procesos más que productos: Valorar no solo el resultado final, sino las notas y borradores, las justificaciones, los recorridos reflexivos que llevaron a dicho resultado.
  • Evaluaciones contextualizadas y auténticas: Diseñar tareas que requieran trabajo con casos reales, toma de decisiones fundada, argumentación situada, reflexión ética.
  • Colaboración y coevaluación: Fomentar instancias donde estudiantes dialoguen entre sí, comparen enfoques, valoren críticamente el trabajo ajeno.
  • Acompañamiento formativo: Usar herramientas de IA como apoyo para generar retroalimentaciones más ricas, pero siempre mediadas por la sensibilidad y el juicio pedagógico.

Consideremos el caso de una cátedra de Historia Contemporánea. Tradicionalmente, un examen parcial podría solicitar: «Analice las causas de la Primera Guerra Mundial». Con IA disponible, esta consigna pierde sentido evaluativo. Sin embargo, una consigna renovada podría plantear: «Usted es asesor histórico de una serie documental sobre el inicio de la Primera Guerra Mundial en1914. Elabore un memorando de tres a cinco páginas justificando por qué su enfoque interpretativo sobre las causas del conflicto es más convincente que otras dos perspectivas historiográficas contemporáneas. Incluya fuentes primarias específicas y considere las implicancias éticas de privilegiar ciertos relatos sobre otros».

Esta tarea exige contextualización disciplinar, toma de posición argumentada, manejo de fuentes, reflexión ética y comunicación situada. La IA puede ser asistente de búsquedas, sugerir estructuras, cotejar productos, pero el estudiante no debe abandonar el papel de instancia definitoria en materia de responsabilidad narrativa, criterio histórico, sensibilidad interpretativa. El proceso se vuelve evaluable: notas, borradores, justificaciones metodológicas, revisiones reflexivas, declaración transparente del uso de herramientas digitales.

Experiencias internacionales ofrecen orientaciones valiosas sin pretenderlas recetas transferibles. La Universidad de Helsinki puso en marcha en 2023 un programa institucional de «literacidad IA» que no prohíbe el uso de IA sino que lo regula pedagógicamente: propugna declaración obligatoria de uso, reflexión metacognitiva sobre el proceso y ponderación diferenciada en la evaluación según el grado de mediación tecnológica.

En ámbito latinoamericano, la Universidad de los Andes (Colombia) definió e implementó lineamientos de uso que más que imponer marcos rígidos privilegian la transparencia pedagógica y la responsabilidad compartida, principios adaptables a diversos contextos institucionales.

Conclusión: entre la oportunidad y la responsabilidad

La inteligencia artificial generativa representa, quizás, el mayor desafío reciente para las prácticas docentes en la enseñanza superior. Pero también es una oportunidad única para volver a pensar lo que hacemos, por qué lo hacemos y para quiénes lo hacemos.

Lejos de reemplazar al docente, la IA le exige asumir un rol aún más complejo: el de diseñador de experiencias significativas, mediador de sentidos, formador ético. Y lejos de invalidar la evaluación, la invita a transformarse en un proceso más humano, más abierto, más conectado con los aprendizajes reales.

En última instancia, evaluar con inteligencia artificial no es usar herramientas sofisticadas, sino atreverse a construir una evaluación con inteligencia humana aumentada: más reflexiva, más justa, más consciente de su impacto. El momento es ahora. Y el desafío nos compromete a todos.

El Maestro reflejado en el espejo de la inteligencia artificial

La inteligencia artificial no solo interroga sobre nuestras prácticas: interpela lo que somos como docentes. Un sentimiento palpable de pérdida, bien de prestigio o de control conferidos por el dominio exclusivo del saber, bien de identidad de rol, dispara comprensibles reacciones conservadoras y demanda reflexiones más profundas. Frente a estudiantes familiarizados con herramientas que manejan con soltura y una semántica y conceptos que los docentes en muchos casos solo comienzan a comprender, es frecuente que los educadores se sientan desplazados, desbordados, desautorizados, sin respuesta. Sin embargo, esta situación no implica pérdida del rol docente: otorga una oportunidad, la de regresar a las raíces, al reencuentro con lo esencial del ser Maestro. Ya no se trata de “enseñar lo que se sabe”, sino de encarnar el aprendizaje como camino compartido. Desaprender, ceder ciertas cuotas de poder, abandonar el lugar de transmisores unívocos para transformarse en facilitadores, en curadores de sentido, en guías éticos en un mundo cada vez más saturado de tecnología.

El Maestro no es quien lo sabe todo, sino quien acompaña con integridad, escucha con atención, pregunta con profundidad y modela el pensamiento crítico y el compromiso humano. La IA no puede ocupar ese lugar. Puede generar texto, puede resolver problemas, incluso simular empatía, pero no puede ofrecer presencia, juicio ético, ni vínculos significativos.

Volver a ser Maestro puede ser vivido hoy como un acto revolucionario. Es abandonar terreno seguro, confort del poder, para internarse con valentía en el terreno siempre cambiante y desafiante de educar con otros en una comunidad de aprendizaje que incluye a docentes, estudiantes y tecnologías en continua coevolución. Es refrescar que enseñar no es imponer respuestas, sino abrir caminos de sentido en un mundo donde frecuentemente cuesta hallarlo, que cambia más rápido de lo que podemos prever y abarcar.

Esta transformación del rol docente no es solo individual sino generacional. Parte no menor de quienes hoy ejercemos docencia nos formamos en tiempos y paradigmas predigitales, cuando se pensaban el conocimiento como bien escaso y la enseñanza como transmisión unidireccional de saberes. Desaprender esos supuestos, muchas veces arraigados en la cultura académica, es quizás el mayor desafío profesional de nuestro tiempo. Pero también es la oportunidad para redescubrir la enseñanza como acto creativo, como construcción colaborativa de sentido, como forma de habitar éticamente la incertidumbre.

Los estudiantes que hoy habitan nuestras aulas no necesitan que les enseñemos a usar IA: necesitan que les enseñemos a pensar y crear con y más allá de ella. Reconocer esa diferencia permite definir directrices para delinear el futuro de la educación superior en nuestro siglo y renovar la mirada sobre la vocación docente. La inteligencia artificial puede procesar información. Solo el Maestro puede ayudar a convertirla en sabiduría.

Para saber más: lecturas sugeridas sobre IA, evaluación y docencia

Garcés, M. (2017). Nueva ilustración radical. Barcelona: Anagrama.
Aunque no aborda IA, ofrece una visión filosófica contemporánea sobre la educación como acto de emancipación crítica.

García-Peñalvo, F.J. (2023), La percepción de la Inteligencia Artificial en contextos educativos tras el lanzamiento de ChatGPT: disrupción o pánico. Artículo que analiza las percepciones de la comunidad educativa ante la llegada de la IA generativa , debate si representa una disrupción o genera pánico y examina las implicaciones para el aprendizaje. Disponible en: https://doi.org/10.14201/eks.31279

OEI y ProFuturo (2025), La llegada de la IA a la educación en América Latina: en construcción. Documento colaborativo que describe el panorama de la adopción de la IA en la educación en América Latina, con contribuciones de especialistas que ofrecen perspectivas sobre escenarios futuros. Disponible en: https://oei.int/wp-content/uploads/2025/06/la-llegada-de-la-ia-a-la-educacion-en-al-en-construccion-oei-profuturo.pdf

Rankin, W. (2021). AI conversations with Dr. William Ranking. Entrevista en YouTube donde discute la evaluación en la era de la IA, abordando cómo las evaluaciones tradicionales fallan y qué se debería considerar en un nuevo modelo. Disponible en: https://www.youtube.com/watch?v=Wln5XBHI9-0

UNESCO IESALC (2023), Oportunidades y desafíos de la era de la inteligencia artificial para la educación superior. Informe de la UNESCO que explora el impacto de la IA en la formación universitaria, destacando oportunidades para la innovación en la enseñanza y el aprendizaje, así como los desafíos éticos y académicos. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000386670_spa

Universidad de Helsinki (2024). Artificial intelligence in teaching. Guía de uso institucional para integrar IA en docencia y evaluación. Disponible en: https://teaching.helsinki.fi/instructions/article/artificial-intelligence-teaching#paragraph-7297

Universidad de los Andes (2024). Lineamientos para el uso de inteligencia artificial generativa (IAG). Guía de uso y buenas prácticas generada colaborativa y multidisciplinariamente.Disponible en https://secretariageneral.uniandes.edu.co/images/documents/lineamientos-uso-inteligencia-artificial-generativa-IAG-uniandes.pdf

Hola 👋
Un placer conocerte.

Regístrate gratis para recibir toda la información sobre eventos educativos, cursos, noticias y recursos para educadores.

¡No enviamos spam! Lee nuestra política de privacidad para más información.

Mostrar más

Mario Quiroga Ferrando

Lic. en Ingeniería de sistemas, Esp. en Constructivismo y educación, Mg. en Rendimiento, fracaso y abandono escolar, Consultor psicológico, Mg. en Psicología y gestión familiar. Ha sido docente universitario de Psicodrama, Teorías del aprendizaje, Psicología comunitaria y Consultoría organizacional.

Publicaciones relacionadas

Deja un comentario

Botón volver arriba