Analítica educativa

¿Qué debe evidenciar la evidencia? Hacia una práctica reflexiva de la educación basada en evidencia

Del dato a la comprensión: cómo construir sistemas de evidencia educativa centrados en el contexto y la acción reflexiva

En el debate contemporáneo sobre la mejora educativa hay una expresión que se ha vuelto muy frecuente y, a la vez, peligrosamente ambigua: educación basada en evidencia. Se la invoca a veces como criterio de legitimidad, otras como garantía de rigor e incluso como sustituto del juicio profesional. Sin embargo, cuanto más se expande su uso, más urgente se vuelve preguntarnos acerca de su verdadero significado: no qué es la evidencia, pregunta ya ampliamente discutida, sino, aunque parezca pleonasmo, qué debe evidenciar la evidencia para ser pedagógicamente significativa y operativamente útil.

En muchos sistemas educativos, la noción de evidencia se ha reducido a un repertorio de técnicas (metaanálisis, ensayos controlados, indicadores estandarizados) que actúan como estrategias y herramientas de validación formal. Pero esa ruta hacia lo técnico ha tenido un costo: ha invisibilizado las decisiones que realmente determinan qué cuenta como evidencia y qué queda fuera de ese campo. Es decir lo humano. La consecuencia es un campo saturado de datos, pero no necesariamente de comprensión ni de capacidad de acción.

Una herencia mal traducida

El auge de la educación basada en evidencia no puede entenderse sin su simiente en la medicina. A partir de los años noventa, la medicina basada en evidencia propuso un modelo de toma de decisiones sustentado en la mejor investigación disponible en ese momento, articulada con la experiencia profesional y los valores de los pacientes. No era un modelo puramente técnico: reconocía la incertidumbre y la necesidad de integrar distintos saberes.

Su traslado al campo educativo implicó simplificaciones importantes. Se privilegió la medición de resultados sobre la comprensión de procesos y se asumió, implícitamente, que las intervenciones educativas podían aislarse y replicarse con la misma lógica que los tratamientos clínicos. Ya entonces se advertía desde ese entonces que la enseñanza no es una práctica técnica plenamente estandarizable (Hederich et al., 2014). El resultado ha sido una adopción parcial: se toman los instrumentos, pero no siempre la sofisticación conceptual que les daba vida.

Una pregunta mal formulada: “¿qué funciona?”

Gran parte del discurso sobre evidencia gira en torno a una pregunta aparentemente simple: “¿qué funciona?”. Sin embargo, esta formulación es insuficiente, porque “funcionar” no es una propiedad intrínseca de una intervención. Es una relación entre acciones, contextos, sujetos y fines.

Una evidencia pedagógicamente robusta debería responder, al menos, a cuatro preguntas simultáneas:

  • ¿Produce efectos? (evidencia de efecto)
  • ¿Por qué los produce? (evidencia de mecanismo)
  • ¿En qué condiciones se sostienen? (evidencia de implementación)
  • ¿Qué valores encarna o promueve? (evidencia de valor)

La investigación reciente insiste en que sin desarrollo teórico, la evidencia empírica pierde capacidad de transferencia (Kulgemeyer et al., 2026). En otras palabras, acumular resultados no equivale a construir conocimiento. Vaya descubrimiento.

Instrumentos: lo que muestran y lo que ocultan

Las herramientas asociadas a la educación basada en evidencia producen distintos tipos de visibilidad:

  • Rúbricas: hacen observable lo complejo, pero pueden llegar a empobrecerlo.
  • Protocolos: garantizan consistencia, pero pueden, a veces, ignorar el contexto.
  • Focus groups y estudios cualitativos: revelan significados aunque desafían la generalización.
  • Metaanálisis: sintetizan evidencia, sí, pero pueden ocultar condiciones y contextos locales.

Incluso los métodos más robustos presentan sesgos estructurales (Hederich et al., 2014). Por ello, la cuestión no es elegir el mejor instrumento, sino articularlos en sistemas coherentes de producción de evidencia.

Lecciones de la práctica: entre el éxito y el límite

La evidencia empírica ha mostrado tanto su potencia como sus límites. Intervenciones en salud, por ejemplo, han demostrado efectos positivos en el aprendizaje al mejorar condiciones cognitivas de base (Angrist et al., 2023). Esto amplía la comprensión de lo educativo más allá del aula. En contraste, estudios sobre enseñanza de la física han evidenciado que prácticas tradicionales pueden deteriorar la relación de los estudiantes con el conocimiento (Madsen et al., 2014). La evidencia, en estos casos, cumple una función crítica: desnaturalizar lo establecido. Sin embargo, un problema persistente es la baja calidad de reporte en muchos estudios, lo que dificulta la acumulación de conocimiento (Heckman et al., 2021). Hay evidencia, pero no siempre es utilizable.

El giro necesario: de la evidencia como producto a la evidencia como sistema

El error más frecuente en políticas educativas es tratar la evidencia como un insumo externo que se “implementa”. En realidad, la evidencia debe entenderse como un sistema interno de producción, interpretación y uso del conocimiento. Esto implica reconocer que:

  • No hay evidencia universal sin mediación en contexto.
  • Los sistemas educativos deben producir evidencia propia.
  • El juicio profesional es insustituible.

La pregunta clave deja de ser “¿qué dice la evidencia?” y pasa a ser: ¿cómo construimos evidencia que sea significativa en este contexto?

GUÍA OPERATIVA PARA UNA INTERVENCIÓN

Lo que sigue no es un modelo ideal, sino una secuencia mínima viable, diseñada para instituciones educativas, redes escolares o equipos de política pública que quieran comenzar de inmediato.

Paso 1: Definir el problema con precisión (día 1–3)

Evite formulaciones genéricas como “mejorar la calidad educativa”. Formule problemas observables y acotados:

  • “Los estudiantes de grado 6° no logran explicar conceptos básicos en ciencias.”
  • “La retroalimentación docente es mayoritariamente correctiva, no formativa.”

Herramienta inmediata:

  • Revisión de trabajos de estudiantes
  • Observaciones de clase (2–3 sesiones)
  • Conversaciones breves con docentes

Producto esperado:

Un enunciado de problema claro, situado y discutido colectivamente.

Paso 2: Construir una hipótesis de trabajo (día 3–5)

No se trata de “aplicar una solución”, sino de explicitar una idea causal provisional:

  • “Si mejoramos la calidad de las preguntas en clase, aumentará la comprensión conceptual.”
  • “Si estructuramos mejor la retroalimentación, los estudiantes revisarán sus errores.”

Aquí comienza la evidencia de mecanismo.

Paso 3: Diseñar indicadores inteligentes (semana 1)

Evite medir sólo lo fácil. Combine tres niveles:

  1. Indicadores de proceso

    • ¿Qué hacen docentes y estudiantes?
  1. Indicadores intermedios

    • ¿Cambian las interacciones?
  1. Indicadores de resultado

    • ¿Mejora el aprendizaje?

Ejemplo:

  • Proceso: número y tipo de preguntas abiertas
  • Intermedio: calidad de las respuestas estudiantiles
  • Resultado: desempeño en tareas conceptuales

Paso 4: Crear una rúbrica mínima (semana 1)

No más de 4 criterios. Debe ser usable mañana.

Ejemplo (retroalimentación docente):

  1. Claridad del error
  2. Orientación para mejorar
  3. Nivel de desafío cognitivo
  4. Oportunidad (timing)

Escala simple: bajo / medio / alto.

Paso 5: Recoger evidencia múltiple (semana 2–4)

Combine fuentes:

  • Observaciones de aula (con rúbrica)
  • Muestras de trabajo estudiantil
  • Conversaciones breves (focus groups pequeños)
  • Resultados de evaluaciones

Regla clave:

Si todos los datos dicen lo mismo, probablemente estás viendo poco.

Paso 6: Analizar en ciclos cortos (cada 2 semanas)

Reunión de 60–90 minutos con el equipo:

Preguntas guía, siguiendo el enfoque de Pensamiento Visible (Visible Thinking):

  • ¿Qué sabíamos antes y qué sabemos ahora? ¿Qué cambió, realmente?
  • ¿Qué no cambió?
  • ¿Qué nos sorprendió?
  • ¿Qué hipótesis debemos ajustar?

Esto convierte la evidencia en proceso vivo.

Paso 7: Ajustar la intervención (iteración continua)

No espere resultados “definitivos”. Ajuste en ciclos:

  • Cambiar una variable a la vez
  • Documentar cambios
  • Comparar

Aquí emerge la evidencia de implementación.

Paso 8: Documentar para acumular conocimiento (mensual)

La mayoría de los sistemas falla aquí.

Registre:

  • Qué se hizo
  • En qué condiciones
  • Qué ocurrió
  • Qué se aprendió

Sin esto, no hay acumulación de evidencia.

Paso 9: Incorporar dimensión ética y de valor

Preguntas que deben hacerse explícitas:

  • ¿Qué tipo de aprendizaje estamos privilegiando?
  • ¿Quién se beneficia y quién no?
  • ¿Qué estamos dejando fuera al medir esto?

Esto es evidencia de valor.

Paso 10: Escalar con inteligencia (trimestral)

Solo escale cuando:

  • Entiende el mecanismo
  • Ha probado en más de un contexto
  • Puede explicar por qué funciona

Escalar sin comprensión produce reformas que se implementan mal.

Errores frecuentes (y cómo evitarlos)

  1. Confundir datos con evidencia
    → La evidencia requiere interpretación.
  2. Copiar “mejores prácticas” sin contexto
    → Traducir antes de aplicar.
  3. Medir solo resultados finales
    → Incluir procesos y mecanismos.
  4. Sobrecargar de instrumentos
    → Empezar simple, iterar.
  5. Excluir a los docentes del análisis
    → Sin ellos, no hay sistema de evidencia.

Conclusión: hacer visible lo que importa

La evidencia, en educación, no debe aspirar a eliminar la incertidumbre, sino a hacerla inteligible y accionable. Su valor no reside en ofrecer respuestas universales, sino en permitir decisiones mejor fundamentadas en contextos específicos. La pregunta inicial: ¿qué debe evidenciar la evidencia? encuentra así una respuesta más exigente: debe evidenciar relaciones, además de resultados; condiciones, no solo efectos; sentido sobre los datos. Y, sobre todo, debe convertirse en una práctica cotidiana, no en un ritual técnico esporádico.

Referencias

Angrist, N., Jukes, M. C. H., Clarke, S., Chico, R. M., Opondo, C., Bundy, D., & Cohee, L. M. (2023). School-based malaria chemoprevention as a cost-effective approach to improve cognitive and educational outcomes: A meta-analysis.

Camilli Trujillo, C., Arroyo Resino, D., Asensio Muñoz, I., & Mateos Gordo, P. (2020). Hacia la educación basada en la evidencia: un método y un tema. Revista Electrónica en Educación y Pedagogía, 4(6), 69–85.

Heckman, S., Carver, J. C., Sherriff, M., & Al-Zubidy, A. (2021). A systematic literature review of empiricism and norms of reporting in computing education research literature.

Hederich Martínez, C., Martínez Bernal, J., & Rincón Camacho, L. (2014). Hacia una educación basada en la evidencia. Revista Colombiana de Educación, (66), 19–54.

Kulgemeyer, C., Weißbach, A., Costan, K., Geelan, D., & Treagust, D. (2026). Evidence-Based Education and Beyond: The Critical Role of Theory in Science Education Research and Practice.

Madsen, A., McKagan, S. B., & Sayre, E. C. (2014). How physics instruction impacts students’ beliefs about learning physics: A meta-analysis of 24 studies.

Hola 👋
Un placer conocerte.

Regístrate gratis para recibir toda la información sobre eventos educativos, cursos, noticias y recursos para educadores.

¡No enviamos spam! Lee nuestra política de privacidad para más información.

Mostrar más

Yecid Puentes Osma

Licenciado en filología e idiomas de la Universidad Nacional de Colombia, especialista en gerencia educativa de la Universidad de San Buenaventura, y en Colegios de Calidad y Reality Therapy por el Instituto William Glasser de California. Yecid es el Director Ejecutivo de REDIE en Colombia. 48 años de experiencia como docente, coordinador, vicerrector y director de prestigiosas instituciones en Colombia y el Ecuador. Autor de artículos en revistas y memorias especializadas. Docente-tutor en Wide, la plataforma en línea del Project Zero de la Escuela de posgraduados en educación de la Universidad de Harvard. Formador de rectores en el programa Todos a Aprender del Ministerio de Educación de Colombia. Autor de Organizaciones Escolares Inteligentes, publicado por la editorial Magisterio. Pionero en las implementaciones del enfoque de Enseñanza para la Comprensión en Iberoamérica. Experto en temas relacionados con la teoría de inteligencias múltiples, Mindset, Flipped Learning, pensamiento sistémico y aprendizaje socioemocional.

Deja un comentario

Botón volver arriba