¿Qué debe evidenciar la evidencia? Hacia una práctica reflexiva de la educación basada en evidencia

Del dato a la comprensión: cómo construir sistemas de evidencia educativa centrados en el contexto y la acción reflexiva

En el debate contemporáneo sobre la mejora educativa hay una expresión que se ha vuelto muy frecuente y, a la vez, peligrosamente ambigua: educación basada en evidencia. Se la invoca a veces como criterio de legitimidad, otras como garantía de rigor e incluso como sustituto del juicio profesional. Sin embargo, cuanto más se expande su uso, más urgente se vuelve preguntarnos acerca de su verdadero significado: no qué es la evidencia, pregunta ya ampliamente discutida, sino, aunque parezca pleonasmo, qué debe evidenciar la evidencia para ser pedagógicamente significativa y operativamente útil.

En muchos sistemas educativos, la noción de evidencia se ha reducido a un repertorio de técnicas (metaanálisis, ensayos controlados, indicadores estandarizados) que actúan como estrategias y herramientas de validación formal. Pero esa ruta hacia lo técnico ha tenido un costo: ha invisibilizado las decisiones que realmente determinan qué cuenta como evidencia y qué queda fuera de ese campo. Es decir lo humano. La consecuencia es un campo saturado de datos, pero no necesariamente de comprensión ni de capacidad de acción.

Una herencia mal traducida

El auge de la educación basada en evidencia no puede entenderse sin su simiente en la medicina. A partir de los años noventa, la medicina basada en evidencia propuso un modelo de toma de decisiones sustentado en la mejor investigación disponible en ese momento, articulada con la experiencia profesional y los valores de los pacientes. No era un modelo puramente técnico: reconocía la incertidumbre y la necesidad de integrar distintos saberes.

Su traslado al campo educativo implicó simplificaciones importantes. Se privilegió la medición de resultados sobre la comprensión de procesos y se asumió, implícitamente, que las intervenciones educativas podían aislarse y replicarse con la misma lógica que los tratamientos clínicos. Ya entonces se advertía desde ese entonces que la enseñanza no es una práctica técnica plenamente estandarizable (Hederich et al., 2014). El resultado ha sido una adopción parcial: se toman los instrumentos, pero no siempre la sofisticación conceptual que les daba vida.

Una pregunta mal formulada: “¿qué funciona?”

Gran parte del discurso sobre evidencia gira en torno a una pregunta aparentemente simple: “¿qué funciona?”. Sin embargo, esta formulación es insuficiente, porque “funcionar” no es una propiedad intrínseca de una intervención. Es una relación entre acciones, contextos, sujetos y fines.

Una evidencia pedagógicamente robusta debería responder, al menos, a cuatro preguntas simultáneas:

La investigación reciente insiste en que sin desarrollo teórico, la evidencia empírica pierde capacidad de transferencia (Kulgemeyer et al., 2026). En otras palabras, acumular resultados no equivale a construir conocimiento. Vaya descubrimiento.

Instrumentos: lo que muestran y lo que ocultan

Las herramientas asociadas a la educación basada en evidencia producen distintos tipos de visibilidad:

Incluso los métodos más robustos presentan sesgos estructurales (Hederich et al., 2014). Por ello, la cuestión no es elegir el mejor instrumento, sino articularlos en sistemas coherentes de producción de evidencia.

Lecciones de la práctica: entre el éxito y el límite

La evidencia empírica ha mostrado tanto su potencia como sus límites. Intervenciones en salud, por ejemplo, han demostrado efectos positivos en el aprendizaje al mejorar condiciones cognitivas de base (Angrist et al., 2023). Esto amplía la comprensión de lo educativo más allá del aula. En contraste, estudios sobre enseñanza de la física han evidenciado que prácticas tradicionales pueden deteriorar la relación de los estudiantes con el conocimiento (Madsen et al., 2014). La evidencia, en estos casos, cumple una función crítica: desnaturalizar lo establecido. Sin embargo, un problema persistente es la baja calidad de reporte en muchos estudios, lo que dificulta la acumulación de conocimiento (Heckman et al., 2021). Hay evidencia, pero no siempre es utilizable.

El giro necesario: de la evidencia como producto a la evidencia como sistema

El error más frecuente en políticas educativas es tratar la evidencia como un insumo externo que se “implementa”. En realidad, la evidencia debe entenderse como un sistema interno de producción, interpretación y uso del conocimiento. Esto implica reconocer que:

La pregunta clave deja de ser “¿qué dice la evidencia?” y pasa a ser: ¿cómo construimos evidencia que sea significativa en este contexto?

GUÍA OPERATIVA PARA UNA INTERVENCIÓN

Lo que sigue no es un modelo ideal, sino una secuencia mínima viable, diseñada para instituciones educativas, redes escolares o equipos de política pública que quieran comenzar de inmediato.

Paso 1: Definir el problema con precisión (día 1–3)

Evite formulaciones genéricas como “mejorar la calidad educativa”. Formule problemas observables y acotados:

Herramienta inmediata:

Producto esperado:

Un enunciado de problema claro, situado y discutido colectivamente.

Paso 2: Construir una hipótesis de trabajo (día 3–5)

No se trata de “aplicar una solución”, sino de explicitar una idea causal provisional:

Aquí comienza la evidencia de mecanismo.

Paso 3: Diseñar indicadores inteligentes (semana 1)

Evite medir sólo lo fácil. Combine tres niveles:

  1. Indicadores de proceso

    • ¿Qué hacen docentes y estudiantes?
  1. Indicadores intermedios

    • ¿Cambian las interacciones?
  1. Indicadores de resultado

    • ¿Mejora el aprendizaje?

Ejemplo:

Paso 4: Crear una rúbrica mínima (semana 1)

No más de 4 criterios. Debe ser usable mañana.

Ejemplo (retroalimentación docente):

  1. Claridad del error
  2. Orientación para mejorar
  3. Nivel de desafío cognitivo
  4. Oportunidad (timing)

Escala simple: bajo / medio / alto.

Paso 5: Recoger evidencia múltiple (semana 2–4)

Combine fuentes:

Regla clave:

Si todos los datos dicen lo mismo, probablemente estás viendo poco.

Paso 6: Analizar en ciclos cortos (cada 2 semanas)

Reunión de 60–90 minutos con el equipo:

Preguntas guía, siguiendo el enfoque de Pensamiento Visible (Visible Thinking):

Esto convierte la evidencia en proceso vivo.

Paso 7: Ajustar la intervención (iteración continua)

No espere resultados “definitivos”. Ajuste en ciclos:

Aquí emerge la evidencia de implementación.

Paso 8: Documentar para acumular conocimiento (mensual)

La mayoría de los sistemas falla aquí.

Registre:

Sin esto, no hay acumulación de evidencia.

Paso 9: Incorporar dimensión ética y de valor

Preguntas que deben hacerse explícitas:

Esto es evidencia de valor.

Paso 10: Escalar con inteligencia (trimestral)

Solo escale cuando:

Escalar sin comprensión produce reformas que se implementan mal.

Errores frecuentes (y cómo evitarlos)

  1. Confundir datos con evidencia
    → La evidencia requiere interpretación.
  2. Copiar “mejores prácticas” sin contexto
    → Traducir antes de aplicar.
  3. Medir solo resultados finales
    → Incluir procesos y mecanismos.
  4. Sobrecargar de instrumentos
    → Empezar simple, iterar.
  5. Excluir a los docentes del análisis
    → Sin ellos, no hay sistema de evidencia.

Conclusión: hacer visible lo que importa

La evidencia, en educación, no debe aspirar a eliminar la incertidumbre, sino a hacerla inteligible y accionable. Su valor no reside en ofrecer respuestas universales, sino en permitir decisiones mejor fundamentadas en contextos específicos. La pregunta inicial: ¿qué debe evidenciar la evidencia? encuentra así una respuesta más exigente: debe evidenciar relaciones, además de resultados; condiciones, no solo efectos; sentido sobre los datos. Y, sobre todo, debe convertirse en una práctica cotidiana, no en un ritual técnico esporádico.

Referencias

Angrist, N., Jukes, M. C. H., Clarke, S., Chico, R. M., Opondo, C., Bundy, D., & Cohee, L. M. (2023). School-based malaria chemoprevention as a cost-effective approach to improve cognitive and educational outcomes: A meta-analysis.

Camilli Trujillo, C., Arroyo Resino, D., Asensio Muñoz, I., & Mateos Gordo, P. (2020). Hacia la educación basada en la evidencia: un método y un tema. Revista Electrónica en Educación y Pedagogía, 4(6), 69–85.

Heckman, S., Carver, J. C., Sherriff, M., & Al-Zubidy, A. (2021). A systematic literature review of empiricism and norms of reporting in computing education research literature.

Hederich Martínez, C., Martínez Bernal, J., & Rincón Camacho, L. (2014). Hacia una educación basada en la evidencia. Revista Colombiana de Educación, (66), 19–54.

Kulgemeyer, C., Weißbach, A., Costan, K., Geelan, D., & Treagust, D. (2026). Evidence-Based Education and Beyond: The Critical Role of Theory in Science Education Research and Practice.

Madsen, A., McKagan, S. B., & Sayre, E. C. (2014). How physics instruction impacts students’ beliefs about learning physics: A meta-analysis of 24 studies.

Salir de la versión móvil