Por qué los datos de la diagnóstica no llegan al aula (y qué puedes hacer tú)

Cada año, miles de centros reciben los resultados de la evaluación diagnóstica. La mayoría los archivan. Algunos los presentan en un claustro. Casi ninguno los usa para cambiar lo que pasa en el aula el lunes siguiente.

Cada curso, las comunidades autónomas aplican evaluaciones diagnósticas a sus alumnos de Primaria y Secundaria. Los resultados llegan al centro en forma de informe: puntuaciones medias, distribución por niveles, comparativa con la media autonómica. El equipo directivo los recibe, los presenta en un claustro y los archiva.

Siguiente curso: se repite el proceso. Nuevos datos, nuevo informe, nueva presentación, nuevo archivo. Y entre un informe y el siguiente, nadie ha cambiado nada en el aula.

No es que los datos no existan. Es que no llegan a donde tienen que llegar: al profesor que el lunes a las 9:00 decide qué hace con sus alumnos.

El circuito roto

El problema no es la evaluación. El problema es lo que pasa después. En la mayoría de centros españoles, el flujo es este: la Consejería envía los resultados → el director los recibe → el jefe de estudios los presenta en claustro → el claustro toma nota → nadie hace nada concreto con ellos.

¿Por qué? Porque el informe dice que «el 35 % de los alumnos de 4.º está por debajo del nivel intermedio en comprensión lectora», pero no dice qué hacer con eso. El profesor de 4.º mira el dato, asiente y vuelve al aula con el mismo plan que tenía antes. El dato informa, pero no orienta. Y un dato que no orienta es un dato que no sirve.

Madrid es un ejemplo ilustrativo. Puntúa 539 en PIRLS 2021, por encima de la media española. Sus cinco CTIF (Centros Territoriales de Innovación y Formación) gestionan la formación del profesorado de forma eficiente. Pero el sistema de evaluación diagnóstica de Madrid mide resultados sin que exista un mecanismo documentado que obligue a los centros a traducir esos resultados en acciones concretas.

Hattie (2017), en su síntesis de 1.400 metaanálisis, sitúa la retroalimentación sobre el progreso como una de las intervenciones con mayor impacto.

Pero retroalimentación no es dar un dato: es dar un dato que alguien usa para decidir qué cambiar.

Tres razones por las que el dato no llega

  1. El informe habla en idioma equivocado. Un informe que dice «percentil 45 en el proceso de integración e inferencia» no le dice nada al profesor de 4.º. Lo que necesita saber es: «Tus alumnos localizan bien, pero no saben conectar ideas entre párrafos. Aquí tienes tres actividades para trabajarlo.» Mientras el informe hable en lenguaje de estadístico y no en lenguaje de aula, se quedará en el despacho del director.
  2. Nadie pregunta «¿y ahora qué?». El claustro donde se presentan los datos suele ser informativo, no operativo. Se enseñan gráficos, se comparan con el año anterior, se señalan las áreas de mejora. Pero rara vez se sale de esa reunión con una decisión concreta: qué vamos a hacer diferente este trimestre, quién se encarga y cómo sabemos si ha funcionado. Según el EEF (2025), el ciclo planificar, monitorizar y evaluar puede añadir hasta ocho meses de progreso. Sin la parte de «evaluar para decidir», el ciclo está incompleto.
  3. No hay tiempo asignado. Traducir un dato diagnóstico en una acción de aula requiere tiempo: analizar qué proceso falla, buscar actividades que lo trabajen, adaptarlas al grupo. Ese tiempo no existe en la mayoría de centros. No hay una hora en el horario para «analizar datos y planificar intervención». El profesor lo haría si pudiera, pero tiene 25 horas lectivas y una hora de coordinación que se llena con burocracia. Marzano (2001) sitúa el efecto de establecer objetivos claros con retroalimentación en una mejora media del 23 %. Pero establecer objetivos requiere tiempo para pensar. Si ese tiempo no existe, el objetivo no se establece.

El espejismo del «buen resultado»

Hay un riesgo adicional que nadie menciona: cuando los resultados son «buenos» (por encima de la media), el centro asume que no hay nada que cambiar. Madrid puntúa 539. Es un buen dato. Pero dentro de ese 539 hay centros con 580 y centros con 490. La media esconde la variabilidad. Y la variabilidad está dentro de cada centro, no entre centros.

Un centro que puntúa 540 y tiene el 25 % de sus alumnos por debajo del nivel intermedio no tiene un «buen resultado». Tiene un resultado medio con un problema serio en la parte baja. Si solo mira la media, no ve el problema. Si mira la distribución, lo ve. Pero para mirar la distribución, alguien tiene que abrir el informe, ir más allá de la primera página y preguntarse: «¿Cuántos alumnos tenemos por debajo del nivel intermedio, y qué estamos haciendo con ellos?».

 

¿Te gusta lo que estás leyendo?

 

Recibe gratuitamente nuestros contenidos

y novedades destacadas en tu email.

 

 

Qué puedes hacer (sin esperar a la Consejería)

  • Traduce el dato a lenguaje de aula. Cuando recibas los resultados de la diagnóstica, no presentes el informe tal cual. Tradúcelo: «Nuestros alumnos de 4.º localizan bien (72 % en nivel intermedio o superior), pero fallan en inferencia (solo 48 %). Este trimestre vamos a trabajar una actividad de autopregunta por semana en todas las áreas». Eso es un dato que orienta. Si el profesor no sabe qué hacer con el dato, el dato no ha llegado al aula.
  • Reserva una reunión operativa. No el claustro donde se presentan los gráficos. Una reunión de 45 minutos donde el equipo de ciclo o el departamento responda a tres preguntas: ¿qué proceso falla?, ¿qué vamos a hacer este trimestre?, ¿cómo sabemos en marzo si ha funcionado? Si esas tres preguntas no se responden, la diagnóstica ha sido un trámite, no una herramienta.
  • Mide tú mismo en marzo. No esperes a la siguiente diagnóstica oficial (que será en un año). Pasa una prueba interna sencilla: un texto informativo, cinco preguntas (dos de localización, dos de inferencia, una de evaluación). Compara con septiembre. Si hay mejora, lo que estás haciendo funciona. Si no la hay, cambia algo antes de junio. El centro que mide una vez al año navega con un mapa de hace 12 meses. El que mide cada trimestre navega con GPS.

 

La pregunta que falta

La próxima vez que en tu centro se presenten los resultados de la diagnóstica, haz una sola pregunta:

¿Qué vamos a hacer de forma diferente a partir del lunes con estos datos?

 

Si la respuesta es silencio, el problema no es que los datos sean malos. El problema es que nadie los usa. Y un dato que nadie usa es un dato que no existe.

 

Todo sobre comprensión lectora

Descarga el ebook gratuito

 

Bibliografía

Education Endowment Foundation (2025). Metacognition and Self-Regulated Learning: Guidance Report. Londres: EEF.

Hattie, J. (2017). Visible Learning Plus: 252 Influences on Student Achievement. Corwin.

Marzano, R. J., Pickering, D. J. y Pollock, J. E. (2001). Classroom Instruction That Works. ASCD.

Mullis, I. V. S. et al. (2023). PIRLS 2021 International Results in Reading. Boston College, IEA.

PROGRAMA DE COMPRENSIÓN LECTORA

Conoce nuestro programa ABRAPALABRA: textos atractivos y producciones escritas útiles para la vida. Tus alumnos por fin disfrutarán y comprenderán lo que leen.

Relacionados

¡ÁLBUMES ILUSTRADOS!

Descubre nuestros álbumes ilustrados: Cuentos clásicos como nunca, 25 cuentos populares de España, Fábulas de Esopo 25 cuentos populares de Perú