Una pregunta para saber si tu plan de lectura funciona: ¿qué ha cambiado?

Tu centro tiene plan de lectura. Tiene coordinador. Tiene memoria de fin de curso. Pero, si no puedes responder a una sola pregunta, nada de eso importa: ¿qué ha cambiado desde que lo tenéis?

Hay una pregunta que separa a los centros que mejoran la comprensión lectora de los que solo la trabajan. No es «¿tenéis plan de lectura?, «¿cuántas actividades habéis hecho?», «¿habéis entregado la memoria?».

Es esta: ¿qué ha cambiado?

¿Qué porcentaje de alumnos alcanzaba el nivel intermedio en comprensión lectora en septiembre y cuántos lo alcanzan ahora? Si puedes responder con un número, tu plan de lectura es una herramienta. Si no puedes, es un documento.

La mayoría de los centros españoles tiene plan de lectura, tiene coordinador de lectura y entrega una memoria a final de curso. Y la mayoría no puede responder a esa pregunta.

 

El problema no es la falta de plan. Es la falta de termómetro.

Un centro puede ejecutar 20 actividades de lectura al año, participar en tres programas, tener biblioteca activa y celebrar el Día del Libro con disfraces. Todo eso es actividad. Ninguna de esas cosas, por sí sola, demuestra que los alumnos lean mejor.

Andalucía tiene el despliegue institucional de lectura más completo de España y puntúa 523 en PIRLS 2021, dos puntos por encima de la media. Asturias tiene un plan de 19 años sin cambiar de nombre y puntúa 550. La diferencia no es la cantidad de cosas que se hacen. Es si alguien comprueba que funcionan.

Hattie (2017), en su síntesis de 1.400 metaanálisis sobre 300 millones de alumnos, sitúa la retroalimentación sobre el progreso como una de las intervenciones con mayor impacto. Pero retroalimentación no es un informe que se archiva. Es un dato que alguien usa para decidir qué mantener, qué cambiar y qué dejar de hacer.

 

Cómo responder a la pregunta (antes de junio)

No hace falta esperar a la evaluación diagnóstica oficial ni un software de análisis de datos. No hace falta formación específica. Hace falta una prueba sencilla y la voluntad de mirar el resultado.

 

Paso 1: elige un indicador.

Uno solo. Puede ser el porcentaje de alumnos que alcanza nivel intermedio en una prueba interna de comprensión, o la nota media en preguntas de inferencia del examen de Lengua. Puede ser el número de libros completados por trimestre. Lo que no puede ser es «impresión general del equipo docente». Un indicador que no se puede medir no es un indicador. Es una opinión.

 

Paso 2: mide en septiembre.

Al principio de curso, antes de que el plan empiece a funcionar. Ese es tu punto cero. Sin punto cero, no hay forma de saber si has mejorado o empeorado. Marzano (2001) sitúa el efecto de establecer objetivos claros con retroalimentación en una mejora media del 23 %. Pero un objetivo sin línea base no es un objetivo: es un deseo.

 

Paso 3: mide en marzo.

Misma prueba, texto diferente, misma estructura de preguntas. Compara. Si el porcentaje de alumnos en nivel intermedio ha subido, lo que estás haciendo funciona. Si no ha subido, tienes tres meses para cambiar algo antes de junio.

 

Paso 4: decide.

Esta es la parte que falta en casi todos los centros. No basta con medir. Hay que sentarse, mirar el dato y responder: ¿seguimos igual, ajustamos algo o cambiamos de estrategia?

Según el EEF (2025), el ciclo completo (planificar, monitorizar, evaluar) puede añadir hasta ocho meses de progreso. Sin la parte de «decidir con el dato», el ciclo está incompleto. Si mides y no decides, has hecho un examen a tus alumnos, no una evaluación de tu plan.

 

¿Te gusta lo que estás leyendo?

 

Recibe gratuitamente nuestros contenidos

y novedades destacadas en tu email.

 

 

Lo que la memoria de fin de curso debería decir (y no dice)

La memoria típica de un plan de lectura incluye: actividades realizadas, participación del profesorado, recursos utilizados, valoración cualitativa y propuestas de mejora. Todo eso es documentación. Nada de eso responde a «¿qué ha cambiado?».

Una memoria útil diría:

En septiembre, el 38 % de nuestros alumnos de 4.º estaba por debajo del nivel intermedio en comprensión lectora. En marzo, tras trabajar una actividad de inferencia semanal en todas las áreas, ese porcentaje bajó al 29 %. En junio, tras mantener la intervención, bajó al 24 %. El plan ha funcionado en inferencia. En evaluación crítica no hemos intervenido y el dato no se ha movido. Propuesta para el curso siguiente: mantener inferencia e introducir una actividad mensual de evaluación de fuentes.

 

Eso cabe en medio folio. Dice más que 15 páginas de actividades listadas. Y permite al equipo directivo del curso siguiente saber exactamente dónde está, qué funciona y qué falta.

 

Los tres enemigos del «¿qué ha cambiado?»

El primero: la inercia. «Siempre lo hemos hecho así». Si el plan de lectura lleva cinco años igual y nadie ha mirado los datos, no es continuidad: es inercia. La continuidad de Asturias funciona porque mide y ajusta. La inercia no mide nada.

El segundo: el miedo al dato. Si mides y el resultado es malo, hay que explicarlo. Hay que actuar. Hay que cambiar algo. Es más cómodo no medir. Pero un centro que no mide no es un centro que va bien. Es un centro que no sabe cómo va.

El tercero: la confusión entre actividad e impacto. «Hemos hecho 12 actividades de lectura este trimestre». Bien. ¿Y los alumnos leen mejor? Si la respuesta es «no lo sabemos», las 12 actividades son irrelevantes para la pregunta que importa.

 

La única pregunta que importa

Todo lo demás (el plan, el coordinador, la memoria, las actividades, los programas) es infraestructura. Necesaria, pero no suficiente. Lo que diferencia un centro que mejora la comprensión lectora de uno que solo la trabaja es si puede responder a «¿qué ha cambiado?».

No hace falta un programa revolucionario. No hace falta más presupuesto. Hace falta un dato, una decisión y la constancia de repetir el ciclo. Dato, acción, medición, ajuste. Repetir.

Si tu centro puede hacer eso, ya tiene más que la mayoría. Si no puede, ya sabe por dónde empezar.

 

Plan de Lectura (Ejemplo + Plantilla)

Descarga este recurso gratuito

 

Bibliografía

Education Endowment Foundation (2025). Metacognition and Self-Regulated Learning: Guidance Report. Londres: EEF.

Hattie, J. (2017). Visible Learning Plus: 252 Influences on Student Achievement. Corwin.

Marzano, R. J., Pickering, D. J. y Pollock, J. E. (2001). Classroom Instruction That Works. ASCD.

Mullis, I. V. S. et al. (2023). PIRLS 2021 International Results in Reading. Boston College, IEA.

PROGRAMA DE COMPRENSIÓN LECTORA

Conoce nuestro programa ABRAPALABRA: textos atractivos y producciones escritas útiles para la vida. Tus alumnos por fin disfrutarán y comprenderán lo que leen.

Relacionados

¡ÁLBUMES ILUSTRADOS!

Descubre nuestros álbumes ilustrados: Cuentos clásicos como nunca, 25 cuentos populares de España, Fábulas de Esopo 25 cuentos populares de Perú