Tu centro trabaja mucho en lectura. ¿Los alumnos leen mejor?

Hay centros que participan en tres programas de lectura, tienen plan lector, coordinador, biblioteca activa y formación anual. Y sus alumnos no leen mejor que hace cinco años. ¿Por qué?

Hay centros que trabajan mucho en la lectura. Tienen plan lector aprobado en el PEC. Tienen coordinador de biblioteca. Participan en el programa autonómico de lectura. Han hecho formación sobre estrategias lectoras. Celebran el Día del Libro con actividades. Tienen estantería de aula con libros prestados. Y cada junio, cuando miran los datos de la diagnóstica, los resultados en comprensión lectora son los mismos que el año anterior. O peores.

No es que no trabajen. Es que trabajan mucho y no miden si funciona.

La diferencia entre un centro que mejora la comprensión lectora y uno que «trabaja la comprensión lectora» es una sola cosa: el dato. ¿Pueden demostrar que algo ha cambiado?

Actividad no es impacto

Un centro puede ejecutar 15 actividades de lectura al año y no mover ni un punto la comprensión de sus alumnos. Puede participar en tres programas simultáneos y no tener un solo dato que conecte esos programas con una mejora medible.

Esto no es un problema de voluntad. Es un problema de diseño. El sistema educativo español evalúa actividades ejecutadas, no resultados obtenidos. La memoria de fin de curso pide documentar qué se hizo, no qué cambió. El coordinador de lectura puede rellenar 20 páginas de memoria sin incluir una sola cifra de comprensión lectora.

El resultado: centros que trabajan mucho, documentan mucho y no saben si sus alumnos leen mejor.

Según el EEF (2025), la diferencia entre una intervención eficaz y una ineficaz casi nunca es el contenido: es si incluye un ciclo de monitorización. Las intervenciones con ciclo planificar, monitorizar y evaluar pueden añadir hasta ocho meses de progreso. Sin monitorización, el mismo contenido no produce efecto medible.

 

Las tres señales de alerta

Si tu centro tiene dos o más de estas señales, probablemente está confundiendo actividad con impacto.

  1. No hay dato de partida. El plan de lectura se redactó sin medir antes cuántos alumnos comprenden a nivel intermedio o superior. Sin línea base, no hay forma de saber si se mejora o se empeora. Marzano (2001) sitúa el efecto de establecer objetivos claros con retroalimentación en una mejora media del 23 %. Pero un objetivo sin dato de partida no es un objetivo: es un deseo.
  2. La evaluación de la lectura es la misma que la de Lengua. Si la única medida de comprensión lectora es la nota de Lengua, no estás midiendo comprensión. Estás midiendo un compuesto de gramática, ortografía, expresión escrita, vocabulario y algo de comprensión. PISA y PIRLS miden tres procesos específicos (localizar, comprender, evaluar). La nota de Lengua no distingue entre ellos.
  3. Nadie pregunta «qué ha cambiado». Hay reuniones de coordinación, hay memorias, hay informes. Pero nadie hace la pregunta incómoda: ¿los alumnos de 4.º comprenden mejor en marzo que en octubre? Si esa pregunta no se hace al menos una vez al trimestre, el centro está navegando sin instrumentos. Hattie (2017), en su síntesis de 1.400 metaanálisis sobre 300 millones de alumnos, concluye que la retroalimentación sobre el progreso es una de las intervenciones con mayor impacto. No se trata de evaluar más, sino de usar la evaluación para decidir qué hacer después.

 

¿Te gusta lo que estás leyendo?

 

Recibe gratuitamente nuestros contenidos

y novedades destacadas en tu email.

 

 

La trampa de los programas

Los centros que peor lo pasan son los que participan en más programas. Suena contradictorio, pero no lo es. Cada programa tiene sus requisitos documentales: memoria, informe, cuestionario, evidencias. El coordinador dedica más tiempo a justificar que a intervenir. El profesor dedica más tiempo a documentar que a enseñar estrategias de lectura.

El problema no es el programa en sí. Es la acumulación sin conexión. Un programa de biblioteca, otro de plan lector, otro de innovación lectora, otro de competencia digital aplicada a la lectura. Cuatro programas, cuatro memorias, cuatro coordinadores, cero dato compartido sobre si los alumnos comprenden mejor.

Andalucía tiene el despliegue institucional de lectura más completo de España: programa ComunicA, Proyecto Lingüístico de Centro, 32 CEP, el presupuesto PCT más alto del país. Y puntúa 523 en PIRLS 2021, apenas dos puntos por encima de la media española. Tener muchas piezas no equivale a tener un engranaje.

 

Qué puedes hacer

  • Mide antes de actuar. En septiembre, pasa una prueba interna de comprensión lectora a tus alumnos. No hace falta que sea sofisticada: un texto informativo con cinco preguntas (dos de localización, dos de inferencia, una de evaluación). Guarda los resultados. Esa es tu línea base.
  • Repite en marzo. Misma estructura, texto diferente. Compara. Si hay mejora, lo que estás haciendo funciona. Si no la hay, tienes que cambiar algo. Sin ese dato, cualquier conversación sobre comprensión lectora es opinión.
  • Conecta los programas. Si tu centro participa en tres programas, pide a los tres coordinadores que respondan a la misma pregunta: ¿qué dato de comprensión lectora estamos usando los tres? Si cada uno usa un indicador diferente (o ninguno), los programas no están conectados. Son islas. Marzano (2001) demuestra que las representaciones no lingüísticas (mapas, diagramas, organizadores) mejoran el rendimiento un 27 %. Pero solo si se integran en una estrategia coherente, no si cada profesor las usa por su cuenta sin coordinación.
  • Simplifica la memoria. Si tu plan de lectura tiene una memoria de 20 páginas, reduce la parte de impacto a una sola pregunta: ¿qué porcentaje de alumnos alcanzaba nivel intermedio en septiembre y cuántos lo alcanzan ahora? Si no puedes responder eso, las 20 páginas no han servido.
  • Haz la pregunta incómoda en la reunión. La próxima vez que se hable de lectura en una reunión de claustro, de CCP o de equipo directivo, haz una sola pregunta: «¿Podemos demostrar que nuestros alumnos comprenden mejor que el año pasado?». Si la respuesta es «no lo sabemos», ya tienes el problema identificado. Y el primer paso para resolverlo.

 

Todo sobre comprensión lectora

Descarga el ebook gratuito

 

Bibliografía

Education Endowment Foundation (2025). Metacognition and Self-Regulated Learning: Guidance Report. Londres: EEF.

Hattie, J. (2017). Visible Learning Plus: 252 Influences on Student Achievement. Corwin.

Marzano, R. J., Pickering, D. J. y Pollock, J. E. (2001). Classroom Instruction That Works. ASCD.

Mullis, I. V. S. et al. (2023). PIRLS 2021 International Results in Reading. Boston College, IEA.

OECD (2019). PISA 2018 Assessment and Analytical Framework. París: OECD Publishing.

PROGRAMA DE COMPRENSIÓN LECTORA

Conoce nuestro programa ABRAPALABRA: textos atractivos y producciones escritas útiles para la vida. Tus alumnos por fin disfrutarán y comprenderán lo que leen.

Relacionados

¡ÁLBUMES ILUSTRADOS!

Descubre nuestros álbumes ilustrados: Cuentos clásicos como nunca, 25 cuentos populares de España, Fábulas de Esopo 25 cuentos populares de Perú