TRAMPAS DE LAS EVALUACIONES EDUCATIVAS.
DE PISA 2003 a MADRID 2005:
Por Manuel Méndez, Director del Centro de Apoyo al Profesorado de San Lorenzo de El Escorial y vocal de formación del profesorado de la junta directiva del Forum Europeo de Administradores de la Educación en Madrid (FEAEM)
ANTECEDENTES:
La evaluación del sistema educativo es una necesidad para “detectar los puntos débiles” a los que se deben aplicar “planes de mejora” para intentar superar las deficiencias detectadas, pero también estas evaluaciones indican los “puntos fuertes” que animan a mantener las “buenas prácticas” ya confirmadas.
El problema es que la evaluación, sea externa o interna a los propios centros educativos, debe ser “fiable”, es decir “medir lo que dice medir”, y sobre todo “diagnósticas”, esto es, que indique claramente cuáles son esos puntos débiles que hay que superar y qué otros puntos fuertes hay que afianzar. La mejor manera de hacer fiable una prueba es homologarla y estandarizarla, pero esto es costoso en todos los sentidos, científica y económicamente. Y sin embargo, como todo resultado de una evaluación fiable bien aplicada, a la larga compensa el esfuerzo, puesto que los planes de mejora requieren muchas aportaciones del erario público para ponerlas en marcha, y si ese dinero se destina a lo que no debe ser mejorado, es dinero de todos que se despilfarra.
Veamos algunos ejemplos históricos de evaluaciones realizadas, con carácter internacional europeo, y que implicaron a nuestro país. Empezaremos por el TIMMS, (Prueba Internacional de Matemáticas y Ciencias) que se desarrolló de 1994 a 1995, y cuyos resultados para España, en Matemáticas y Lengua fueron los siguientes:
“La puntuación media de los alumnos españoles fue de 487 en 8º y 448 en 7º[1], en ambos casos por debajo del rendimiento medio internacional. Si se ordenan los países por orden decreciente de rendimiento en 8º España ocupaba el puesto 31º de 41 países y en 7º el 32º de 39.
El rendimiento español en 8º era similar al de Estados Unidos, Escocia, Letonia, Islandia, Grecia, Rumanía y Lituania. Dicho rendimiento es significativamente menor al de países como Irlanda, Francia y Noruega. El rendimiento en 7º es similar al de Rumanía, Chipre y Grecia, siendo significativamente menor que el de países como Irlanda, Francia, Noruega y Estados Unidos. En ambos cursos el rendimiento es significativamente mayor que países como Portugal, Colombia o Sudáfrica.
Considerando solamente los países de la Unión Europea que han participado y relacionando el rendimiento en 7º y 8º con su renta per capita, encontramos que España ha obtenido resultados en ambos cursos un poco por debajo de los esperados en función de ese índice de riqueza.
Pero el rendimiento no se puede explicar solamente en función de factores económicos, sino que influyen también factores de índole social y cultural. El estudio realizado pone de manifiesto, y esto es común a otros estudios anteriores, que el rendimiento está asociado a factores muy relacionados con el entorno familiar, como son la disponibilidad de recursos educativos en el hogar, el número de libros que el alumno tiene en casa y el nivel educativo de los padres”.
Como vemos esta evaluación se refiere a un momento educativo anterior pero muy cercano a la LOGSE, y sorprendentemente, los resultados y posición de España a nivel Internacional son muy parecidos a lo que sucederá en 2003 con el informe PISA tras casi una década de implantación de la LOGSE.
Veamos un recorrido comparativo con otros estudios realizados anteriormente sobre nuestro sistema educativo:
“Entre los estudios internacionales de evaluación en Matemáticas y Ciencias destacan los IAEP I y II en los que España participó.
En el IAEP I, realizado en 1988, se evaluaron alumnos de 13 años que cursaban 8º de EGB. En el IAEP II, llevado a cabo en 1991, se evaluaron los alumnos de 8º de EGB y los de 9 años que cursaban 4º de EGB. Aunque en ambos estudios se evaluaron alumnos de 8º de EGB de igual modo que en el TIMSS, no es posible comparar estos resultados pues son evaluaciones realizadas con pruebas diferentes.
En el IAEP I y en el IAEP II participaron, entre otros países, Irlanda y Estados Unidos que también han participado en el TIMSS. Los resultados españoles en Matemáticas del IAEP I fueron mejores que los de Irlanda y Estados Unidos, pero no significativamente mejores. En los resultados del IAEP II Irlanda fue significativamente mejor que España y que Estados Unidos, mientras que los resultados de España fueron similares a los de este último país.
En el TIMSS y en Matemáticas Irlanda obtiene resultados significativamente mejores que España y Estados Unidos tanto en 7º como en 8º. Estados Unidos obtiene resultados mejores que España en 7º y 8º, pero sólo son significativamente superiores en 7º.”
Estamos ya en un período anterior a la Reforma Educativa de la LOGSE, un momento en que la Ley del 70 estaba dando todos los frutos que el esfuerzo social le permitió, porque ya sabemos que la Ley es un marco, pero detrás tiene que haber un interés social que la dé credibilidad, y ese interés se manifiesta en los presupuestos, que como vemos en Educación y en nuestro país, siempre han sido escatimados en el capítulo educación. Es interesante destacar que muchas Comunidades Autónomas (entre ellas Madrid), aún no tenían transferidas las competencias educativas.
Existe otra evaluación homologada y fiable, realizada en 1997, ya en período LOGSE, se trata de la Evaluación comparada de la enseñanza y el aprendizaje de la lengua inglesa[2], en niveles de Secundaria en España, y que insertamos aquí para comprobar que la dinámica comparativa para nuestro país, en cuanto a rendimientos académicos, en este caso para idiomas, sigue la tónica general, sea prelogse o postlogse:
Resultados:
Haciendo un esfuerzo comparativo, los alumnos españoles, con 15 y 16 años, están en situación algo más “baja” pero parecida, respecto a habilidades lingüísticas, que los alumnos de 13 y 14 años en el informe TIMMS respecto a matemáticas, ya que “supuesta la media en 500 puntos (50%)” no alcanzan valores de 450 (45%).
En el año 2000, la OCDE (Organización para la Cooperación y el Desarrollo Económico), comienza a perfilar su Proyecto para la Evaluación Internacional de los Alumnos, que dará lugar a los futuros informes PISA[3].
Y refleja unos resultados sobre matemáticas que se reflejan en el cuadro siguiente:
Como vemos España se sitúa en 470 puntos, por debajo de la media (500), y ocupa el lugar 24, justo por delante de Polonia. Parece que desde 1995 (TIMMS), y para alumnos con 15 años, ahora en 3º de Secundaria, la media de habilidades matemáticas no varía
Y para la habilidad lectora:
Como podemos comprobar, España continúa, por debajo de la una media de 500, con 490 puntos. Nuestra situación internacional sigue siendo preocupante ya implantada la LOGSE.
DE PISA 2003[4]:
En este año, en cuanto a Matemáticas la posición de España es la siguiente:
Esta vez, tres años después, alcanzamos un 485, siempre por debajo de la media, pero además estamos en la posición 26, por debajo de Polonia.
Es interesante observar la situación global en Europa entre los resultados del sector educativo público y el privado, que esta vez sí figuran en el informe:
El propio informe reconoce:
Luego ya se ha detectado la diferente procedencia en la escolarización de los inmigrantes con necesidad de compensación sociocultural que están en un 85% en los centros públicos. A pesar de ello, la privada española solo alcanza 507 puntos, por debajo de la media privada europea.
Y con respecto a otras habilidades del proceso de enseñanza-aprendizaje, y reconociendo que España se sitúa en el cuadrante de “Menor Excelencia pero Mayor Equidad”, se resumen en esta tabla:
Por tanto Pisa nos dejó en los lugares comparativos que cualquier estudio anterior nos retrataba, pero indicando las causas y por tanto apuntando a sus posibles soluciones, una de las cuáles es la relación de PIB y gasto en educación o el estatus socioeconómico y cultural de las familias.
Y hasta aquí concluir que las evaluaciones de las que hablamos siempre han sido consideradas “fiables” por todos los sectores sociales y científicos que se relacionan con la educación.
A MADRID 2005.
Ya todos sabíamos donde estábamos, es decir, en la cola al menos de Europa, y eso por no citar las evaluaciones de la UNESCO (2004, “Educación para Todos”), en las que nos quedamos en la cola educativa, pero del mundo, (puesto 26, junto a Hungría, Trinidad y Tobago).
Todos estos informes evaluativos de la situación de la educación en España implican un toque serio de atención a “nuestro sistema educacional”, entendido en claves como “interés social por la educación y esfuerzo presupuestario”, “política general de educación y legislación educativa”, “formación inicial y permanente del profesorado”, “revisión del currículum y acceso a las tecnologías de la información y comunicación”, incluso al propio proceso de enseñanza-aprendizaje y las didácticas y metodologías, si queremos llegar hasta el final.
En ese año 2005, la Comunidad de Madrid, a través de la Consejería de Educación y por iniciativa de la Dirección General de Ordenación Académica, decide poner en marcha “unas pruebas generales a aplicar en 6º de Primaria” para detectar cómo funciona el sistema educativo en cuanto a las llamadas “áreas instrumentales”. Se trata, indican, de obtener una información “fiable” que permita a la administración diseñar planes de mejora, si son precisos, para solucionar las dificultades que se detecten, pero en ningún caso se harán públicos los resultados, ni servirán para establecer “categorías entre los centros”, etc.
La verdad es que la Comunidad de Madrid ya tenía en proyecto otro programa de actuación, el llamado Centros de Actuación Preferente, que implicaba una catalogación de los “peores centros educativos”: aquellos centros que por su “situación y características” requiriesen una intervención “prioritaria” de la administración, para mejorar su ( desastrosa) situación, de forma que ellos mismos solicitasen esta “clasificación” para acceder a este “privilegiado” estamento, a cambio de lo cuál, recibirían “un trato especial y un esfuerzo añadido” por parte de la administración. Por tanto, las pruebas a aplicar “en todos y cada uno de los centros de la red pública de Madrid (pública y concertada) no era sino una herramienta más en ese empeño de escudriñar qué iba mal en el sistema educativo de la Comunidad de Madrid, entendido como responsabilidad única de los centros educativos y su profesorado, ya que los informes internacionales anteriormente citados, dejaban bien claro que aspectos como la relación PIB e inversión en educación, política general educativa y legislación educativa en particular, contexto socioeconómico y familiar, inversión en tecnología de la información y de la comunicación, profesionalidad y reconocimiento social por el profesorado, etc. eran las claves de unos buenos resultados en educación, pero claro todo esto implica sobre todo a actuaciones de responsabilidad política y administrativa, y nuestra Comunidad esta dispuesta a demostrar que el mal está en “el alumno ” que se esfuerza poco”, la despreocupación de las familias que no llevan a sus hijos a centros adecuados y no saben elegir bien su centro docente (entiéndase concertada y privada) y en el profesorado (funcionarios públicos) que “no sabe enseñar”. De hecho, la última decisión anunciada por la Consejería de Educación de no volver a participar en ningún futuro informe PISA más, demuestra claramente su talante e intenciones futuras de evaluación del sistema.
Las características y resultados de las pruebas aplicadas a final del curso pasado en la Comunidad de Madrid, pueden resumirse en lo siguiente:
1º: La formulación de la prueba no se ajustaba ni a los contenidos, ni a los procedimientos ni a las actitudes del currículum de los alumnos a los que iba dirigida, y entendía por “cultura general” la aceptación social de la época de nuestros abuelos, sin una referencia lejana siquiera a temas de actualidad. Pongamos ejemplos:
La lectura trata de una anécdota en un puerto de un escritor francés de hace cien años, todo descontextualizado del currículo de primaria, y el dictado (la otra gran habilidad lingüística medida), contiene 9 palabras con tilde evidente y tres o cuatro con “posible error de tilde para un niño de 6º de Primaria”, 8 palabras con mayúscula, incluidos cinco nombres propios de lugares extranjeros que el niño debe identificar, 12 posibles errores de palabras con b/v, 2 más con h o ausencia de h, 3 palabras más de diferenciación y/ll, 2 más con discriminación de m antes de b, esto es más de 35 errores posibles sobre un total de 69 palabras (incluidas las de enlace) de un texto de un escritor sudamericano que narra hechos acontecidos en lugares no significativos para un niño de Primaria. Pero nadie nos dice quién es el autor de la prueba, qué conocimientos psicopedagógicos le avalan, cómo ha corregido el dictado, cuántas faltas se admitían, cuanto penalizaba cada una de ellas, etc. Y en fin, qué significa una nota de 4 en este dictado.
Nos aclaran con los resultados:
Si la media global, significa que los alumnos han cometido 4’75 faltas de media, se precisa saber cuánto puntuaba cada falta. Pero además, cometer 10 faltas sobre posibles 35 errores en un niño de 6º de Primaria ¿esta bien o está mal? Los datos porcentuados parecen muy positivos, al menos un 70% de los niños no cometieron más de 9 faltas en un dictado cargado de minas (35).
Preferimos no comentar más.
2º: Las pruebas planteaban cuestiones totalmente trasnochadas, propias de las inspecciones escolares de los años de posguerra, además de utilizar un material rudimentario que solo tenía en cuenta las capacidades memorísticas, poco deductivas y menos inductivas, del razonamiento lógico y capacidad verbal, así como aspectos puramente “formales” de la educación. Ni siquiera los textos utilizados eran “significativos” para las edades de los alumnos y mucho menos para sus diferentes contextos socioculturales. No contemplaban en absoluto una actualización a la realidad tecnológica e informativa de nuestra sociedad ni tampoco a su actual colectivo intercultural.
Ejemplo de la formulación de los problemas:
Las niñas y las mujeres son las que “gastan” dinero, “compran”. El niño es el que corre y da 10 vueltas al patio o marcha triunfal en un tiempo récord hasta su colegio. El padre por supuesto es el depositario del poder económico, el que reparte dineros.
3º: Hay que indicar que los representantes sociales de la educación: sindicatos, asociaciones de directores, de padres y madres de alumnos y de inspectores, desde un inicio estuvieron en desacuerdo con el procedimiento empleado y que este desacuerdo se le hizo saber al Sr. Consejero de Educación. Los resultados obtenidos por un procedimiento tan cuestionado, no son por tanto asumidos por estos colectivos sociales, que preconizan pruebas con garantía homologable al Proyecto para la Evaluación Internacional de los Alumnos (PISA). Curiosamente, este tipo de prueba que se basa en modelos “contextualizados”, es rechazada por la Consejería de Educación, que ya ha anunciado su no participación en las próximas pruebas[5], lo que no es de extrañar, ya que los resultados de PISA pueden “desmentir” a los 15 años (3º de Secundaria), los resultados de este otro tipo de prueba, y lo que es más serio, barema a toda la Comunidad de Madrid en referencia comparativa con el resto de Comunidades Españolas, además de establecer un ranking internacional. Parece que no nos gustan las evaluaciones externas objetivas, y quizá por eso esta prisa por autoevaluarnos, aunque sea de esta guisa tan subjetiva, en principio.
Sin comentarios.
4º: El compromiso de la administración, al convocar la pasada prueba de mayo, era que sus resultados serían para “exclusivo uso interno”, buscando los planes de mejora pertinentes a tenor de los mismos, y que no se harían públicos. Pero todos hemos podido leer en la prensa desde los listados de los resultados, hasta las interpretaciones más variopintas sobre los mismos. Y en el caso de centros públicos, además con nombre y apellidos, figuraba el CEIP nº 1 de Fresnedillas como el último de nuestra Comunidad Autónoma, así como muy cerca de éste, otros centros con características socioculturales y familiares que por supuesto no se citan (tienen carácter marcadamente rural y un 55% de matrícula procedente de inmigración, entre otras, por citar algunas: infraestructuras anticuadas e insuficientes, una plantilla de profesores que varía en su 85% cada año, profesorado en su mayoría muy joven y de carácter interino, escasa cohesión social por reciente inmigración intercultural, gitanos portugueses, magrebíes y países del Este de Europa, etc.).
Precisamente, estos colegios públicos nombrados como en último lugar de nuestra Comunidad, resultan ser centros con “una calidad” educativa muy cercana a la “excelencia”, por su compromiso socio-pedagógico, esfuerzo organizativo, disposición innovadora y “buenas prácticas”, por parte de un profesorado que en muchos casos sustituye con ventaja su falta de experiencia con una sobredosis de optimismo, esfuerzo y empeño en su trabajo. Pero claro, no alcanzan mejores resultados en unas pruebas que a todos “iguala”, hasta a los más diferentes. Este “igualitarismo” tan alejado de la llamada “justicia distributiva”, es el que ha permitido que se mida con la misma vara realidades muy diferentes, y además que se les etiquete sin ninguna advertencia sobre el contenido de dicha etiqueta. Si aplico una prueba en castellano a un colectivo que por cultura es analfabeto en esta lengua, (aunque no en su propia cultura, en la que pueden estar perfectamente integrados), pero no contemplo esta “diferencia”, y los comparo con otros colectivos bien estructurados y situados socialmente, ya se cuál va a ser el resultado. Si además afirmo que esto lo hago para defender el derecho de los padres “a elegir el centro que mejor satisfaga sus aspiraciones personales”, tendríamos que hablar de qué libertad de elección han tenido las familias asentadas en localidades rurales, aisladas o muy alejadas de centros privados y/o concertados, que además consideran, por convicción personal, que la educación es un derecho universal y un valor para la superación de las diferencias sociales, y que como tal, solo la escuela pública puede garantizar. Quienes así pensamos, y somos muchos, elegimos de acuerdo a nuestras ideas, y por tanto, también exigimos que la red pública sea considerada y tratada como se merece, desde un estado social y democrático.
Conclusión: La prueba organizada por la Dirección General de Ordenación Académica, así como la interpretación de los resultados que la misma estuvo publicando, es socialmente discriminadora, pedagógicamente trasnochada y en cuanto a justicia distributiva, un disparate.
Veamos un ejemplo diferente de evaluación, en una Comunidad Autónoma que parece entender por AUTOEVALUACIÖN algo muy distinto a la Comunidad de Madrid. Es el caso del País Vasco que para preparar una prueba de evaluación (conocida como REDES) en sus centros educativos utiliza por ejemplo estas elementales precauciones:
O diseña una estrategia:
Y temporaliza un proceso:
Y además ofrece una extensa bibliografía que justifica su método de autoevaluación conocido como REDES. ¿Algo que ver con el ejemplo anterior?
Y claro, aquí se entienden perfectamente los resultados:
Y a partir de ellos se pueden obtener “líneas de actuación prioritarias” sólidamente basadas en necesidades reales, que se traduzcan en planes de mejora que puedan llegar a considerarse “buenas prácticas” en el futuro.
Compárese con estas conclusiones del anterior “estudio” de la Comunidad de Madrid:
O este otro tipo de expresión de resultados, en esta misma Comunidad de Madrid:
BUSCANDO UNA RESPUESTA:
Quizá la respuesta a este tipo de “despropósito” educativo que no me atrevo a llamar evaluación, sino examen general de conocimientos elementales, como mucho y con excesivo respeto por mi parte, no sea otra que continuar una política de acoso y derribo de la escuela pública, en cuyo caso estamos ante una grave responsabilidad administrativa al utilizar medios perversos totalmente acientíficos pero muy próximos a generar preocupación en la familia media (la familia carente totalmente de recursos, no puede ni preocuparse, con conformarse con lo que tiene ya es bastante) sobre la forma de escolarizar a sus hijos. ¿ Por qué esta desconfianza? Bueno el Sr. Consejero de Educación proclama que una plaza en la “concertada” le sale mucho más barato que una plaza en la pública, pero no pormenoriza si la educación es una cuestión de negocio y empresa o debe ser un derecho social que el Estado garantiza, y que por tanto hablar aquí de costos es resbaladizo, porque es cuestionar que quien no tenga de qué que se quede para siempre como está. Y si además consigue demostrar que la enseñanza concertada obtiene mejores resultados que la pública, independientemente de otros factores, mejor que mejor. A los profesores en la concertada se les puede despedir todos los años, a los profesores de la pública, como son funcionarios, (y por algo lo son) no es tan sencillo. Además los funcionarios (que están en la pública) deben cumplir la Ley y velar porque se cumpla, y esto a veces no conviene, por ejemplo, cuando es la propia administración la que “badea” los límites legales en su actuación: forma de funcionar las llamadas Comisiones de Escolarización en el reparto “igualitario” de la matrícula de inmigración, otorgamiento de conciertos a la privada que no reúne los requisitos indispensables e incluso con informe negativo del servicio de inspección, adjudicación de concursos y convocatorias públicas a centros privados, inclusión del profesorado de la privada en los cursos de formación de los CAP que se gestionan con erario público y cuyo Decreto de funcionamiento lo prohíbe, etc.
Otras respuestas: ¿quién aplicó está prueba? Por que si fue el propio profesorado del centro, la respuesta esta clara:
La escuela pública con profesores funcionarios, que tienen capacidad de firma en ACTA académica para aprobar o suspender, seguro que respetando su estatus de funcionario, cumplió las normas y fue objetivo e imparcial al aplicar la prueba. En la privada me caben mis dudas, tan legítimas como esperar que quien regenta un negocio y sabe cuál puede ser el resultado de suspender unas pruebas, no tienda a ser menos imparcial y eche una manita a los alumnos que realizan una prueba de “evaluación” de su propio negocio. La duda queda, aunque no fuera así.
Para terminar, creo personalmente que la educación nunca debió dejarse en manos de personal no “funcionario”, como pienso que la educación pública debe ser laica para no ser doctrinal, porque no se puede pretender imparcialidad en la educación cuando a la vez es un negocio o una religión. Lo que se inició como “conciertos educativos” siempre basados en una red secundaria de la pública, que abarcara aquellas áreas escolares donde la pública no pudiera llegar, y que tan pronto la pública pudiera asumir, se volvería a “desconcertar”, ha terminado en la Comunidad de Madrid convirtiéndose en una red principal que compite con la pública en su propio terreno, es más, arrincona a la pública con la ayuda de los poderes “¿públicos?” donde siempre estuvo presente. Por tanto el derecho a la educación como superación de diferencias sociales y la escuela pública como garante de la transformación social hacia la igualdad de oportunidades comienza a ser una entelequia, como lo será pronto el derecho a la salud y el ser atendido en un centro hospitalario gratuitamente, simplemente por el hecho de ser ciudadano de esta Nación y esta Comunidad. Cada vez esta más claro que la escuela pública tendrá su clientela en las clases sociales más desfavorecidas y que a la sociedad se la ha llevado ya a la necesidad y/o creencia de “pagar” una buena educación para sus hijos, si puede, en la red concertada o privada. Y es lógico, estamos en la época del trabajo basura, temporal y transitorio, y no se puede permitir un sector privilegiado, como el funcionariado, con trabajo fijo y para toda la vida laboral, y pensión segura en su jubilación. Ese lujo ya no es del trabajador, que debe volver a ser lo que en otra época fue, un asalariado con miedo al despido mucho más manejable y grato al poder, y a ser posible sin pensión de jubilación, para que vuelva a ser una carga (otra más añadida) a su familia, modesta, por supuesto. (Atención responsables sindicales, a veces da la impresión que estáis facilitando demasiado esta transición)
¡A qué extraños paraderos nos lleva hoy simplemente reflexionar sobre las evaluaciones del sistema educativo!
[1] Se corresponden con los actuales niveles de 1º y 2º de Secundaria.
[2] Informe redactado por Guillermo Gil Escudero e Isabel Alabau Balcells, técnicos del INCE. En este informe se presentan algunos resultados seleccionados del estudio internacional del mismo nombre emprendido por tres instituciones dedicadas a la evaluación educativa (DEP de Francia, Skolverket de Suecia e INCE de España). En el se analizan los resultados de los alumnos de 15 y 16 años que cursan inglés como lengua extranjera, y se examinan las prácticas didácticas más habituales en esta materia en los tres países, en opinión de alumnos y profesores
[3] El Proyecto Internacional para la Producción de Indicadores de Resultados Educativos de los Alumnos (Proyecto PISA) de la OCDE, artículo redactado por Guillermo Gil Escudero, Jefe del Servicio de Evaluación y Programas educativos del INCE, en el que presenta el nuevo proyecto de la OCDE destinado a obtener periódicamente resultados de rendimiento de los alumnos en un cierto número de países, de modo que permitan su comparación internacional a efectos de la producción de indicadores de rendimiento educativo.
[5]También es curioso que en el futuro se quiera incidir en la evaluación de los niveles educativos anteriores al segundo ciclo de la ESO, es decir, en aquellos niveles que no cuestionan la intervención educativa del profesorado de Secundaria. Esto implica o una desconfianza exclusiva del sistema en el profesorado de Infantil y de Primaria, o un temor a enfrentarse a otros colectivos educativos considerados “más conflictivos”. Así se trata de evaluar en el futuro todos los ciclos de Primaria y el 1º ciclo de Secundaria, justo el período anterior que evalúa PISA, que se centra en los 15 años, es decir 3º de Secundaria en España.