Archivo de la etiqueta: Evaluación de diagnóstico

Desliz del ministerio: la correlación no es causalidad

La nota de prensa con la que el Ministerio de Educación presentó los resultados de la evaluación general de diagnóstico 2010 dice:

Ni el centro elegido, ni la repetición de curso, ni la comunidad autónoma en la que se viva: lo que más determina el éxito escolar son las propias expectativas académicas del alumnado, seguidas de variables como el nivel de estudios de los padres y del número de libros que hay en casa. Así se desprende de la Evaluación General de Diagnóstico 2010, realizada entre estudiantes de 2º de ESO de las 17 comunidades autónomas españolas y las ciudades autónomas de Ceuta y Melilla.

Mario Bedera presentando los resultados de la evaluación (de la nota de prensa del ministerio)

Vaya por delante que nadie está libre de error y que, sin ir más lejos leyendo con atención estas cosas que escribo seguro que se pueden encontrar meteduras de pata de distintos calibres. Pero, cuando un error puede llevar a adoptar decisiones incorrectas creo que es necesario señalarlo. En este caso, se trata de problema bastante frecuente en investigación: confundir la correlación con la causalidad.

En la evaluación de diagnóstico se han evaluado los resultados de los alumnos en cuatro competencias y se han tomado, mediante cuestionarios, datos de los alumnos y de los centros en los que estudian. Analizando todo esa información mediante correlaciones o mediante análisis de regresión, se puede ver cómo hay relación entre los resultados de los alumnos y otras variables, pero este método de estudio no permite establecer qué variables son causas y cuáles son efectos.

El ejemplo que nos da el Ministerio de Educación es muy bueno: las espectativas del alumnado. La correlación entre espectativas y resultados entre la prueba de competencia lingüística es… ¡vaya!, el informe no nos da ese dato. Pero sí que ofrece un gráfico en el que se aprecia que hay 113 puntos de diferencia entre los resultados de los que solo esperan terminar los estudios obligatorios y los resultados de los que esperan graduarse en la universidad. Es más de una desviación típica, así que se puede intuir que la correlación entre expectativas académicas del alumnado y rendimiento en competencia lingüística es grandísima, pero ¿son esas expectativas lo que determina el rendimiento, tal como nos dice el ministerio? Hay una interpretación alternativa muy verosímil y es que los alumnos ajustan sus expectativas a sus resultados. Supongamos que los alumnos con menor competencia lingüística obtienen más suspensos que sus compañeros. Es probable que piensen que su futuro no pasa por graduarse en filosofía, y, con cierta cantidad de suspensos sepan que ni siquiera van a poder acceder a enseñanzas medias de formación profesional al terminar la ESO. Por otra parte no hay nada sorprendente en que el alumno que obtiene resultados altos esté pensando en acudir a la universidad y realizar estudios superiores.

Del mismo modo que los datos relacionales recogidos en la evaluación no permiten decir que las expectativas altas sean causa del buen rendimiento, tampoco se puede afirmar que buen rendimiento sea la causa de las expectativas altas. Para llegar a esas conclusiones habría que utilizar otros métodos de investigación.

¿Qué consecuencias puede tener este error? Si aceptamos que las expectativas del alumnado son lo que más determina el nivel de competencia que alcanza, para qué vamos a desperdiciar recursos interviniendo sobre otros factores como la formación del profesorado, los contenidos de los programas, o la atención a la diversidad (la verdad es que esos tres no han sido analizados en la evaluación), el clima escolar, o la distribución del alumnado extranjero. Basta con convencer al alumnado o emplear técnicas de “coaching” para que aspiren a alcanzar el máximo nivel de estudios.

Cuando escribo esto la temperatura en la calle es de 6 grados. Sumergiré el termómetro en agua caliente hasta que marque 30º y saldré a la calle en camiseta de tirantes. Va a ser una mañana calurosa.

Queda otra cosa que no me acaba de encajar y es que, según la nota de prensa, tras las expectativas de los alumnos, lo que más determina el éxito escolar es el nivel de estudios de los padres y el número de libros que hay en casa.

Intentando ver si hay otras variables que tengan mayor relación con el rendimiento de los alumnos me doy cuenta de que en el informe se dan resultados por alumnos, por centros y por comunidades autónomas. A veces se dan diferencias de medias, a veces el porcentaje de varianza del rendimiento explicado por una variable y a veces el coeficiente de determinación (¿igual han establecido que hay ciertas variables que determinan el rendimiento de los alumnos por el nombre ese de coeficiente de determinación?). Tras una hora y media dando vueltas a los resultados dejo para otras personas más capaces y pacientes la tarea de desentrañar todo eso.

También introduzco correcciones en mi entrada anterior. Me he dado cuenta de que me había equivocado en algunas cosas. Errare humanum est.

Información adicional

· La nota de prensa del ministerio.

Anuncios

Deja un comentario

Archivado bajo Curiosidades, Evaluaciones nacionales

Evaluación general de diagnóstico 2010

En julio de 2011 (qué casualidad, en plenas vacaciones escolares) el Ministerio de Educación presentó los resultados de la evaluación general de diagnóstico realizada en 2010 en alumnado de 2º curso de educación secundaria.

A diferencia de las evaluaciones de diagnóstico autonómicas, en la evaluación general no se examina a todo el alumnado, sino a una muestra  de 50 colegios de cada comunidad autónoma y todos los estudiantes de Ceuta y Melilla. En total se ha evaluado a 29.154 estudiantes.

La prueba de competencia lingüística no evaluaba solo la comprensión lectora, al estilo de las pruebas Pisa, sino que también evaluaba comprensión oral y expresión escrita.

Resultados en la competencia lingüística

En los resultados de esta competencia se pueden apreciar tres zonas. Por encima de la región coloreada de azul están las comunidades que obtienen resultados 20 puntos por encima de la media: Asturias, Castilla y León, Madrid, Navarra y La Rioja.

En la región azul están las que se encuentran menos de 20 puntos por encima o por debajo de la media, y en la parte inferior están las ciudades de Ceuta y Melilla, que obtienen una puntuación claramente inferior a la media. La razón para marcar un límite de 20 puntos es que se trata de un quinto de la desviación típica, pero no se explica qué significado tiene esta referencia que no pudiera tener un octavo o un tercio de la desviación típica. Quien sigue el blog desde el inicio ya sabe que que con una desviación típica de 100, 20 puntos de diferencia equivalen a una d de Cohen de 0,20, es decir, un tamaño del efecto pequeño. Una de las conclusiones de la evaluación general de diagnóstico es que las diferencias entre comunidades son muy pequeñas. Concretamente, la nota de prensa redactada por el ministerio de educación dice:

hasta 14 comunidades presentan resultados que no difieren en más de 20 puntos de la media española en las cuatro competencias analizadas, y por tanto no muestran diferencias significativas entre ellas. La proporción de la variabilidad de los resultados explicada por la diferencia entre comunidades autónomas no llega en ningún caso al 4%.

En principio esa d menor que 0,20 avala esa interpretación (ojo: la d de Cohen no establece sin un resultado es significativo o no), pero hay que tener cuidado, porque estamos hablando de la diferencia entre el resultado de una comunidad y la media. Si miramos en el gráfico la diferencia entre Andalucía y Aragón es de aproximadamente unos 30 puntos, que equivalen a una d de 0,30. Ya estamos hablando de un tamaño del efecto moderado. El gráfico que resume los resultados es un diagrama de barras de error, en el que el rombo blanco representa la media de los resultados de cada comunidad, y las líneas que salen de él representan el intervalo de confianza (habitualmente del 95%). Cuando las líneas de dos comunidades no tienen valores comunes (no se superponen) podemos decir con bastante seguridad que sus resultados son diferentes.

Competencia Lingüística e ISEC

Los gráficos de la entrada están extraídos de la evaluación general de diagnóstico 2010

El ISEC (índice de estatus social, económico y cultural) tiene un notable efecto sobre las puntuaciones en competencia lingüística. Un 12,2% de la varianza de los resultados de competencia lingüística se relaciona con el estatus de los alumnos. En el gráfico adjunto se puede ver esta relación: cuanto mayor es el ISEC mayor es el resultado en la competencia lingüística. Sin embargo hay comunidades que están por encima de la línea, es decir, que obtienen un resultado superior al que se podría prever teniendo en cuenta el ISEC, y otras que están por debajo de la línea: obtienen un resultado inferior.

En la evaluación se analizan otros factores relacionados con el rendimiento. En el caso de la competencia lingüística las chicas obtienen una media 22 puntos superior a la media de los chicos. Los alumnos nacidos en el extranjero tienen 42 puntos menos que los nacidos en España y se presentan las conclusiones de un análisis, que no acabo de entender, según las cuales la presencia de alumnado de origen extranjero en las clases no parece tener mucha influencia en los resultados del alumnado nacido en España.

Cuanto mayores son las expectativas del alumnado sobre su formación mejores son sus resultados: los que esperan simplemente terminar la ESO obtienen una puntuación media de 425 puntos, mientras que los que piensan concluir una carrera universitaria alcanzan los 538 puntos.

A continuación incluyo una lista de otros factores que se analizan, junto con la correlación que tienen con la competencia lingüística:

Tiempo libre:

  • Uso que se da al tiempo libre:   r = 0,18.
  • Tiempo dedicado a la lectura:  r = 0,16.
  • Relación con la madre: r = 0,08.

Clima escolar:

  • Marginación o rechazo: r = 0,07.
  • Diálogo profesor-alumno: 0,09.
  • Orden en clase: r = 0,09.
  • Valoración negativa del centro: r = 0,15.

Titularidad del centro:

  • Centro privado/concertado o público: r = 0,66 (correlación por centros).

Práctica educativa

  • Uso de libros de texto y trabajos individuales: r = 0,17.

Otros (información por aproximación)

  • PIB por habitante: r = 0,55.
  • Nivel de estudios de la población adulta: r = 0,85.
  • Alumnado extranjero en ESO: r = 0,54.
  • Ratio de alumnos por profesor: r = 0,51.
  • Gasto por alumno: r = 0,61.

Estos últimos resultados son por aproximación, ya que sólo se ofrecían para la competencia matemática, añadiendo que eran similares en las restantes competencias. Además, estas correlaciones no tienen en cuenta los resultados por alumnos, sino por comunidades autónomas.

En la práctica educativa sólo se ha señalado el uso de una metodología con libro de texto y trabajos individuales porque otras prácticas como el trabajo en grupos, los debates, la elaboración de materiales por el profesorado, el uso de ordenador en el aula o los procedimientos de evaluación no han mostrado capacidad predictiva para ninguna de las competencias evaluadas.

Y he dejado para el final la información sobre el rendimiento de los alumnos que han repetido curso. Si los alumnos que estaban en el curso que les correspondía por por edad obtenían una puntuación de 525 puntos en la competencia lingüística, los que habían repetido un curso obtenían una puntuación de 452 puntos, y los que habían repetido dos cursos de 425. Una interpretación de estos resultados es que repite curso el alumnado menos competente, pero que esa medida no sirve para mejorar su competencia, ya que no les aproxima a los resultados de sus compañeros de menor edad.

Información adicional

· Documento completo de la evaluación general de diagnóstico 2010.

· Resumen de la evaluación general de diagnóstico 2010.

1 comentario

Archivado bajo Evaluaciones nacionales

¿Por qué se hace la evaluación de diagnóstico en 4º de primaria?

La LOE (Ley Orgánica de Educación) establece que

Al finalizar el segundo ciclo de la educación primaria todos los centros realizarán una evaluación de diagnóstico de las competencias básicas alcanzadas por sus alumnos. Esta evaluación, competencia de las Administraciones educativas, tendrá carácter formativo y orientador para los centros e informativo para las familias y para el conjunto de la comunidad educativa.

Es evidente que se si va a hacer una evaluación de este tipo hay que hacerla en algún momento, pero ¿por qué al terminar 4º de primaria y no en otro curso?

En 2008 el Gobierno Vasco publicó un folleto con preguntas sobre la evaluación diagnóstica que se preguntaba lo mismo. La respuesta que dan es la siguiente:

Porque el carácter diagnóstico y formativo de esta evaluación aconseja situarla hacia la mitad de cada una de las etapas obligatorias, dos años antes de su finalización, de forma que sus resultados e informaciones puedan ser utilizados para detectar problemas, adaptar los currículos y el proceso de enseñanza-aprendizaje de cada centro y adoptar medidas de apoyo a aquellos alumnos y alumnas que se considere necesario.

La reflexión que se puede hacer es que si queremos detectar los problemas de la educación primaria y adaptar los currículos sería mejor hacer la evaluación al terminar la etapa: así sabríamos si los alumnos adquieren las competencias que tienen que adquirir en primaria o no. En cambio, si lo que se pretende es detectar a aquellos alumnos que necesitan medidas de apoyo lo razonable sería hacerlo cuanto antes mejor.

¿Se trata de un punto de equilibrio entre las dos funciones? Por ejemplo, en Irlanda, se realiza a todos los alumnos una evaluación estandarizada de lectura y matemáticas al finalizar el 4º curso de primaria (o comenzar el 5º), pero también al finalizar el primer curso (o comenzar el segundo).  Así es más fácil que las dificultades se detecten con tiempo suficiente para intervenir.

Assessing National Achievement in Education, una publicación del Banco Mundial (esta institución ha editado una serie de manuales para llevar a cabo evaluaciones nacionales del sistema educativo) indica lo siguiente:

El curso a evaluar será determinado según las necesidades de educación del ministerio de educación. Si, por ejemplo, el ministerio está interesado en conocer el nivel de aprendizaje de los estudiantes que terminan la educación primaria, podría pedir que la evaluación se realice hacia el final del último año de esta etapa… …El ministerio también puede solicitar una evaluación en el tercer o cuarto curso si precisa datos sobre cómo están funcionando los estudiantes hacia la mitad de la educación básica. Esta información se podría utilizar para introducir medidas de mejora (por ejemplo, formación del profesorado) para solucionar problemas con aspectos específicos del currículo identificados en la evaluación.

En este caso se ve claramente que el objetivo es la mejora del sistema educativo. El alumno simplemente es utilizado para la recogida de información. No quiero decir que las cosas sucedan así en la realidad. Al menos en Navarra se nos pide a los colegios que hagamos un plan de trabajo especial para los alumnos que obtienen los peores resultados en estas evaluaciones. Lo que planteo es ¿por qué no antes?

El mismo documento del Banco Mundial da una pista:

Son pocos los países que realizan evaluaciones a gran escala entre 1º y 3º de primaria. Los estudiantes de estos cursos podrían no ser capaces de seguir instrucciones o de realizar con éxito el tipo de tareas propio de las evaluaciones, especialmente los tests de elección múltiple.

Es decir, el sistema de evaluación típico de estas pruebas, con cuadernillos con textos, problemas u otros items y preguntas de distintos tipos no es útil si los alumnos no tienen un cierto nivel de lectura. Alguien se puede preguntar si los alumnos de segundo de primaria, o incluso los de primero al finalizar el curso no tienen ya un nivel de lectura suficiente para realizar una de estas pruebas. Por lo que veo en mi colegio la mayoría de estos alumnos son capaces de hacer una prueba de evaluación escrita con preguntas de respuesta corta, abiertas, de completar, de unir con flechas, de ordenar y de tipo test (los tipos de ítems que se encuentran en las evaluaciones autonómicas de lectura de primaria). En Perú, en 2010, se ha realizado una evaluación censal de 2º de primaria, incluyendo una prueba de comprensión lectora, lo que indica que los alumnos de esa edad están, en general, capacitados para hacerla.

David Share (de su web en la Universidad de Haifa)

David Share, de la universidad de Haifa, puede iluminarnos sobre todo esto. En un artículo que escribió sobre el anglocentrismo en la investigación y la enseñanza de la lectura nos dice:

En inglés se tarda aproximadamente tres años en alcanzar el nivel de dominio de la descodificación que habitualmente se alcanza en el resto de las lenguas europeas hacia el final del primer curso [de primaria]…
…En sintonía con ese trienio de aprendizaje de la descodificación del inglés, las evaluaciones internacionales de la educación primaria (siempre lideradas por investigadores de habla inglesa) se realizan normalmente en los cursos 3º y 4º. Los estudios de la Asociación Internacional para la Evaluación del Rendimiento Escolar, por ejemplo, justifican la elección de los cursos 3º y 4º diciendo que están en un punto en el que la mayoría de los niños ha superado la fase de descodificación.

La duda que me planteo es ¿se ha elegido 4º de primaria para compararse con otros países que también realizan la evaluación en esos cursos? Si es así hay que tener en cuenta que en los países de habla inglesa se trata de un curso adecuado para detectar a esos alumnos que no han superado la fase de descodificación (y tomar las medidas necesarias). En los países de habla española eso se podría haber hecho en 1º de primaria.

Deja un comentario

Archivado bajo Curiosidades, Evaluaciones nacionales

Segundo estudio del Llece

El pasado agosto publiqué una entrada acerca de la primera evaluación realizada por el Llece (Laboratorio Latinoamericano de Evaluación de la Calidad de la Evaluación) que se ha convertido en una de las entradas con más tráfico del blog. Ahora toca el turno a la segunda evaluación, conocida también como Serce (Segundo Estudio Regional Comparativo y Explicativo).

Portada del segundo estudio regional comparativo y explicativo

En este estudio, realizado durante el curso 2005/2006, se valoró el rendimiento en Lengua, Matemáticas y Ciencias de estudiantes de 3º y 6º de primaria. Participaron 16 países de América Latina y el Caribe. Los resultados, como viene siendo común en las evaluaciones internacionales, se presentan en una escala con una media de 500 y una desviación típica de 100.

En la prueba de lectura de 3º de primaria, Cuba obtuvo resultados claramente (más de 100 puntos) por encima de la media. Hubo un grupo de países con resultados superiores al promedio, pero sin superar una desviación típica. Fueron Argentina, Chile, Colombia, Costa Rica, México y Uruguay. Con puntuaciones en torno a la media se encontraban Brasil y El Salvador. Por último, por debajo de la media, pero sin superar una desviación típica de diferencia estaban Ecuador, Guatemala, Nicaragua, Panamá, Paraguay, Perú y República Dominicana.

En la prueba de 6º de primaria Cuba, Costa Rica, Brasil, Chile, Colombia, México y Uruguay se encontraron por encima del promedio, pero sin superar una desviación típica. Argentina obtuvo una puntuación media, y Ecuador, El Salvador, Guatemala, Nicaragua, Panamá, Paraguay, Perú y República Dominicana obtuvieron puntuaciones por debajo de la media con menos de una desviación típica por debajo del promedio.

Entre los factores asociados al rendimiento en la prueba de lectura, el primero que se analiza es el Producto Interior Bruto per cápita, que en 3º de primaria permite predecir un 36% de la varianza de los resultados en lectura, y en 6º de primaria un 44%.

Algunos países alcanzan un rendimiento en lectura inferior a lo que se podría esperar según si PIB per cápita, como Panamá, Argentina y, sobre todo, República Dominicana. En otros casos sucede al revés, y el rendimiento supera a lo que se esperaría atendiendo únicamente al PIB per cápita. Es el caso de El Salvador, Colombia, Chile o Costa Rica.

La desigualdad en los ingresos se relaciona con un rendimiento menor en las pruebas de lectura, permitiendo predecir el 11-12% de la varianza en los resultados de lectura.

Tal como ha sucedido, por ejemplo en PISA 2009, las chicas obtienen, de forma sistemática, mejor rendimiento en lectura que los chicos.

El informe nos dice que hay otros factores que se relacionan de forma significativa con los resultados de lectura. Se trata de si la escuela es rural o urbana, la ratio ordenadores/número de alumnos, el número de libros en la biblioteca del centro, la infraestructura, los servicios, el nivel económico y cultural y el clima de la escuela, y los años de escolarización previa de los alumnos. No se analizan estos factores, algo que se deja para futuros informes.

Información adicional

· Resumen del SERCE.
· Primer informe del SERCE.
· Factores asociados al logro cognitivo de los estudiantes de América Latina y el Caribe.

Deja un comentario

Archivado bajo Evaluaciones internacionales

Evaluación del Llece 1997

En el año 1997 el Llece (Laboratorio Latinoamericano de Evaluación de la Calidad de la Educación, dependiente de la Unesco) realizó su primer estudio internacional comparativo sobre Lenguaje y Matemáticas, en el que participaron varios países de América del Sur y el Caribe. Este estudio es anterior al primer Pisa (año 2000) y a la primera edición del Pirls (2001). Durante el curso 2005/2006 realizó un segundo estudio comparativo.

Logo del LLECE

Como a veces sucede, la prueba de Lenguaje del primer estudio, se redujo a una evaluación de la comprensión lectora. Gran parte de los alumnos evaluados, de 3º y 4º curso de educación primaria o básica mostraron una habilidad lectora baja: eran capaces de reconocer las palabras escritas en el texto, perso su comprensión era fragmentaria. Los estudiantes cubanos obtuvieron, como grupo, mejores resultados en la prueba de comprensión.

Entre los factores que se relacionaban con un aumento significativo del resultado de comprensión lectora estaban:
· El sexo: las chicas obtenían mejores puntuaciones que los chicos.
· El curso: los alumnos de 4º obtenían mejores puntuaciones que los de 3º.
· El estatus sociocultural de la familia, especialmente que los padres hubieran cursado la secundaria y que en casa hubiera 10 o más libros.
· El hecho de que los padres lean a menudo y ayuden con las tareas.
· Los recursos de la escuela, siendo el principal el tamaño de la biblioteca, el salario y los años de formación de los maestros.
· Grupos heterogéneos: los centros donde se agrupaba a los alumnos según su rendimiento obtenían, como grupo, 11 puntos menos en comprensión lectora.
Los factores que se relacionaban con un mayor aumento de los resultados fueron la habilidad que los tutores percibían en sus alumnos, la participación de los tutores en la escuela y, sobre todo, el clima de aula que se relacionaba con una diferencia de 92 puntos en una escala con 262 puntos de media (las diferencias relacionadas con estar en 3º o 4º curso eran de 19 puntos).

Entre los factores que apenas se relacionaban con diferencias en los resultados de comprensión lectora estaban:
· Familia de los alumnos monoparental o biparental.
· Experiencia docente.
· Ratio  maestros/alumnos (el efecto fue significativo pero bastante pequeño: medio punto) .
· Cursos de formación realizados por el maestro en los últimos 3 años.
· Satisfacción del profesor en el trabajo.
· La autoestima de los alumnos percibida por el profesor.
· Los recursos de la escuela percibidos por el profesor.

Información adicional

·  Primer Informe del Primer Estudio Internacional Comparativo sobre Lenguaje, Matemática y Factores Asociados en Tercero y Cuarto Grado.

1 comentario

Archivado bajo Evaluaciones internacionales

El ISEC

En las evaluaciones de diagnóstico del sistema educativo se está popularizando un indicador muy interesante: el rendimiento del alumnado con respecto al ISEC o índice de estatus social, económico y cultural. Probablemente la variable que mejor permite predecir los resultados de los alumnos es el estatus socio-económico de su familia, así que cuando se pretende comparar el rendimiento de distintos grupos de alumnos es conveniente controlar su efecto. Un sistema educativo en el que hay una correlación alta entre los resultados de los alumnos y el ISEC podría ser bastante ineficaz, y limitarse a reproducir y mantener las diferencias entre los alumnos en función de su estatus socioeconómico. En el Informe de Resultados de la Evaluación General de Diagnóstico 2009 (4º curso de Primaria), elaborado por el Instituto de Evaluación, el ISEC se calculó a partir de las respuesta en los cuestionarios de alumnos y familias, con una media de 0 y una desviación típica de 1. La información que se tuvo en cuenta para la elaboración del ISEC fue:

  • Nivel más alto de estudios de los padres.
  • Profesión más alta de los padres.
  • Número de libros en casa.
  • Recursos del hogar: sitio tranquilo para estudiar, conexión a internet, libros de lectura y televisores.

Relación entre ISEC y competencia lingüística

En el siguiente gráfico se representan las distintas comunidades autónomas ordenadas en horizontal según su ISEC medio, y en vertical según sus resultados en competencia lingüística.

Tomada del informe de resultados de la evaluación general de diagnóstico 2009

En la relación entre la competencia en comunicación lingüística (que incluye comprensión lectora y expresión escrita) y el ISEC en las distintas comunidades españolas se obtiene una R2 de 0,63, lo que indicaría que casi el 40% de la varianza de los resultados en competencia lingüística se puede predecir a partir del ISEC. Hay comunidades como Andalucía, Murcia, Castilla-la Mancha, Castilla-León o Navarra que obtienen puntuaciones en competencia lingüística por encima de lo que sería predecible por el ISEC de su alumnado. La comunidad que más destaca en esto el La Rioja. En otras comunidades el rendimiento está por debajo de lo predecible, algo que sucede en Canarias, Comunidad Valenciana, Baleares, Cataluña o País Vasco.

1 comentario

Archivado bajo Evaluaciones nacionales