Archivo de la categoría: Uncategorized

Nueva edición del Experto en TEL

Ya en su cuarta edición, el curso de experto en trastorno específico del lenguaje (TEL), organizado por ATELMA y Universidad La Salle

Con una contribución mía en el módulo de comprensión

Anuncios

Deja un comentario

Archivado bajo Uncategorized

Detectar y evitar prácticas pseudocientíficas

John C. Travers. Foto de la Universidad de Kansas

Personalmente, entiendo las prácticas pseudocientíficas como intervenciones que no han mostrado de forma consistente ser eficaces pero que se presentan y se promueven como si lo fueran. Podría parecer que la lectura y la comprensión no están especialmente afectadas por estas prácticas, pero varias de las que cita John Travers, de la Universidad de Kansas, sí que están relacionadas con la enseñanza de la lectura y la comprensión lectora, por ejemplo:

  • El enfoque de whole language para la enseñanza de la lectura. No tengo claro como traducir ese concepto ya que “lenguaje completo” no me evoca ningún concepto sobre la enseñanza de la lectura, pero muchas propuestas de enseñanza natural o de método global de enseñanza de la lectura encajarían en el whole language.
  • Los estilos de aprendizaje.
  • El entrenamiento en integración auditiva (métodos de Tomatis, Berard o SENA).
  • Fastforword.
  • Las lentes coloreadas de Irlen.
  • Brain Gym.
  • Programas perceptivo-motores basados en las propuestas de Doman y Delacato.

Y aún se podrían añadir otros, como los programas de lectura ultrarrápida, que tratan de desarrollar velocidades lectoras altísimas con una buena comprensión, las terapias optométricas o visuales para mejorar la lectura, la reeducación de la lateralidad para mejorar la lectura, la integración sensorial o el uso didáctico de las inteligencias múltiples.

La herramienta de detección de intervenciones fraudulentas de Worrall

En 1990, Russell Worrall publicó un artículo sobre la detección del fraude en el campo de las dificultades de aprendizaje. En esta artículo propone una herramienta para detectar intervenciones fraudulentas en la que habría que puntuar de 1 a 10 estas tres categorías:

  1. SENTIDO COMÚN: esta intervención ¿tiene una conexión lógica con el problema que trata de resolver? ¿Se ajusta al sentido común?
  2. CONSISTENCIA: ¿es consistente la teoría o intervención con el conocimiento que existe sobre el tema? ¿Tiene sentido según lo que sabemos de anatomía, psicología, medicina, etc.?
  3. EVIDENCIA: ¿son sólidas las evidencias disponibles? ¿Se han realizado investigaciones? ¿Incluían grupos de control o de placebo? ¿La intervención estaba bien aislada de otros factores que podrían haber producido una mejora? ¿Las muestras son pequeñas o grandes? ¿Cuántos estudios se han realizado?

Worrall propone que uno mismo trate de contestar al cuestionario y después trate de buscar una segunda opinión de otras personas (profesores, pediatras, investigadores…).

Las referencias para la valoración que ofrece son que una intervención que obtenga menos de 15 puntos no vale la pena y que una intervención con menos de 10 seguramente sea un fraude. A continuación, ofrece siete indicadores para considerar. Bastaría con que se cumpliese uno de ellos para sospechar la existencia de un fraude:

  1. Suena demasiado bien como para ser verdad (seguramente no lo es).
  2. Asegura servir para problemas o enfermedades de distintos tipos.
  3. Ofrece una cura.
  4. Se indica que esta intervención está siendo ignorada o bloqueada por las instituciones.
  5. Se promociona mediante el testimonio de clientes satisfechos, especialmente si no puede confirmarse.
  6. Utiliza expresiones como “completos”, “sin esfuerzo”, “garantizados” o “seguros” al explicar sus resultados.
  7. Utiliza expresiones como “sorprendente”, “secreto”, “exclusivo”, “milagroso” o “especial”.

Travers y los signos característicos de las intervenciones pseudocientíficas

John Travers publicó el año pasado un artículo sobre la detección de intervenciones pseudocientíficas o sin pruebas en educación especial. Una de sus ideas es que ofrecer información sobre las intervenciones que deberían evitarse es insuficiente y que los profesores deberían conocer cómo valorar una propuesta para evitar el uso de intervenciones pseudocientíficas. Este conocimiento estaría compuesto por cuestiones como las diferencias entre la práctica basada en evidencias y las intervenciones pseudocientíficas, habilidades para razonar y evaluar argumentos y habilidad para distinguir los signos característicos de las prácticas pseudocientíficas.

Estos signos son:

  1. Primero se forman las creencias y después se buscan las evidencias que las respalden. Se basa en la creencia (o credulidad)
  2. Se ocultan o rechazan las evidencias que están en contra de la creencia. Hay una actitud de “mente cerrada” (aunque curiosamente, se suele acusar de mente cerrada a las personas que no comparten la creencia).
  3. Realiza declaraciones sensacionales sin pruebas.
  4. Utiliza lenguaje vago o muy sofisticado (en cualquier caso, poco comprensible) para evitar las críticas e inhibir las verificaciones.
  5. Acepta pruebas o respaldos sin verificar.
  6. Utiliza falacias lógicas.
  7. Se filtran y seleccionan los datos que estén de acuerdo con la creencia.
  8. No valora las críticas y condena la disconformidad. Las creencias erróneas se reafirman cuando se presentan datos sobre su ineficacia.
  9. Se trabaja de forma aislada.
  10. Se considera que es necesario creer (tener fe) en la intervención para que produzca efecto.
  11. Sus beneficios se presentan de forma anecdótica (testimonios de clientes satisfechos).

Es interesante el punto de las falacias lógicas, formas de pensar que parecen razonables, pero que no lo son. Por ejemplo:

  • La falacia de correlación: como se produjo una mejora durante o después de la intervención, se da por supuesto que esa mejora fue producida por la intervención.
  • Sesgo de confirmación: se presta solo atención a los datos que son favorables a la intervención, de manera que, cuando se presentan los datos, son abrumadoramente favorables. Quizá la cantidad de datos desfavorables (por ejemplo, testimonio de clientes insatisfechos) es mayor, pero se ignora.
  • Argumento de la ignoracia: se da por supuesto que algo es cierto si no tienes una forma de probar que no lo sea.
  • Apelación a la fe: como se ha indicado antes, se considera que es necesario creer en la intervención para que sea eficaz (en este argumento, se llega a acusar a la persona crítica de “mente cerrada” y de impedir beneficios para otros con su actitud).
  • Evidencias anecdóticas: las experiencias personales (favorables) son consideradas como pruebas.
  • Peso de la prueba: quienes promueven  una intervención sin fundamento ni evidencias requieren a sus críticos que demuestren que la intervención no funciona.
  • Apelación a la autoridad: la intervención se respalda con el estatus de quienes la defienden.
  • Falsa autoridad: los defensores de la intervención consideran que tienen una formación o experiencia que les convierte en los únicos que pueden valorar la propuesta.
  • Argumento de la moderación: las intervenciones basadas en envidencias se presentan como un extremo de un continuo, las intervenciones sin ningún respaldo en otro y se concluye que lo óptimo sería un punto medio, combinación o colaboración entre ambas.
  • Argumento ad hominem: se basa en descalificar personalmente al crítico, ignorando sus argumentos. Sucede, por ejemplo cuando se le adjudica un interés económico o de poder, ser una persona cerrada de mente, no preocuparse realmente por los niños con dificultades…

 

 

Deja un comentario

Archivado bajo Intervenciones que no han mostrado eficacia, Uncategorized

Iniciativas para preparar la prueba de competencia lectora de PISA

Durante este mes he impartido un pequeño curso a profesorado de enseñanza secundaria sobre la prueba de lectura de PISA y, tratando de desarrollar un poco más mis materiales, he sentido curiosidad por saber si en otros lugares se está realizando algún tipo de preparación para esta prueba y de qué forma se está haciendo. Antes de que nadie se escandalice, creo que no tiene ningún sentido entrenar a los alumnos para que obtengan unos puntos más en esta evaluación, pero, por otra parte, el marco de lectura de PISA es bastante extenso y completo y una formación que permita a los alumnos adquirir las habilidades que se evalúan en él puede ser algo interesante, más aún en una etapa como la educación secundaria, en la que suele haber bastante desorientación respecto al trabajo para la mejora de la lectura y la comprensión.

Mi búsqueda no ha sido sistemática, sino que me he limitado a mirar qué informaciones sobre PISA ofrecen las webs de los ministerios de educación de los países hispanoamericanos y las consejerías o delegaciones de educación de las distintas comunidades españolas, completándolo con algunas búsquedas en Google. Veamos lo que he encontrado:

Colombia

Ha realizado una campaña bajo el lema La selección Colombia PISA fuerte. En la web de esta campaña se ofrece acceso a la Plataforma PruebaT, que se detalla en las iniciativas de México.

Costa Rica

Sus análisis sobre los resultados obtenidos indicaron que el realizar la prueba por ordenador les penalizó, ya que los alumnos no estaban acostumbrados a realizar pruebas académicas con esa herramienta. Se propuso, por tanto, realizar una experiencia de aplicación de exámenes por ordenador a alumnado de distintos centros escolares del país.

España

El instituto Nacional de Evaluación Educativa (INEE) facilita algunos documentos informativos. Además, el Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado ofreció un curso online sobre las preguntas liberadas de PISA y mantiene un espacio en su web con una recopilación de preguntas liberadas. Tras echar un vistazo por las consejerías o departamentos de educación de las distintas comunidades, solo he encontrado algunos documentos informativos o enlaces a las preguntas liberadas. La única iniciativa para la preparación de la prueba que he visto es la de Murcia, donde a los centros seleccionados para realizar la evaluación se les ha presentado un proyecto de formación en habilidades no cognitivas. Este proyecto proviene de la universidad de Murcia y resulta curiosa esta aplicación, ya que, según la información que se encuentra en su web, hasta ahora se ha destinado a alumnado de Educación Infantil y Primaria.

Fuera del circuito de las administraciones públicas, encontramos algunas publicaciones que proponen estrategias o acciones para la mejora del rendimiento en PISA:

México

Aparentemente, es el país hispanoamericano donde se está realizando un mayor esfuerzo para mejorar el resultado en la prueba. Existe un acuerdo entre la Secretaría de Educación y la universidad nacional autónoma de México para mejorar las habilidades didácticas del profesorado.

México también ha desarrollado un conjunto de propuestas recogidas bajo la denominación de Aplícate: fortalecimiento de los aprendizajes y las competencias en los alumnos de 15 y 16 años. Entre estas propuestas se encuentran conseguir que los docentes se familiaricen con las pruebas PISA, realizar actividades de refuerzo en el aula y ofrecer mediante internet materiales divulgativos y de apoyo. Entre los recursos que podemos encontrar para la lectura están:

Panamá

La web de su ministerio de educación no ha estado operativa durante los días en que he realizado las búsquedas.

Perú

Ha editado algunos materiales informativos para centros escolares y para las familias de los alumnos.

República Dominicana

Ofrece acceso a la plataforma PruebaT (en las iniciativas de México).

5 comentarios

Archivado bajo Evaluaciones internacionales, Uncategorized

2018. Año PISA

Una peculiaridad de las evaluaciones PISA es que conocemos sus resultados entre uno y dos años después de que se realicen las pruebas. Como hasta ahora los resultados en los países hispanohablantes han sido entre medios y muy bajos, lo habitual es que al presentarse y conocerse por los medios de comunicación se cree una corriente de insatisfacción y una demanda de trabajar para mejorar el rendimiento de los alumnos en esta prueba que, surge cuando queda un tiempo bastante limitado para conseguir mejoras.

Los resultados de PISA 2015 se presentaron en diciembre de 2016 y la próxima edición de la prueba se realiza durante el año 2018. Al igual que sucedió en 2000 y en 2009, la evaluación de 2018 se centrará especialmente en la competencia lectora. Con este motivo, se ha revisado el marco de referencia de la evaluación de la lectura en PISA, introduciéndose algunos cambios notables.

Definición de competencia lectora

Para PISA 2018, la competencia lectora es la comprensión, el uso, la evaluación, la reflexión y el compromiso con los textos con el fin de alcanzar los propios objetivos, desarrollar el conocimiento y el potencial personales, y participar en la sociedad. El compromiso con los textos, como parte de la competencia lectora se introdujo en la definción de 2009, ya que en la de 2000 no se había incluido. En el cambio actual se ha introducido un nuevo concepto, que es el de evaluación de los textos. Pero un cambio muy importante, que puede pasar desapercibido es que en la definición de de 2018 se ha eliminado una palabra. En 2000 y 2009 se comprendían y usaban y se reflexionaba sobre los textos escritos, pero, en 2018, todo esto (además de la evaluación) se hace con los textos. En la definición ha desaparecido la palabra “escritos”.

Al explicar este cambio, el marco de referencia deja claro que no se trata de abarcar los textos orales o audiovisuales, pero sí que incluiría mapas, diagramas, tablas, gráficos o tiras cómicas que incluyan lenguaje escrito.

Importancia de la lectura electrónica

En la edición de 2009 las pruebas PISA incluyeron una evaluación de la lectura digital (PISA-ERA). En 2015 comenzó la administración electrónica de las pruebas, siendo posible que los países participantes eligieran si realizarla en papel o por ordenador. PISA 2018 se realizará con ordenadores, combinando la lectura y comprensión de textos con habilidades para la solución de problemas de información, como realizar búsquedas o leer hipertextos.

Nuevos procesos de lectura

PISA 2018 considera procesos de lectura como la evaluación de la veracidad del texto, la búsqueda de información y la lectura e integración de múltiples fuentes, de modo que los procesos de lectura que evalúa serán:

Localizar información

  • Acceder y recuperar información dentro de un texto.
  • Buscar y seleccionar texto relevante.

Comprender

  • Representar el significado literal.
  • Integrar y generar inferencias.
  • Integrar información de textos múltiples.

Reflexionar

  • Evaluar la calidad y la credibilidad.
  • Colaborar y manejar el conflicto.
  • Reflexionar sobre el contenido y la forma.

Participantes hispanoamericanos

Los países hispanoamericanos que participarán en PISA 2018 son: Argentina, Chile, Colombia, Costa Rica, España, México, Panamá, Perú, República Dominicana y Uruguay

1 comentario

Archivado bajo Evaluaciones internacionales, Uncategorized

Algunos encuentros sobre comprensión lectora

Esta vez indico algunos encuentros relacionados con el lenguaje, la lectura y la comprensión en los que participaré yo mismo.

Jornada de logopedia: transmitir conocimiento desde la práctica. Madrid, 6 de mayo

Seminario organizado por ISEP, en el que relizaré un taller sobre cómo desarrollar la habilidad para construir inferencias.

Jornada de puertas abiertas del Máster Universitario en Intervención Logopédica Especializada de la UCV. Valencia, 13 de mayo

Realizaré una intervención sobre estrategias y actividades para desarrollar la comprensión inferencial.

Un modelo de lectura para enseñar a leer. Bilbao, 20 de mayo

Organizado por Diversia Formación. Un repaso bastante extenso de estrategias y actividades para trabajar la comprensión lectora.

20ª Conferencia Europea sobre Lectura y escritura. Madrid, 3-6 de julio

Presentaré una breve comunicación sobre la habilidad inferencial de los alumnos de primaria.

Deja un comentario

Archivado bajo Uncategorized

Test PROLEC-SE-R

He vuelto a actualizar la página de tests estandarizados de comprensión lectora con la revisión del test PROLEC de secundaria, el PROLEC-SE-R. Este test es notablemente distinto al anterior. Las diferencias más importantes son:

  1. Cuenta con dos partes: prueba de screening y batería completa. La prueba de screening se puede utilizar de forma colectiva, mientras que las escalas que quedarían (batería completa) son individuales.
  2. Se amplía la cantidad de escalas. Concretamente, en lo referente a comprensión hay cuatro medidas de comprensión lectora: texto expositivo, texto narrativo, pura y mnemónica; una prueba de comprensión oral y dos pruebas de comprensión de estructuras gramaticales.
  3. La corrección se realiza online. El usuario del test ya no dispone de los baremos para interpretarlo, sino que debe comprar usos a la empresa que lo edita.
  4. Las puntuaciones que se ofrecen ya no son percentiles. Ahora se proporcionan unas puntuaciones globales similares a las de cociente intelectual (media de 100 y desviación típica de 15) y para cada una de las subescalas se proporciona un rango: alto, medio, bajo, dificultades y claras dificultades.
  5. Algunos resultados se desglosan y se ofrecen referencias de lectura de palabras y pseudopalabras frecuentes, infrecuentes, largas y cortas (me pregunto cómo puede haber pseudopalabras frecuentes e infrecuentes). También se ofrecen referencias desglosadas en comprensión de estructuras gramaticales (objeto focalizado, sujeto escindido, objeto escindido, relativo de sujeto y relativo de objeto).

Portada del PROLEC-SE-R

Sin duda, la forma de corregir mediante la plataforma online de TEA (la empresa editora) aumenta sus ingresos ya que cobran por los materiales de la prueba y cobran por las correcciones. Lo cierto es que la introducción de datos me ha parecido aún más lenta que la corrección “a mano” de la versión antigua (PROLEC-SE), aunque también es cierto que el PROLEC-SE-R tiene más escalas. Por otra parte, tampoco me gusta no disponer del baremo.

Ejemplo de un informe realizado con el PROLEC-SE-R

Ejemplo de un informe

Otra pecularidad del PROLEC-SE-R es que no ofrece una puntuación general de comprensión lectora. Estan las puntuaciones individuales de las escalas de comprensión lectora y hay una puntuación global, que es el índice de lectura semántico, en el que se combinan las pruebas que evalúan procesos semánticos, es decir, las pruebas de comprensión lectora y la de comprensión oral. Por tanto, si se ha utilizado la escala de comprensión oral, no habría que identificar el índice semántico con comprensión lectora.

2 comentarios

Archivado bajo Herramientas para evaluación / investigación, Tests de comprensión, Uncategorized

CLBE finalista en los premios OrienTapas 2016

Me he llevado la sorpresa de que este blog ha sido seleccionado como finalista de los premios OrienTapas 2016, en la categoría C (recursos de orientación educativa), mención C9 (recursos didácticos).

Si alguien quiere conocer webs y blogs de orientación, le animo a que entre en esa página, donde tiene una preselección de 45 webs, realizada por orientadores.

1 comentario

Archivado bajo Uncategorized

Guía de evaluación de destrezas lectoras: educación primaria y secundaria

Desde hace varios años, las comunidades españolas realizan evaluaciones diagnósticas anuales del alumnado de ciertos cursos. En estas evaluaciones es habitual que se emplee alguna prueba de comprensión o de competencia lectora. Eso hace que las administraciones recojan una gran cantidad de datos sobre el nivel de lectura de los alumnos.

La Agencia Andaluza de Evaluación Educativa ha creado, a partir de esos datos, tres pruebas de evaluación de la lectura que se ofrecen en dos documentos:

La prueba de 2º de primaria es la que se utilizó en la evaluación ESCALA del curso 2010-2011. Las pruebas de 6º y 4º de ESO son las que se aplicaron en la evaluación del Plan de lectura y bibliotecas escolares, que se hizo en el curso 2009-2010.

Una peculiaridad de estas pruebas es que los alumnos leen los textos en silencio y después en voz alta. de modo que se evalúan la velocidad y la exactitud además de la comprensión. En 6º también se valora el vocabulario que utiliza el alumno para contar el contenido del texto y hay una puntuación de dominio sintáctico basada en la entonación y la forma de interpretar los signos de puntuación. La comprensión se evalúa mediante preguntas y también preguntando cuál es la idea principal del texto.

En realidad, estas pruebas no ofrecen una puntuación de comprensión lectora, sino que sus baremos se refieren a la eficacia lectora, en la que se tienen en cuenta tanto la velocidad de lectura como la comprensión.

Ya he añadido la ficha de las dos pruebas a la página de tests estandarizados de comprensión lectora. Con estos, creo que la página dispone de enlaces a 14 tests diferentes de comprensión puestos a disposición del público por sus autores o editores.

 

 

Deja un comentario

Archivado bajo Tests de comprensión, Uncategorized

La educación basada en evidencias

El número 5 del Boletín Alumni CPAL publica un breve artículo mío sobre educación basada en evidencias en las páginas 12 y 13. Como el boletín se publica en internet, en formato flash y eso da problemas a algunos navegadores, copio aquí el texto.

nuevo-diseno-boletin-alumni-mayo-2016

LA EDUCACIÓN BASADA EN EVIDENCIAS

La idea fundamental de la educación basada en evidencias es que cuando hay que elegir entre varios métodos o estrategias educativas convendría seleccionar el que estuviese mejor respaldado por la investigación.

Hacer eso para cada ejercicio, actividad, o explicación en la clase sería paralizante, pero en educación se toman decisiones más generales como el método de enseñanza de la lectura, los programas para la atención al alumnado con trastornos o dificultades de aprendizaje, la posible adopción de un programa innovador que promete resultados extraordinarios, o el enfoque para la enseñanza de idiomas.

Ante una decisión de ese calado sería necesario preguntarse si se ha hecho una comprobación de la eficacia del programa que se pretende incorporar y si se han obtenido resultados positivos. Pero eso no es suficiente, sino que también es importante valorar si la comprobación que se ha realizado es de calidad. No todas las evidencias tienen el mismo valor, por eso es común distinguir niveles de evidencia, entre los que se encontrarían, de menor a mayor: la intuición, las recomendaciones de expertos, el consenso entre expertos, los estudios sin grupo de control, los estudios con grupo de control y los meta-análisis de estudios de alta calidad. La calidad de los estudios se mide a partir de características como el tamaño de la muestra, la fiabilidad de las pruebas de evaluación o la manera de formar los grupos experimentales o de control.

Actualmente resulta muy difícil plantear una educación basada en evidencias por distintos motivos. El principal es, desafortunadamente, la dificultad para encontrar evidencias. Existen organismos o agencias como What Works Clearinghouse o Best Evidence Encyclopedia que revisan y sintetizan la investigación educativa y producen informes y guías de práctica para los profesores y responsables de la educación. Sin embargo, esos organismos se centran en los métodos y programas que se emplean en los países de habla inglesa. No conozco la existencia de ninguna institución similar para los países hispanoamericanos.

Otros motivos están más relacionados con el profesorado y tienen que ver con la poca costumbre de leer o consultar publicaciones científicas sobre educación y con la falta de formación científica para interpretar los resultados de la investigación. Aunque, desde otro punto de vista, se podría interpretar que los investigadores suelen trabajar con temas que el profesorado considera poco relevantes y su forma de comunicar los resultados de su trabajo se dirige más a otros investigadores que a las personas que están trabajando directamente en los centros escolares.

Por último, muchas veces se puede encontrar una actitud de sospecha ante los intentos de valorar o medir los efectos de las prácticas educativas, basada en la idea de que la educación es algo intangible, más cercano al arte que a la ciencia y que produce muchos efectos que no son posibles de medir.

En la actualidad, en hispanoamérica, la educación basada en evidencias, está más representada en blogs y redes sociales que en documentos oficiales o académicos. Algunos blogs que tratan estos temas podrían ser Comprensión Lectora Basada en Evidencias (clbe.wordpress.com), Si tú Supieras (situsupierass.wordpress.com), Cuaderno de Campo (blog.enguita.info) o El McGuffin Educativo (mcguffineducativo.blogspot.com.es).

Curiosamente, este tipo de iniciativas suele compartir el objetivo de frenar la difusión de prácticas educativas supuestamente innovadoras pero que no han mostrado producir ningún beneficio o que, en algunas ocasiones, han sido desacreditadas por la investigación pero resultan muy populares en educación.

6 comentarios

Archivado bajo Misión-visión-valores, Para leer, Uncategorized

La prueba comprensión del test Neuropsi

He añadido a la página de tests estandarizados la prueba de comprensión lectora del test Neuropsi. La evaluación psicológica breve en español (Neuropsi) es un test que evalúa las funciones cognoscitivas de personas con problemas médicos. Está baremado para personas de 16 a 85 años. Este test evalúa áreas como orientación, concentración, memoria, lenguaje, habilidades viso-espaciales, funciones ejecutivas y lectura y escritura.

Existe también una batería Neuropsi atención y memoria 6 a 85 años que evalúa la orientación y diferentes formas de atención y memoria.

Dra. Ostrosky-Solís, una de las autoras del test. Fuente: diariojudio.com

En la prueba de lectura se utiliza un lámina con un texto narrativo breve, escrito en mayúsculas, del que se hacen tres preguntas. Las respuestas se puntúan con 0 – 1, según sean correctas o incorrectas.

El test también cuenta con una prueba de comprensión oral, en la que se deben responder a seis preguntas sobre una imagen formada por dos círculos y dos cuadrados de diferentes tamaños.

La prueba de escritura consiste en la escritura de una frase al dictado y en la copia de otra frase, valorando la presencia de errores de omisión o adición de letras o palabras.

Las tablas de baremos se organizan por edades y según los años de escolarización de los evaluados (sin escolarizar, escolarización baja, media o alta). La estandarización de la prueba se hizo con 800 personas, de 16 a 85 años y con distintos niveles de escolarización. Aunque no he encontrado ese dato, supongo que esas personas eran de México, ya que allí está editada la prueba y trabajan sus autores.

Por último, hay que tener en cuenta que el objetivo de la prueba de lectura del Neuropsi no es valorar el nivel de comprensión del población, sino detectar problemas severos de comprensión que pudieran estar relacionados con demencia o trastornos neurológicos.

 

Deja un comentario

Archivado bajo Tests de comprensión, Uncategorized