Resultados de la Evaluación Universal: ¿risa o llanto?


http://educacionadebate.org/40392/resultados-de-la-evaluacion-universal-risa-o-llanto/

EDUARDO ANDERE
Miércoles, 24 octubre, 2012

Por fin la SEP dio a conocer el 22 de octubre los resultados de la controvertida evaluación universal. Uno no sabe ¡qué decir! No sabe uno si doblarse de risa o sumirse en la desesperanza. Risa, porque el cinismo de la SEP no tiene límites. No hay forma de saber cómo realmente salieron los maestros. Con tal de evitarse el conflicto de las comparaciones y mediciones hicieron un nudo gordiano. No se entiende, no se lee, no se articula, no da ni la más remota idea de los niveles de preparación, aprendizaje o erudición de los maestros y menos para medirlos con fines de recompensa.

Se necesita un doctorado para navegar e interpretar los resultados de la primera ronda de la evaluación universal. Claro, debemos dar crédito al esfuerzo monumental por parte de la atribulada Dirección General de Evaluación de Políticas de diseñar, aplicar y coordinar la interpretación de resultados para muchos efectos, en poco tiempo y con las inmensas cargas de trabajo que imponen las pruebas ENLACE y Concurso de Plazas.

Se detecta en la información de la SEP que parte de su intención, válida, es no medir cuantitativamente a los maestros para evitar comparaciones denigrantes e incorrectas, no herir susceptibilidades, no ofender sensibilidades y dar una faceta de transparencia. Sin embargo, aún quitando lo puntos válidos, nos quedamos con una simulación estratégica.

Ni por dónde empezar. No tiene ni pies ni cabeza. Y el discurso del Secretario de Educación Pública en turno durante la presentación de resultados confunde y e impide hallar el hilo que devane la madeja.

La SEP omite mencionar la palabra resultados. Es entonces una prueba sin resultados, sólo diagnósticos y trayectos.

Nadie, prima facie, entiende lo que sucede en los polígonos y líneas de las cuatro aristas de los diagnósticos y trayectos.

Para entender las gráficas de diagnósticos y trayectos uno debe leer un documento que se acompaña en otra sección del portal. No sólo es lo extenso de este documento, 34 cuartillas, sino la jerga técnica y el enfoque esotérico de su presentación, lo que complica el panorama. Y después de leer y entender el esquema, ningún maestro sabrá realmente cuál fue su desempeño. No hay medias ni desviaciones estándar; no hay medianas; ni máximos ni mínimos. Uno como maestro o director de escuela nunca sabría qué es lo que realmente sabe y no sabe. Lo único a lo que un participante podría aspirar es a una descripción ambigua y vaga de trayectos educativos que harían falta fortalecer.

No hay resultados, sólo una lista de cinco columnas con supuestos trayectos a seguir. Ni la sociedad, ni la escuela, ni el maestro, ni los expertos pueden saber a ciencia cierta cuál es el nivel de desempeño de los participantes. Si esto no lo pudo hacer la prueba de la Evaluación Universal con una medición directa, cómo esperamos calificar al maestro con una ponderación del 50 por ciento con ENLACE que es una evaluación indirecta, dirigida al alumno y no al maestro.

Para complicar las cosas, la evaluación universal es una prueba que se realiza cada tres años, y ENLACE es otra prueba que se realiza cada año. ¿Cómo van a ponderar las autoridades la diferencia de tiempos?

Ahora bien, dada la forma tan escurridiza y obtusa en que la SEP presenta resultados a lo único que uno realmente puede aspirar es a dividir a los maestros entre los que necesitan formación urgente y los que no.

De los 264,379 docentes y directivos que presentaron la prueba un total de 98,853, es decir, el 37.4 por ciento, son de Prioridad I, o sea, necesitan trayecto formativo urgente.

Otro dato interesante para medir el éxito o fracaso de la política pública es el contraste de la cifra entre los participantes programados y los realmente evaluados. A nivel nacional los programados fueron 503,170; los evaluados, 264,369; es decir, el 52.5%. La entidad con mayor participación de evaluados en relación a programados es Oaxaca, con 91.9% pero, fueron programados sólo 123 participantes. Entonces no cuenta. Buenos ejemplos serían Puebla, San Luis Potosí y Tamaulipas con porcentajes elevados de participación del 70 por ciento o más y números elevados de participantes, 12 mil o más. Casi la mitad de las entidades del país tienen muchos programados y pocos participantes por debajo del 50%. La pregunta es: ¿Qué tienen en común aquéllas tres entidades con alta participación que no tenga el resto? Un punto negativo adicional es para los maestros que realmente pensaban que participaban en una evaluación con resultados definidos y útiles para una reflexión personal a profundidad. Estos maestros o directivos, terminarán desmotivados y decepcionados con el ejercicio.

En resumen: no me opongo a la evaluación de maestros, me opongo a la política pública de la evaluación universal. Con la evaluación universal la SEP hace complicado lo que de por sí es complejo.

http://eduardoandere.org.mx