Elementos, consideraciones e interpretaciones de la evaluación educativa.
Texto publicado por la Revista de Educación y Cultura AZ. pp 38 a 43
Juan Carlos Palafox Pérez de Salazar
Consultor internacional en
planificación, gestión y evaluación de la educación.
http://jcpps.blogspot.com jcpps@hotmail.com
Antes de emitir una opinión sobre el tema de la
evaluación de la educación mexicana, sus consideraciones e interpretaciones es
necesario considerar ciertos elementos de entrada.
Primero, es irrenunciable e innegociable el derecho del
Estado mexicano de evaluar todas y cada una de las acciones que son de su
responsabilidad, sean de carácter económico, social, político, de seguridad,
sustentabilidad o de cualquier otra índole que la Ley Orgánica de la
Administración Pública Federal le confiera. Esto es una obligación y un derecho
inalienable del Estado, nos guste o no. No es posible pensar en un Estado que
no evalúe lo que hace, como tampoco es sano que una organización humana no
evalúe lo que hace, para saber si va en el camino correcto o no, ante los
objetivos que se plantea.
Segundo, la evaluación educativa no es un fin en sí misma,
ni representa la fundación del sistema educativo mexicano, éste, deviene de
muchas décadas atrás y está compuesto por diversas acumulaciones históricas,
producto de varias generaciones de mexicanos y mexicanas. No se llegó al actual
estado de cosas por arte de magia ni venimos de una situación mejor. Sólo por
mencionar un dato, hace 100 años México
tenía 80% de analfabetos y durante
esos mismos 100 años hemos pasado
de 15 millones de habitantes a 117 millones, esto es: 1 millón en promedio más por cada uno de
estos 100 años y ahora sólo 7% ostenta esa lamentable condición. La evaluación
educativa debe ser un mecanismo para mejorar la educación, y no como algunos
esfuerzos evaluativos recientes, que se han trasformado en fines en sí mismos,
olvidando el objetivo que pretendían (por ejemplo, se han acumulado más de 80
millones de las pruebas Evaluación Nacional del Logro Académico en Centros
Escolares (enlace) y no existe
evidencia de haber avanzado en algo, dato mencionado también por José Ángel
Pescador en declaraciones al periódico Reforma
(11-jun-2012).
Tercero, dentro de las acumulaciones históricas que componen
el actual Sistema Educativo Mexicano están los legítimos derechos adquiridos de los trabajadores de la educación,
nótese que escribo legítimos con cursivas, esto en función de que dichos
derechos son los que responden unívocamente a las legítimas obligaciones que los trabajadores de la
educación se comprometen a partir de su nombramiento. La Evaluación Educativa y
de los Docentes debe reconocer irrestrictamente estos legítimos derechos,
siempre y cuando se cumplan con las legítimas obligaciones contractuales que
les vinculan.
Dicho desde otra perspectiva, el hecho educativo,
aun cuando responde al ejercicio de un derecho humano (El derecho a la
Educación, artículo 26 de la
Declaración Universal de los Derechos Humanos), también está delimitado por la
confluencia de otro derecho humano, definido en el artículo 23 de la misma Declaración, el derecho
al trabajo.
En la confluencia de estos dos derechos humanos —a
la educación y al trabajo—deben determinarse los alcances y limitaciones de la evaluación
educativa y, por ende, la de los docentes.
Cuarto, las terribles condiciones de inequidad social y
económica que caracterizan a nuestro país hacen que el entorno y los medios en
que se da el hecho educativo también se vean arrastrados a estas condiciones en
las que no necesariamente se observan los apoyos y las retribuciones que
compensen dichas condiciones en contextos menos favorecidos. Todo lo contrario,
a entornos de mayor pobreza y rezago social corresponden condiciones educativas
más precarias y limitadas, por lo que la evaluación educativa y la de los docentes
deberá observar dichas inequidades.
Quinto, concomitante con el anterior elemento (condiciones
del entorno y los medios educativos), está lo que podríamos llamar “la materia
prima”: los alumnos mismos. Según la investigación educativa dura de todo el
planeta (incluyendo el Programa Internacional para la Evaluación de
Estudiantes, pisa; el Estudio de
las Tendencias en Matemáticas y Ciencias, timss,
y el Laboratorio Latinoamericano de Evaluación de la Calidad de la Educación, llece), generalmente la variable que más
gravita en los resultados del aprendizaje en países de alta diferenciación
sociocultural o inequidad como el nuestro, es el capital cultural de entrada de
los alumnos, cuyo mayor “predictor” es el grado máximo promedio de educación de
sus padres, por lo que no aislar el efecto del capital cultural de los alumnos
en los resultados de enlace,
generalmente será una forma de estigmatizar a los alumnos menos favorecidos y
sobredimensionar a los más beneficiados; de profundizar las inequidades
sociales existentes; y, resultará del todo injusto para los docentes, pues los
resultados de alumnos con bajo capital cultural, será bajo, en comparación con
los docentes cuyos alumnos tengan un capital cultural alto.
Lo expuesto en los puntos anteriores no se resuelve por
decreto o con reformas educativas cupulares, por más inteligentes y bien
intencionadas que sean; se resuelve con apertura, debate, reflexión social,
pero sobre todo, con honestidad y verdad. Si la autoridad no hace gala de estas
cualidades, no se abre a sustentar sus modelos y sí asume una posición de poseedor
de la verdad absoluta, sin aceptar la participación y el debate de altura, el
proyecto de evaluación provocará desconfianzas y rechazos. Es necesario un
proceso de legitimación social del desarrollo evaluativo y, con mayor razón, de
legitimación por parte de la comunidad educativa.
Por otra parte, para neutralizar las distorsiones de
los factores externos y de contexto en las evaluaciones educativas,
técnicamente no basta con imputar a las escuelas el índice de marginalidad de
las localidades elaborado por el Instituto Nacional de Estadística Geografía e
Informática (inegi), ya que ni los
planteles tienen condiciones consistentes con dicho índice, ni los alumnos que
asisten a ellas pertenecen necesariamente al entorno donde ésta se ubica, sólo
baste ejemplificar con las escuelas públicas que se hallan en barrios de alto
ingreso, cuyos alumnos generalmente no pertenecen a dicho entorno, sino que
habitualmente son hijos de los trabajadores de tales zonas.
Tampoco, se resuelven estas distorsiones con las
pretendidas “comparaciones entre iguales” que en algún momento se propuso en la
SEP, de presentar los resultados separados por control (Privadas con Privadas,
Públicas con Públicas) o por modalidad (Secundarias Generales con Generales,
Técnicas con Técnicas, Telesecundarias con Telesecundarias, Indígenas con
Indígenas, etc.), ya que esto tendería a ahondar aún más la inequidad y
soslayarla, como también a “maquillar” la obligación del Estado Mexicano de
garantizar una misma calidad educativa en cada
nivel educativo sin importar controles o modalidades.
Se requiere la construcción del Índice de Esfuerzo
Escolar (iee),[1] que considere para cada alumno, el entorno y su
capital cultural de entrada. Índice que no representa una complicación técnica
importante, pero que lastimosamente en el pasado la Secretaría de Educación
Pública (sep) o el Instituto Nacional
de Evaluación Educativa (inee) —responsables
de las evaluaciones educativas— han asumido una actitud poco creadora o “temerosa”
para proponer innovaciones propias y han preferido copiar lo que los países del
“norte” hacen —naciones cuyas realidades y necesidades nada tienen que ver con
las nuestras—, u optan por sólo usar los resultados brutos.
Llegados a este punto, conviene hacer una acotación
al respecto de las críticas a las evaluaciones educativas. Si bien es importante
considerar las condiciones en que se da el hecho educativo y las diferencias de
entrada de los alumnos en las evaluaciones educativas, a efectos de no comparar
“peras con manzanas”, también es cierto que a partir de esta consideración se
cuestiona la evaluación con argumentos del todo equivocados, simplistas e
invalidantes de todo esfuerzo evaluativo. A partir de lo anterior se hace
necesario salir al paso, para aclarar algunos puntos.
La medición de los aprendizajes es a la educación lo
que el metro es a la longitud. Es un instrumento de medida y sólo eso. Con esto
lo que quiero decir —ejemplificando—, es que no importa que uno sea de estatura
baja o muy alto para que sea legítimo usar el mismo metro para medirnos. Pensar
que por tener menos de 1,50 metros de
estatura debe usarse un metro distinto al que mida la altura de una persona que
mida más de 2 metros es
totalmente absurdo, no resiste el menor análisis y no es un argumento serio. El
metro es uno y único para medir la dimensión denominada longitud, no importa si
se es pequeño o grande.
Este argumento es igualmente válido para medir los
rendimientos educativos, es totalmente absurdo lo que proponen algunos
pseudoexpertos en educación, como utilizar
instrumentos distintos para evaluar una misma competencia, por el hecho de que
las condiciones en que se da la acción educativa sea distinta o que los alumnos
provengan de diferentes entornos. Hay que instrumentar procedimientos
estadísticos básicos, que permitan aislar el efecto del contexto y rescatar el
verdadero esfuerzo escolar o el valor agregado que la acción educativa y el
alumno aporten. Lo anterior no se desdice cuando hablamos de comunidades que
hablan distintas lenguas, de la misma forma que a nivel internacional, las
competencias a evaluar en pisa son
las mismas en todos los países, aunque varíe el idioma en que se expresan los
instrumentos.
El problema no es el metro o instrumentos que se usen
para medir, son los factores que se incluyen en la ecuación, la forma de
interpretar las mediciones y cómo son presentados los resultados.
Para mejorar lo anterior, la propuesta es muy simple.
La prueba enlace debería al menos:
1. Incorporar a la medición de los
aprendizajes la ponderación de las distintas condiciones en que se da el hecho
educativo en cada escuela, misma que puede rescatarse del formato 911 (o estadística educativa de inicio y
fin de cursos); 2. Acompañar el
instrumento de medición con entre dos a
cinco preguntas adicionales, relativas a la educación de los padres de los
alumnos o sobre las condiciones del hogar; 3.
Medir el efecto de las distinciones recolectadas en los dos puntos anteriores
en los resultados de la prueba enlace;
4. Descontar del puntaje bruto obtenido a nivel individual, el efecto citado en
el punto anterior, y así reconocer el iee.
Un ejemplo de lo anterior lo he planteado en varios
libros y publicaciones con respecto a los resultados de pisa y ahora lo vuelvo a presentar aquí —que no por
repetido, pierde un ápice de validez y oportunidad—, para ejemplificar cómo
pueden leerse de una manera más justa, objetiva y realista sus resultados, sin
renunciar a los datos brutos que también son útiles para la toma de decisiones.
I.
Programa Internacional para la Evaluación de
Estudiantes, Informe PISA 2009 de la OCDE.[2]
En este ranking,
México se ubica en el último lugar de los países miembros de la Organización
para la Cooperación y el Desarrollo Económicos (ocde),
lo que confirma lo concluido en otras investigaciones, en tanto que si México
se compara con los países de alto desarrollo, se encontrará generalmente en las
últimas posiciones, mientras que cuando se incluyen países con desarrollos
medios o bajos, su posición mejora de forma significativa, ubicándose en el
tercer cuarto de la distribución total de pisa,
incorporándose Uruguay por encima de México, y 17
países —dentro de los cuales quedan Colombia, Brasil, Argentina, Panamá
y Perú— por debajo.
La mayoría de investigaciones “duras” en el mundo
han demostrado que en países de alta diferenciación o inequidad social, gran
parte de la variación de los puntajes se debe a las condiciones del contexto de
los alumnos y posteriormente a lo que sucede en el aula, por lo que conviene analizar
los resultados de pisa a la luz de
algún indicador que dé cuenta de dicho contexto. Más adelante se presenta una
correlación, una interpretación y un nuevo ordenamiento de los países en
función del Índice de Desarrollo Humano (idh),
mostrando sólo los países que cuentan con dicho índice para 2010 y destacando en el gráfico la
ubicación específica de los de mayor y menor promedio, así como los
latinoamericanos.
Se observa una alta correlación entre las dos
variables (0,7253), lo cual da
cuenta de que el desempeño escolar es un fenómeno fundamentalmente estructural,
cultural, que está íntimamente relacionado con otras variables del desarrollo. La
educación no es un hecho aislado que no necesariamente puede ser explicado en
sí mismo, sino en su contexto. A cierto nivel de idh, es previsible determinado puntaje en investigaciones de
naturaleza similar a pisa o enlace, por lo que conviene hacer un
análisis de cuánto está por arriba o por debajo del puntaje previsible dado el idh de cada país, estado, municipio,
sector, zona escolar, escuela, grupo o alumno, con lo cual estaremos más cerca
de una evaluación más justa y realista del esfuerzo (iee), en función de su propio nivel de desarrollo. Así, tenemos
el siguiente nuevo ordenamiento (incluye los países que cuentan con idh en 2010
y que participaron en pisa 2009):
Reordenamiento de
países en función del iee
De la anterior tabla se puede deducir que el solo ranking que aporta pisa inicialmente puede ser interpretado
de una forma más constructiva, en la cual se reconozca el verdadero esfuerzo escolar,
mismo que indica lo que cada país aporta, o no, en función de su desarrollo humano
concomitante a la aplicación de la prueba pisa[3] (iee).
Del nuevo ordenamiento se distinguen dos tipos de
países. Uno, compuesto por aquellos cuyo rendimiento es superior al esperado (iee > 0),
y el otro, con aquellos en los que es inferior al esperado (iee < 0).
Se observa. entre otras cosas, que Corea del Sur, Finlandia y Nueva Zelanda,
originalmente 1º, 2º y 3er lugar, pasan a ser el 5º, 4º y 18
en la nueva clasificación por iee,
mientras que Turquía, que en el ranking
original ocupaba el lugar 32, pasa
al primer lugar del nuevo ordenamiento por iee,
seguido por Indonesia, inicialmente en el lugar 44
y de Polonia, ubicado en el lugar 12.
En cuanto a los países latinoamericanos, también
cambian sus posiciones. Mientras que Uruguay y Argentina bajan su ranking del 36 al 40 y del 45 al 46
respectivamente, México mejora del 37 al
33, Chile sube del 33 al 28,
Brasil del 42 al 21 y Colombia del 40 al 14,
con mucho el mejor país latinoamericano en función del iee.
México, que tiene un iee
de -9,03, o sea 9,03 puntos en la escala de pisa por debajo de lo esperado dado su idh, además de mejorar su posición
relativa en el ranking inicial de pisa 2009, se ubica por encima de países
de la ocde como España, Estados
Unidos, Irlanda, Luxemburgo, Australia y Noruega, inicialmente colocados en
mejor posición, así como de Uruguay.
Con este ejemplo, lo que se busca es poner en el
centro del debate que los rankings de
cifras “llanas”, sin contextualizar, son útiles pero no suficientes e inducen a
falsas apreciaciones y equívocos en los juicios de valor acerca de la calidad
educativa que pretenden definir, ya que no
es lo mismo los mayores puntajes, que los mejores puntajes, hecho
aparentemente ininteligible para los detractores de la educación mexicana tan en boga hoy día.
Cuando el análisis se hace entre poblaciones iguales
en cuanto a su nivel socio-cultural, el orden cambia sustantivamente. Error de
apreciación que desgraciadamente se da desde el ámbito de las naciones, hasta
el microcosmos de la comparación entre estados, escuelas, salones de clases y
de los alumnos mismos, al compararlos únicamente por los puntajes llanos sin
contextualizar, lo que lleva a considerar que algunas modalidades, tipos o
localizaciones educativas sean mejores que otras per se (por ejemplo: secundarias generales en contraposición de las
telesecundarias, escuelas privadas en comparación con escuelas públicas,
urbanas con relación a las rurales o indígenas, etcétera), cuando en la
realidad lo que sucede es que están en contextos distintos y atienden a
poblaciones con diferentes capitales culturales.
En síntesis, la evaluación educativa es necesaria,
quizá indispensable, pero de ninguna manera es justificable tratar de hacernos
un “traje a la medida” para ocultar debilidades, como tampoco lo es hacer
juicios de valor a partir de contextos distintos. Hay que hacer un uso más
inteligente de las herramientas y avances que la técnica de la evaluación nos
procura, para arribar a conclusiones válidas que lleven a decisiones lo más
racionales posibles, en beneficio de la educación mexicana y de su mejora.
[1] Índice propuesto por el autor de este artículo en distintos
textos.
[2] Escala de lectura en general, “Results: Executive Summary”
The oecd Programme For
International Student Assessment (pisa),
http://www.oecd.org/pisa/pisaproducts/46619703.pdf, pág.
9.
[3] Es importante destacar que México es el país de la ocde con mayor porcentaje de estudiantes
cuyo índice de entorno económico, social y cultural es menor que -1, con 58,2%,
seguido por Turquía (58,0%) y
Chile (37,2%). pisa 2009 Mensajes Clave para México, http://www.oecd.org/dataoecd/55/9/46640394.pdf.