
En días recientes, un concurso internacional de alto perfil generó una intensa conversación pública sobre la claridad en sus reglas y decisiones; pero más allá de un caso, es indispensable identificar un patrón bien conocido. Cuando un proceso evaluativo es percibido como opaco, la sociedad deja de confiar en el resultado.
Estas discusiones no deberían interesarnos por el espectáculo mediático, sino por lo que revelan sobre un tema central para la educación: la legitimidad de un resultado depende de la claridad y solidez del proceso que lo produce. Este principio, fundamental en la evaluación educativa, tiene consecuencias sociales profundas.
Scriven (2007) lo sintetiza de manera precisa: evaluar significa emitir un juicio sobre el mérito y valor, y ese juicio solo es válido cuando se sustenta en criterios claros, consistentes y éticos. Messick (1989) añadió que la validez no solo es técnica —lo que mide un instrumento—, sino también ética y social: cómo se usa, qué consecuencias produce y si esas consecuencias pueden defenderse públicamente.
Por ello es importante señalar que cuando los criterios se difuminan, la evaluación pierde legitimidad y la historia reciente ofrece ejemplos contundentes de lo que ocurre cuando los criterios evaluativos no son claros, consistentes o públicos.
En los Juegos Olímpicos de Invierno de 2002, un juez admitió haber sido presionado para favorecer a una pareja específica en el patinaje artístico (Zimbalist, 2003). El escándalo obligó a rediseñar todo el sistema de puntuación internacional. Allí no se cuestionaba la calidad de los atletas, sino la falta de imparcialidad del proceso evaluativo.
En Atenas 2004, el gimnasta Yang Tae-young perdió la medalla de oro por un error en la asignación del grado de dificultad. Aunque el Comité Olímpico reconoció la equivocación, mantuvo el resultado final. El debate no giró en torno al desempeño,
sino a la coherencia entre los criterios establecidos y la manera en que fueron aplicados.
Incluso en ámbitos culturales, la falta de claridad evaluativa ha generado crisis. En 1971, varios miembros del jurado del Premio Booker renunciaron públicamente alegando cambios de reglas a mitad del proceso. Más recientemente, artistas han denunciado la opacidad de los comités de nominación de los Premios Grammy, señalando que la falta de transparencia compromete la confianza pública.
Estos ejemplos, provenientes del deporte, la literatura y la música, tienen un punto en común: cuando la ciudadanía no entiende cómo se evalúa, deja de creer en lo evaluado.
La educación no es la excepción, cuando los procesos no ofrecen claridad, los estudiantes también sienten la opacidad. Aunque parezca un tema lejano, la escuela vive tensiones muy similares.
Los estudiantes perciben injusticias cuando:
no conocen los criterios de evaluación,
las rúbricas no se comparten,
los criterios cambian sin explicación,
las calificaciones no se justifican,
hay inconsistencias entre lo que se pide y lo que se evalúa,
o cuando existen favoritismos reales o percibidos.
La opacidad genera el mismo efecto que en los concursos mediáticos: erosiona la confianza. Y sin confianza, el aprendizaje se debilita. Shaw (2011) advierte que una evaluación solo es legítima cuando puede sostenerse públicamente. No solo importa que un instrumento sea técnicamente adecuado: importa que quienes participan entiendan cómo funciona y confíen en su justicia. En un sentido evaluar puede significar un acto de poder que exige responsabilidad epistemológica. Bauer (2019) señala que evaluar implica asignar valor, mérito o reconocimiento, y por lo tanto es un acto de poder. En concursos decide ganadores; en educación decide trayectorias. Por eso demanda responsabilidad epistemológica, ética y social.
Por tanto, un proceso evaluativo legítimo (en concursos, exámenes, becas o ascensos) debe ofrecer a la comunidad:
Claridad de criterios, es decir, todo participante debe saber qué se evaluará y por qué.
Validez conceptual, lo que se dice evaluar debe corresponder con lo que realmente se evalúa (Messick, 1989).
Confiabilidad, significa que los evaluadores deben aplicar criterios consistentes en cada evaluación.
Transparencia; las reglas deben ser públicas, estables y explicadas.
Gestión de conflictos de interés, los vínculos que puedan afectar la evaluación deben declararse y regularse, no ocultarse.
Estas condiciones son mínimas para sostener la legitimidad de cualquier proceso evaluativo y sin duda, muestran un camino muy sólido para avanzar como sociedad, de la cultura del veredicto a la cultura del criterio.
Nuestra sociedad sigue obsesionada con el resultado: quién gana, quién asciende, quién se queda fuera, perdiendo del centro la dignidad y valor de cada persona desde su unicidad. Pero en evaluación, el resultado es solo la superficie. Lo que sostiene o derrumba un proceso es su estructura profunda: criterios, validez, transparencia, ética, elementos fundamentales de la calidad.
Los casos históricos muestran que cuando la evaluación falla, la confianza social se fractura. Y cuando la confianza se fractura, ninguna institución —ni cultural, ni deportiva, ni educativa— puede sostenerse.
Por eso, más allá de la polémica del momento, la verdadera lección para el ámbito educativo es muy clara: una evaluación justa no se define solamente por el resultado, sino por la solidez del proceso que lo sostiene y la confianza pública como consecuencia.
Lo que realmente sostiene la justicia evaluativa —en cualquier ámbito— es la coherencia del proceso, la claridad de los criterios y la capacidad de explicar cómo llegamos a un veredicto y solo cuando las instituciones y los evaluadores adoptamos una cultura del criterio, podemos garantizar procesos transparentes, decisiones legítimas y aprendizajes con sentido humano.
Referencias
Bauer, A. (2019). Defining evaluative worth and merit criteria. Educação & Sociedade, 40(146), 1–19.
Messick, S. (1989). Validity. In R. L. Linn (Ed.), Educational measurement (3rd ed., pp. 13–103). Macmillan.
Scriven, M. (2007). The logic of evaluation. EdgePress.
Shaw, S. (2011). Tracing the evolution of validity in educational measurement: Past issues and contemporary challenges. Cambridge Assessment.
Stufflebeam, D. (2003). The CIPP model for evaluation. In T. Kellaghan, D. L. Stufflebeam, & L. Wingate (Eds.), International handbook of educational evaluation (pp. 31–62). Springer.
Zimbalist, A. (2003). Judging scandals and the evolution of scoring in figure skating. Journal of Sports Economics, 4(4), 347–359.