Yesenia Musayón Oblitas

Cuando una prueba no se elabora con criterios técnicos y no nos aseguramos de que tenga validez y confiabilidad, lo que ocasiona son dudas sobre los resultados y malas conclusiones. Bajo el argumento de que “el ejerce el derecho de realizar todo el proceso de selección de su personal”, se llevó a cabo la evaluación para el , a pesar de las voces de alerta sobre tomar una prueba sin la planificación óptima. El principal resultado del proceso: en promedio, ¡todos jalados! Ninguna carrera supera la nota 10.

De manera muy simplista, la conclusión es que las universidades no han hecho bien su trabajo y, aun cuando lamentablemente a algunas les atañe esa conclusión, dado el gran retroceso en la , es necesario ser autocríticos y tener una mirada amplia de la situación.

Todo proceso de evaluación se sustenta en un marco pedagógico. Para hablar en términos sencillos, ¿cuál fue el objetivo? ¿Evaluar el perfil de egreso de las universidades? ¿El perfil de competencias esenciales publicado por el Minsa? ¿El perfil laboral? Los tres deberían estar alineados y más aún la evaluación ejecutada. Dicha regla no está claramente definida. Lo único que puede leerse en el portal del Minsa es una lista de contenidos copiados de una carrera a otra en un 80%, aproximadamente. Si el propósito está claro, la siguiente pregunta sería: ¿se elaboraron matrices de especificaciones? Dichas matrices permiten establecer el grado de conocimiento y los procesos cognitivos a evaluar, evitando sesgos de muestreo y selección de contenidos, confusión, entre otros.

Representantes del Minsa declararon a la que contaban con una gran cantidad de profesionales que enseñaban en las universidades y, por lo tanto, a su entender, podían proporcionar preguntas. Pero, , una evaluación es más que la suma de preguntas. ¿Cómo se controló el sesgo del observador o evaluador? Esto ocurre cuando no se ha estandarizado el propósito de la evaluación y cada evaluador plantea preguntas de acuerdo con su contexto o conocimiento, ocasionando pobre pertinencia del instrumento, métricas desiguales y los resultados observados. Podemos seguir enumerando una serie de desatinos, errores técnicos y sesgos que al parecer podría tener el instrumento aplicado. A ello debemos sumar que la publicación de las notas se ha realizado sin preservar la identidad de los participantes. ¿Nuestros jóvenes no merecen respeto?

En el supuesto negado de que la prueba sea confiable, ¿se permitirá que profesionales jalados atiendan a la población ? ¿Así realiza los procesos de selección de personal el Minsa? He aquí la responsabilidad de hacer pruebas de calidad, que realmente discriminen por nivel de conocimientos al que sabe del que no y permitan tomar medidas para cerrar las brechas existentes.

Deje a los especialistas que hagan lo que saben hacer; entre tanto, el ministerio que se ocupe de los problemas urgentes del país como el abastecimiento de medicamentos, mejorar la cobertura de la atención, brindar servicios de salud de calidad y demás.

*El Comercio abre sus páginas al intercambio de ideas y reflexiones. En este marco plural, el Diario no necesariamente coincide con las opiniones de los articulistas que las firman, aunque siempre las respeta.

Yesenia Musayón Oblitas es Vicerrectora académica de la Universidad Peruana Cayetano Heredia