La evolución de los Comités Interinstitucionales para la Evaluación de
la Educación Superior CIEES
(1991 – 2021).
Mtro. José Ubaldo Ramírez Javier
Contenido
Introducción. 3
Antecedentes y fundación de los CIEES. 4
Integración y Estructura de los CIEES. 5
Cronología de los Coordinadores Generales. 6
Inicio de las evaluaciones diagnósticas. 6
De los marcos de referencia, a la metodología general de
evaluación. 9
Fundamentos de la Metodología General de Evaluación. 9
Programa Nacional de Educación 2001-2006. 10
Paradigma de un programa educativo de buena calidad, 11
Programa Integral de Fortalecimiento Institucional 11
Marcos de referencia de los Comités. 12
Ejes de la metodología. 14
Las categorías. 14
Los Indicadores. 15
Las preguntas. 17
Medios de verificación. 17
Aplicación de la metodología general de la evaluación. 17
Primera etapa: la autoevaluación. 18
Curso – taller para la autoevaluación. 18
Características de los
indicadores (Nombre, Indicador y criterio de evaluación) 18
Segunda etapa, la capacitación de los evaluadores. 19
1. Indicador integral 19
2. Indicador dividido. 19
3. Indicador con sugerencias 19
Las recomendaciones, resultado de la evaluación. 21
La visita de evaluación. 21
Asignación del nivel 23
Escala de Asignación de Nivel 24
La evaluación diagnóstica de Universidades Particulares. 25
Metodologías específicas por modalidad y subsistema. 25
Separación de CIEES y COAPES. 26
Diferencia entre CIEES y COPAES. 27
Programa Sectorial de Educación 2007 - 2012. 28
Transición de la evaluación diagnóstica a la acreditación en
CIEES. 29
Una nueva administración. 30
La nueva metodología. 31
Guía para la Autoevaluación de Programas de Educación
Superior (GAPES) 31
Carpeta Electrónica de Evaluación (CAE); el nuevo esquema de
trabajo. 33
Una nueva política pública. 34
Metodología Actual de los CIEES. 35
Programa Sectorial de Educación 2020 - 2024. 36
Discusiones finales. 37
Referencias 39
Este documento constituye una narrativa histórica de los CIEES; desde su
creación en 1991 hasta 2021, esto dentro del marco del 30 aniversario de su
fundación.
La evaluación diagnóstica de programas educativos, ha constituido un
insumo para las Universidades Públicas en el proceso de la planeación y
asignación de recursos. Se puede encontrar en repositorios académicos,
investigaciones y experiencias respecto a la evaluación de programas educativos
desde la experiencia de los académicos que vivieron el proceso como entes
evaluados, así como los análisis de informes que se generaron en distintas
universidades. En general la información que existe se refiere a las
experiencias como agentes externos a los CIEES, por lo cual, este documento
recopila la información de los procesos de evaluación desde el interior de los
CIEES; comprende las primeras actividades desde su creación, la generación de
una metodología única y el avance de la evaluación a lo largo de 30 años.
Esta narrativa permitirá recordar algunos sucesos para aquellos que estuvieron
involucrados en los procesos de evaluación, ya sea como pares evaluadores o
como instituciones evaluadas, pero también servirá como un marco de referencia
para las nuevas generaciones que hoy están adentrándose en el mundo de la
evaluación de los programas educación superior.
Sería muy amplio recuperar las experiencias de las visitas de evaluación
por lo que se busca relatar los sucesos más importantes dentro de los CIEES. Parte
de esta historia no se documentó por lo cual, es un buen punto de partida para
enriquecer las futuras investigaciones referente a la evaluación diagnóstica de
los CIEES.
En memoria de Marco Ramírez Serapio
“Lo que no se evalúa, se devalúa”. MRS
El Programa para la
Modernización Educativa 1989 – 1994, en el capítulo 9, plantea los lineamientos
estratégicos para la evaluación permanente de la educación superior y como
meta, la instalación de la Comisión Nacional de Evaluación de la Educación Superior
(CONAEVA) perteneciente a la CONPES. (D.O.F., 1990)
Los propósitos de
la CONAEVA consistieron en impulsar un proceso evaluativo nacional, mediante la
creación de criterios generales y de políticas que llevaran a mejorar las condiciones
de la educación. La CONAEVA formuló el marco conceptual y operativo para el
Sistema Nacional de Evaluación, estableciendo estrategias para los procesos de
evaluación: evaluación institucional, evaluación del sistema de educación
superior y la evaluación interinstitucional de programas y proyectos
educativos.
En julio de 1990,
en la IX Asamblea General Extraordinaria de la ANUIES se aprueba la propuesta
de lineamientos para la evaluación de la educación superior y en este documento
se propone la constitución de los Comités Interinstitucionales para la
Evaluación de la Educación Superior (ANUIES, 1990).
En junio de 1991 se
crearon los Comités Interinstitucionales para la Evaluación de la Educación
Superior (CIEES) y se comienzan a definir sus características, organización,
mecanismos de coordinación, ámbitos y universos de trabajo, así como aspectos
de carácter operativo.
La normativa de los
CIEES se determinó en el documento “Estrategia para la integración y funcionamiento
de los Comités Interinstitucionales para la Evaluación de la Educación
Superior”, teniendo como propósitos conocer la situación de los programas
(licenciatura y posgrado) para detectar logros y áreas de oportunidad y
proponer, en consecuencia, estrategias de mejoramiento de la calidad. En este
documento se acuerda la evaluación interinstitucional sobre programas y
proyectos académicos por área de conocimiento y por función, así como servicios
de apoyo. Esta evaluación se rige por los lineamientos establecidos previamente
en la CONAEVA, dando los siguientes puntos iniciales:
• La evaluación
pretende conocer y valorar las condiciones de operación y calidad de los
procesos y resultados de los programas educativos.
• Para poder llevar
a cabo la evaluación interinstitucional se propone la integración de por lo
menos un comité de evaluación en cada una de las seis áreas del conocimiento en
que se organiza la educación superior; estos son: a) Ciencias Naturales y
Exactas b) Ingenierías y Tecnologías c) Ciencias Agropecuarias d) Ciencias de
la Salud e) Educación y Humanidades y f) Ciencias sociales y Administrativas.
• Dentro de las
funciones que se otorgan a los comités de pares se acuerdan 4 esenciales:
a) La evaluación
diagnóstica sobre la situación de las funciones y tareas de la educación
superior.
b) Acreditación y
reconocimiento que puede otorgarse a unidades académicas o a programas
específicos en la medida que satisfagan criterios y estándares de calidad
convencionalmente establecidos.
c) Dictaminación
puntual sobre proyectos o programas que buscan apoyos económicos adicionales y
d) la asesoría, a
solicitud de las instituciones para la formulación de programas y proyectos
para su implantación.
• La evaluación
interinstitucional requiere de una autoevaluación previa que debe realizar la
institución para valorar la situación que guarda el programa a evaluar. Aunado
a esto requiere de información comparativa de estándares internacionales
ajustados a la realidad nacional definiendo así normas, perfiles, estándares
mínimos de calidad para las carreras.
• Cada uno de los
Comités estará integrado por académicos distinguidos representativos de
distintas regiones de ANUIES del país.
• Cada Comité tendrá
que precisar las variables, criterios e indicadores para la evaluación y como
resultado de las evaluaciones, deberá emitir recomendaciones para apoyar a su
área.
Se definió la
integración de seis comités interinstitucionales conforme a las áreas de
conocimiento, que realizarán las evaluaciones a los programas educativos y dos
comités para la evaluación de la difusión de la cultura y la organización y
apoyo administrativo. Se dispuso que cada uno de los Comités se integrara por
diez miembros, conformándose como instancias colegiadas integradas por personal
académico u otro tipo de personal para los comités no académicos. Su
participación se realiza a título personal, sin importar la Institución de
Educación Superior (IES) de procedencia. Cada comité deberá tener diversidad
disciplinaria en sus integrantes. Uno de ellos, será un experto en el área
respectiva proveniente del sector productivo o social (vocal ejecutivo). Cada
comité quedó conformado por un Vocal Ejecutivo que tendrá un equipo de trabajo
para realizar las tareas encomendadas.
En su origen (ANUIES, 1990) se les dio las
siguientes orientaciones generales a los Comités:
1. El objeto de
las evaluaciones son los programas educativos que se ofrecen en el país o en su
caso, la difusión de la cultura y su apoyo administrativo.
2. Conocer la
situación de los programas educativos para detectar logros y deficiencias y
proponer, en consecuencia, estrategias de mejoramiento de la calidad mediante
el análisis de los siguientes aspectos:
a. La descripción
cuantitativa y cualitativa de la situación que guardan los programas en una
disciplina (su magnitud, número de programas, unidades que lo desarrollan,
balances regionales, desarrollo y cobertura).
b. El análisis
valorativo, en conjunto y para cada programa educativo con base en los
criterios acordados por el Comité. El análisis pondrá especial atención en la
congruencia y el impacto real del programa sobre su entorno social y
productivo.
c. Identificación
de los problemas y las necesidades más importantes a las que tendrá que darse
una atención inmediata en los ámbitos institucional, regional y nacional a
partir de una visión prospectiva.
3. La
recomendación a las respectivas IES, al gobierno federal y a los gobiernos
estatales, de las medidas aplicables al mejoramiento de los programas
respectivos.
4. Formulación de
criterios y padrones de calidad y las condiciones necesarias para su desarrollo
(infraestructura, perfil de profesores, investigadores y estudiantes,
organización académica, currículo, metodología, entre otras).
En los comités, se
establecieron algunos puntos para su puesta en marcha, mismos que se enuncian a
continuación:
a) Cada Comité precisará el campo que abarca el
área y subáreas y disciplinas comprendidas, acotará su universo de evaluación
para cada etapa y elaborará el respectivo programa de trabajo.
b) Con las aportaciones de los grupos técnicos,
un grupo SEP-ANUIES se propondrá a los comités la metodología básica y los
instrumentos de evaluación que darán pie a la creación de los marcos de
referencia para definir los procedimientos de evaluación de cada comité.
c) Se realizarán las visitas a las instituciones
que impartan el programa educativo sujeto de evaluación.
·
1991, el Secretario de Educación
Pública, Lic. Manuel Bartlett Díaz, designa al Dr. Agustín Ayala Castañares
Coordinador General de los CIEES y se realiza la instalación de los primeros
cuatro comités: Administración (este cambió de nombre por Comité de
Administración y Gestión Institucional), Ciencias Agropecuarias, Ciencias
Naturales y Exactas, e Ingeniería y Tecnología.
·
Junio de 1992, el Ing. Manuel
Pérez Rocha es designado Coordinador General de los CIEES y en enero de 1993 se
instalan oficialmente cuatro comités adicionales: Ciencias de la Salud,
Ciencias Sociales y Administrativas, Difusión y Extensión de la Cultura y
Educación y Humanidades, a este último se agregaron los programas de las Artes
por lo cual su nombre cambió por Educación, Artes y Humanidades. Para julio de
1994, por acuerdo de la CONPES se instala el noveno Comité: Arquitectura,
Diseño y Urbanismo.
·
En 1998 el Dr. Hugo Aréchiga
Urtuzuástegui es designado Coordinador General de los CIEES.
·
De 2003 a 2014, el Dr. Javier de
la Garza Aguilar, tras el fallecimiento del Dr. Aréchiga, toma el cargo de
Coordinador General.
·
De 2014 a 2019, es nombrado
coordinador general, el Mtro. Rafael Vidal Uribe.
·
A partir de abril de 2019, la
coordinación general está a cargo del Mtro. Miguel Ángel Tamayo Taype.
Para poder realizar
sus actividades de evaluación, cada uno de los comités construyó su Marco de
Referencia para la Evaluación basándose en los documentos propuestos por
CONAEVA y ANUIES: “cada Comité tendrá que precisar las variables, criterios e
indicadores para la evaluación y como resultado de las evaluaciones, deberá
emitir recomendaciones para apoyar a su área” (Pérez Rocha,
Evaluación y autoevaluación, Centro de Documentación CIEES).
Durante la década
de 1991 a 2000, los CIEES entregaron 1,346 informes de evaluación. Cabe hacer
mención que cada Comité era responsable de sus procesos, teniendo libertad de
actuación, con apego a las normas de CIEES, de la misma manera los evaluadores
mantenían apego a los marcos de referencia y al código de ética para la
actuación como evaluadores.
Los rubros que se
evaluaban de manera general correspondían con los siguientes apartados:
1. Planeación y organización de la unidad
2. Administración Académica y financiamiento de
la unidad
3. Planes y programas de estudio
4. Alumnado
5. Personal Académico
6. Proceso de enseñanza – aprendizaje
7. Vinculación y educación continua
8. Infraestructura y equipamiento
9. Resultado.
La evaluación
diagnóstica se consideró como una actividad voluntaria por parte de las
Instituciones de Educación Superior (IES); el resultado no representaba ningún
beneficio o perjuicio, simplemente era un diagnóstico institucional, pero de
esta manera se comenzó a construir la cultura de la evaluación en las
universidades.
Para llevar a cabo
una evaluación diagnóstica, la IES debía solicitar formalmente el proceso para
recibir el marco de referencia del comité y comenzar a realizar un autodiagnóstico
y recopilar toda la información necesaria para demostrar el cumplimiento de los
marcos de referencia. Una vez finalizada esta primera etapa, la información era
recibida en el comité respectivo.
Cuando el Comité
recibía la información, esta era reorganizada por los asistentes de los comités
para delegar la elaboración de un prediagnóstico que, a manera de resumen,
integraba la información más importante y que utilizarían los pares evaluadores
como documento de apoyo para realizar la visita de evaluación.
El prediagnóstico
contenía observaciones respecto a los aspectos que se debería hacer énfasis
durante la visita de evaluación. Los pares evaluadores, tomaban notas para dar
respuesta a las observaciones iniciales, mismas que se integraban al
prediagnóstico de manera que se corroborara el cumplimiento del marco de
referencia o en su caso se establecían las áreas de oportunidad que darían
origen a las recomendaciones para mejorar el programa educativo.
Este proceso
concluía con un informe de evaluación que podría demorar hasta doce meses posterior
a la visita de evaluación para ser enviado a la Universidad.
Dado que la
evaluación inicia como un proceso voluntario, el atender o no las
recomendaciones no era algo que se midiera posterior a la evaluación, Además de
que, en algunos casos, el tiempo que se tardaba en entregar un informe era
demasiado, por lo cual, algunas recomendaciones, ya no tenían razón de ser.
Con la libertad de
cada Comité en la construcción de sus marcos de referencia para la evaluación,
se tuvo la creación de criterios diferentes para aspectos comunes de las IES.
Por ejemplo, en cuanto al tema de biblioteca, algunos comités consideran
conocer el tipo de estantería (abierta o cerrada) así como la vigencia de la
bibliografía (no mayor a 10 años) y la disponibilidad bibliográfica para el
programa educativo evaluado. Sin embargo, en otro marco de referencia se
consideraron las normas para el servicio bibliotecario en instituciones de
enseñanza superior y de investigación (ABIESI) en donde se establecen aspectos
como los espacios físicos de lectura grupal e individual, entre otros temas,
por lo cual, la evaluación a un mismo espacio (biblioteca) podría ser adecuada
para un Comité y tener recomendaciones de mejora por parte de otro.
Este proceso
operativo fue funcional en la primera década de los CIEES, y se identificaron
aspectos que podrían mejorarse, sobre todo en el tiempo que transcurría desde
que se iniciaba el proceso, hasta la entrega del informe final que en su
totalidad, podría ser de dos años considerando como inicio el tiempo que la IES
demoraba en recopilar su información para entregarla a CIEES; además de los
tiempos para elaborar el prediagnóstico, la programación para realizar la
visita de evaluación y finalmente, el tiempo para la redacción, corrección y
estilo del informe previo a la entrega final a la IES.
Es importante
aclarar la existencia de dos tipos de comités; siete comités que evalúan los
programas educativos y dos comités de funciones institucionales, estos últimos
son: uno enfocado a la difusión y extensión de la cultura y uno más, encargado
de la gestión institucional. Los primeros siete evalúan de lo particular a lo
general (programa educativo) y los otros dos, enfocan su evaluación de lo
general a lo particular (funciones institucionales).
El Comité de
Administración y Gestión Institucional (CAyGI), se encarga de evaluar la
gestión universitaria, considera los lineamientos que rigen la operación de la
rectoría y las direcciones que rigen a la universidad; considerando que se
cumplan con las actividades necesarias para que los programas educativos
funcionen, es decir, de lo general a lo particular.
La evaluación del
CAyGI tomó relevancia en el proceso que realizaban los siete comités de programas
educativos, esto porque permitía contar con una sistematización del contexto
sobre el cual se desarrollaba y operaba el programa educativo a evaluar. Desafortunadamente,
no se contaba con la evaluación institucional de todas las IES que se sometían
a procesos de evaluación de sus programas educativos.
En el mes de
noviembre del año 2000 se fundó el Consejo para la Acreditación de la Educación
Superior (COAPES), en su origen se integró a la infraestructura operacional de
los CIEES; por lo cual, el coordinador general de los CIEES fungió durante 10
años, también como director general de COPAES. Este nuevo organismo, se le
conoce como agencia de segundo nivel, esto significa que no realiza el proceso
de acreditación, sino que se encargan de dar reconocimiento y regular las
funciones de los organismos acreditadores.
En el inicio del
nuevo milenio, las IES estaban asimilando los procesos de evaluación
diagnóstica de los CIEES y no estaban interesados en los procesos de
acreditación que ofrecían los organismos que integraban a COPAES. Dada la
dualidad de funciones del coordinador general de CIEES en la dirección de
COPAES, aunado a las políticas nacionales del programa sectorial de educación, se
fomentó que los programas educativos que ya contaran con la evaluación diagnóstica
transitaran hacia el siguiente proceso que consistía en la acreditación.
Durante 2001,
posterior a la fundación COPAES, fue necesario trabajar una clasificación de la
calidad de los programas educativos evaluados previamente por los CIEES para
definir cuáles serían los que podrían (y deberían) buscar acreditación; es en
este momento en que se define la necesidad de clasificar en niveles de calidad
a los programas educativos evaluados. La definición de los niveles se
estableció en función de la posibilidad de acreditación por un organismo de
COPAES; siendo así el surgimiento del Nivel 1 (acreditable a corto plazo);
Nivel 2 (acreditable a mediano plazo) y Nivel 3 (acreditable a largo plazo) que
asignaban los CIEES como resultado de la evaluación diagnóstica.
La primera
clasificación de los programas educativos fue “en el escritorio”, se
consideraron los informes de evaluación entregados previamente a las IES que se
sometieron a un proceso de evaluación diagnóstica para asignarles un nivel,
pero es importante considerar que su proceso de evaluación no tuvo la finalidad
de calificar el resultado en un nivel de calidad. Cuando se asignaba el nivel 2
ó 3, las Universidades debían solicitar una segunda evaluación diagnóstica, lo
que se llamó “evaluación de seguimiento”. Esta tenía por finalidad que la IES demostrara
el cumplimiento de las recomendaciones previamente realizadas en la evaluación
diagnóstica y así transitar al nivel 1.
Para poder tener
congruencia entre la evaluación diagnóstica que realizaban los distintos
comités, era importante homologar los criterios empleados, de esta manera, el
proceso para asignar el nivel para la acreditación se comenzó a sistematizar,
hasta construir una metodología de asignación de la cual se hablará más
adelante.
En esta etapa, cuando
un programa educativo obtenía “Nivel 1”, los CIEES daban la recomendación final
a la universidad de “Comenzar el proceso de acreditación, con el organismo de
COPAES correspondiente”. Es importante retomar que los CIEES, desde su
fundación, han tenido la facultad de realizar procesos de acreditación de los
programas educativos, aspecto que no ejerció hasta más de dos décadas
posteriores a su creación.
Con el
fallecimiento del Dr. Hugo Aréchiga (2003), se inicia una reestructura dentro
de los CIEES; el secretario académico en turno, Dr. Javier de la Garza Aguilar,
es nombrado Coordinador General de los CIEES y esto llevó a realizar cambios
dentro de los comités, siendo nombrados nuevos vocales ejecutivos e iniciando
la creación de una metodología de evaluación única.
Dada la nueva
necesidad de otorgar niveles para la acreditación de manera sistemática y la
identificación de que cada uno de los comités disciplinares desarrollaban esta
actividad en función de sus marcos de referencia, se identifica la importancia
de contar con una misma metodología de evaluación, independiente del área del
conocimiento. Este nuevo esquema debería de ser ágil y confiable, considerando
la posibilidad de clasificar los programas educativos por su nivel de calidad
con posibilidad de acreditación por parte de COPAES.
En el contexto del
financiamiento de la Educación Superior Pública, este se designaba directamente
proporcional a la matrícula estudiantil y a la nómina del personal, sin
considerar aspectos de la calidad educativa (Díaz Barriga, 2001). Para poder fomentar
la calidad educativa, se crearon políticas públicas que contribuyeron con dicho
aspecto. Retomando que los procesos de evaluación de los CIEES estaban
enfocados a las Universidades Públicas, entonces dichas políticas dieron origen
a los indicadores de calidad que permitieron, por un lado, asegurar un correcto
financiamiento de la educación, así como la congruencia de la medición de la
calidad y las políticas públicas establecidas (González Ramírez & Ramírez
Javier, 2013).
Al analizar los
indicadores de evaluación, se pueden identificar las políticas públicas que
fueron atendidas, sin embargo, solo los que trabajaron el documento, conocen
los fundamentos de la metodología, porque no se documentó nada al respecto. Es
por ello, que se incluye la información que se utilizó para crear la metodología
general de evaluación:
• El Programa
Nacional de Educación 2001 – 2006.
• El Paradigma
de un programa educativo de buena calidad.
• Los marcos de
referencia de los nueve Comités.
• Los
Lineamientos de los Programas Integrales de Fortalecimiento Institucional
(PIFI), SES-SEP.
• Los
lineamientos del Programa Integral de Fortalecimiento del Posgrado (PIFOP),
SES-SEP, CONACYT.
• Los
lineamientos del Programa de Mejoramiento del Profesorado (PROMEP).
• El marco de
referencia del Programa Nacional de Posgrados (PNP) CONACYT- SEP.
• La Declaración
Mundial sobre la Educación Superior en el Siglo XXI: Visión y Acción (UNESCO,
1998).
• Los estándares
internacionales.
Los más importantes
corresponden con el Programa Nacional de Educación 2001 – 2006; Los lineamientos
del Programa Integral de Fortalecimiento Institucional (PIFI) y dentro de este,
el Paradigma de un programa educativo de buena calidad. En cuanto a los
estándares internacionales, fueron un referente, pero algunos no podrían ser
aplicados en el contexto nacional, como ejemplo a nivel internacional no existe
un proceso de titulación, es decir, un egresado al finalizar sus créditos puede
ejercer su profesión, sin necesidad de someterse a un proceso de evaluación
para la titulación que valide los conocimientos y habilidades adquiridas
durante su formación. Aspecto que aún en 2021, se aplica en México.
Cada sexenio se
establece un Plan de Desarrollo Nacional que dictan las líneas que seguirá el
país durante el periodo específico. Dentro de los ejes temáticos se encuentran
los aspectos de educación, del cual también surge el Programa Nacional de
Educación y este como una política pública establece:
“promover
la evaluación diagnóstica de los programas educativos por parte de los Comités
Interinstitucionales para la Evaluación de la Educación Superior (CIEES) y
alentar la acreditación de los programas educativos por organismos
especializados reconocidos formalmente por el Consejo para la Acreditación de
la Educación Superior (COPAES)”. (Secretaría de Educación Pública, Septiembre de 2001)
El Programa Nacional
de Educación también hace referencia a lo que debe ser un programa educativo para
ser considerado de calidad, este se menciona solo como una introducción al su apartado
tres, referente a la educación superior:
“Un
programa educativo de buena calidad cuenta con una amplia aceptación social por
la sólida formación de sus egresados; altas tasas de titulación o graduación;
profesores competentes en la generación, aplicación y transmisión del
conocimiento, organizados en cuerpos académicos; currículo actualizado y
pertinente; procesos e instrumentos apropiados y confiables para la evaluación
de los aprendizajes; servicios oportunos para la atención individual y en grupo
de los estudiantes; infraestructura moderna y suficiente para apoyar el trabajo
académico de profesores y alumnos; sistemas eficientes de gestión y
administración; y un servicio social articulado con los objetivos del programa
educativo.” (Secretaría de Educación Pública, septiembre
de 2001).
Este texto
posteriormente se consideró como el paradigma de un programa educativo de buena
calidad como se describirá a continuación
La introducción del
Programa Nacional de Educación en su apartado de Educación Superior es retomada
por la Subsecretaría de Educación Superior e Investigación Científica (SESIC),
al integrar los Lineamientos para la formulación del Programa Integral de
Fortalecimiento Institucional (PIFI) que en su Anexo IV menciona a la letra:
“Un programa
educativo de buena calidad cuenta con:
1. Una amplia
aceptación social por la sólida formación de sus egresados.
2. Altas tasas
de titulación o graduación.
3. Profesores
competentes en la generación, aplicación y transmisión del conocimiento,
organizados en cuerpos académicos.
4. Currículo
actualizado y pertinente.
5. Procesos e
instrumentos apropiados y confiables para la evaluación de los aprendizajes.
6. Servicios
oportunos para atención individual y en grupo de los estudiantes.
7. Infraestructura
moderna y suficiente para apoyar el trabajo académico de profesores y alumnos.
8. Sistemas
eficientes de gestión y administración.
9. Y un
servicio social articulado con los objetivos del programa educativo.”
Es así como los
nueve puntos tomaron el nombre de “paradigma de un programa educativo de buena
calidad”, que se volvió referente nacional.
El Programa
Integral de Fortalecimiento Institucional (PIFI), fue un elemento clave para el
impulso de la evaluación y acreditación durante el sexenio 2001-2006 toda vez
que fue un instrumento que ligó la asignación de recursos extraordinarios a la
evaluación de los CIEES o la acreditación de COPAES. De esta manera, el PIFI es
ocupado para la construcción de la metodología de los CIEES, tomando como
referencia lo establecido por la Subsecretaria de Educación Superior e
Investigación Científica (SESIC, 2002).
Algunos de los
aspectos que debe atender un PIFI son:
• La visión a
2006 de la institución y de sus DES.
• La mejora y,
en su caso, el aseguramiento de la calidad de los programas educativos
acreditados o de nivel 1 de acuerdo con la evaluación de los CIEES, de los
diversos niveles que ofrece la institución.
• El auto –
diagnóstico, las recomendaciones de los CIEES y de los comités de evaluación
SEP-CONACyT.
• La superación
académica de su profesorado.
• El desarrollo
y la consolidación de cuerpos académicos.
• La
actualización de planes y programas de estudio y su flexibilización. La
incorporación de enfoques educativos, flexibles y centrados en el aprendizaje
de los estudiantes.
• La mejora de
las tasas de retención, titulación, graduación y la regularización de alumnos
rezagados.
• El seguimiento
de sus egresados.
• El grado de
satisfacción de los empleadores de los egresados de la institución.
• La ampliación
y modernización de la infraestructura de apoyo al trabajo académico de
profesores y alumnos.
• El
mejoramiento de la gestión.
• La ampliación
y modernización de espacios físicos que incidan en la mejora de la calidad de
los programas y servicios de la institución, o en el aseguramiento de esta.
El PIFI y CIEES se
volvieron un elemento cíclico, debido a que el primero fomentaba el proceso de
evaluación de CIEES y los CIEES utilizaban al PIFI para la validación de la
planeación estratégica de las Universidades.
Se consideraron los
distintos marcos de referencia existentes, pero en este momento existió una
separación entre el Modelo V de la evaluación propuesto por el Dr. Jorge
González González, que buscó que este se aplicara a través de los CIEES; este
era un modelo que no permitía la agilidad en su aplicación, el manejo operativo
por parte de cualquier integrante de las universidades debido a su enfoque
epistemológico y la falta de prontitud en los resultados. Dado que el Modelo V
pertenece a la Red Internacional de Evaluadores S.C. (RIEV) que preside el Dr.
González, solo se mencionará como dato de referencia que la creación del Modelo
V, Análisis Estructural Integrativo de Organizaciones Universitarias (AEIOU),
fue creado en el marco de la experiencia de 10 años de trabajo del Comité de
Ciencias Naturales y Exactas (CCNyE) de 1993 a 2003.
Para la
construcción de la nueva metodología, existió influencia del proceso que
llevaba a cabo el Comité de Ciencias Sociales y Administrativas (CCSyA). En
este sentido, el CCSyA trabajaba con la 3ª edición de los Criterios para evaluar
programas educativos de licenciatura y posgrado (CIEES, 2004) y los Criterios
para Evaluar programas académicos de Técnico Superior Universitario o
Profesional Asociado (CIEES / CCSyA, 2001). Estos documentos en
su primera edición contaban con 132 criterios, con una clasificación de
esenciales y recomendables, teniendo 100 criterios esenciales, para ser
utilizados en la clasificación de los programas educativos con posibilidad de
acreditación. Se presentaron dichos criterios en forma de tabla para
sistematizar su análisis, teniendo en la primera columna el criterio
correspondiente y en la columna subsecuente lo revisado por el analista y los
comentarios finales del evaluador; teniendo además documentos de apoyo para la
sistematización de la información como fueron:
1. Información
básica de la IES y de la dependencia
2. Información
necesaria de la IES y de la dependencia
3. Estadísticas
básicas
Por esta razón la
metodología general se presentó en formato de tabla, se clasificaron los
indicadores en Esenciales (E) y Complementarios (C) bajo la premisa de que es
necesario cumplir con los complementarios para impactar en los esenciales,
siendo estos últimos los referentes para la asignación del nivel. Aunado a lo
anterior se desarrollaron otros documentos de apoyo como el cuestionario, el
listado de medios de verificación y un glosario de términos.
Como parte de la
metodología y dada la importancia y trascendencia que adquieren las
recomendaciones como resultado del proceso de evaluación, en 2004, se integró
la síntesis de las aportaciones de los Vocales para entregar el documento que
concentra los aspectos que deben tomarse en cuenta para valorar la calidad de
una recomendación de evaluación diagnóstica; misma que se integra por los
siguientes puntos:
1. Debe emanar y
estar sustentada en una contrastación de la realidad de un programa con los
criterios de evaluación del Comité y no ser solamente una experiencia personal
del evaluador que trata de reproducirla en el caso del programa que está
evaluando.
2. Debe
referirse, por lo general, a criterios esenciales.
3. Debe ser
percibida en la propia autoevaluación y desde luego ser corroborada por el
evaluador en el mismo documento. De esta
manera, el papel de los CIEES se justifica como sustento de un agente externo
para el trabajo de autoridades y funcionarios institucionales.
4. Debe ser un
elemento que se relaciona con otros de la misma condición, esto es, una
recomendación debe relacionarse con otras recomendaciones de manera de formar
una especie de “columna vertebral” en los distintos rubros del Marco de
Referencia para la Evaluación.
5. Debe permitir
o provocar según sea el caso, el avance o la mejora continua del programa, al
fundamentar proyectos específicos de la institución como PIFI, PROMEP,
etcétera.
6. Debe estar
orientada tanto a lograr de manera continua el cumplimiento de la misión y de
la visión del programa.
7. Debe estar
orientada a alcanzar el paradigma de calidad de un programa educativo mediante
las siguientes intenciones:
a. Crear
aceptación social del programa por la sólida formación de sus egresados.
b. Aumentar las
tasas de titulación.
c. Inducir que
los profesores sean competentes en la generación, aplicación y transmisión del
conocimiento.
d. Fomentar la
creación de cuerpos académicos y colegiados.
e. Crear un
currículo adecuado y pertinente.
f. Crear
instrumentos confiables para la evaluación del aprendizaje.
g. Sistematizar
los servicios administrativos.
h. Mejorar la infraestructura
de atención al programa educativo.
i. Crear
sistemas eficientes de gestión y administración.
j. Articular el
servicio social con los objetivos del programa educativo.
En esta etapa, los
términos “criterio” e “indicador” se usaron como sinónimos, hasta que
posteriormente se estableció que el indicar es el conjunto y el criterio es el
aspecto por evaluar del indicador.
Al finalizar los
trabajos, se construyó la metodología general de evaluación integrada por
cuatro ejes de evaluación, 10 categorías y 61 indicadores de calidad. Con el
apoyo de un listado de preguntas y sugerencias de medios de verificación.
I.
Intencionalidad
II.
Estructura
III.
Infraestructura
IV.
Resultados
Las categorías,
ubican los aspectos más relevantes a valorar y su estructura se basa en el
paradigma de un programa educativo de buena calidad. El análisis de las
categorías permitió conocer la situación en la que se encontraba el programa
educativo.
Las categorías por
eje:
Eje I
1.
Normatividad y políticas generales
2.
Planeación y evaluación
Eje II
3.
Modelo educativo y plan de
estudios
4.
Alumnos
5.
Personal académico
6.
Servicios de apoyo a los
estudiantes
Eje III
7.
Instalaciones, equipo y servicios
Eje IV
8.
Trascendencia del programa
9.
Productividad académica
a.
Docencia
b.
Investigación
10. Vinculación con los sectores de la sociedad
Al final de cada
categoría, se solicitaba mencionar las principales fortalezas y áreas de
oportunidad identificadas en la categoría.
Estos son las herramientas
de método que describen y miden la tendencia de una actividad tipificada;
expresan relaciones entre variables y permiten realizar el análisis de los
procesos cognitivos, desde su planeación hasta el impacto de los resultados. Además,
deben ser verificables, pertinentes y específicos, para que tengan capacidad
orientadora y predictiva.
Listado de indicadores por categoría.
Categoría 1. Normatividad y políticas
generales
1. Registro oficial del programa educativo
2. Misión y visión
3. Marco jurídico
4. Políticas de asignación del gasto y
rendición de cuentas
5. Clima organizacional
Categoría 2. Planeación y evaluación
6. Plan de desarrollo de la Dependencia
7. Proyectos de mejoramiento y aseguramiento
de la calidad del programa educativo
Categoría 3. Modelo educativo y plan de
estudios
8. Modelo educativo
9. Fundamentos del plan de estudios
10. Perfil de egreso
11. Plan de estudios
12. Perfil de ingreso
13. Cumplimiento temático del plan de estudios
14. Actualización del plan de estudios y de
las asignaturas
15. Métodos de enseñanza-aprendizaje
16.
Evaluación del proceso de enseñanza-aprendizaje
17. Utilización de tecnologías educativa y de
la información
18. Servicio social
Categoría 4. Alumnos
19. Ingreso de estudiantes
20. Trayectoria escolar
21. Programa de titulación
22. Movilidad e intercambio de estudiantes
23. Programa de educación continua
Categoría 5. Personal académico
24. Personal académico
25. Membresía del personal académico al SNI,
al SNCA o a otros organismos académicos
26. Carga académica diversificada
27. Programa de superación académica
28. Movilidad e intercambio de profesores
29. Evaluación del personal académico
30. Estímulos al desempeño del personal
académico
31. Formas de organización del trabajo del personal
académico
Categoría 6. Servicios de apoyo a los
estudiantes
32. Asesoría de apoyo al aprendizaje
33. Servicios de tutoría en apoyo al
aprendizaje de los estudiantes.
34. Programa de apoyo para la inserción
laboral.
35. Actividades complementarias para la
formación integral
36. Programa de enseñanza de idiomas
37. Programa de becas
38. Reconocimiento a los estudiantes de alto
desempeño
Categoría 7. Instalaciones, equipo y servicios
39. Aulas
40. Espacios para profesores
41. Laboratorios y talleres
42. Instalaciones especiales y espacios para
encuentros académicos
43. Biblioteca
44. Servicios de cómputo.
45. Servicios de apoyo
46. Programa de infraestructura y
mantenimiento de instalaciones y equipos.
47. Programa de seguridad, de higiene y de
protección civil.
Categoría 8. Trascendencia del programa
48. Cobertura social del programa educativo
49. Vínculo permanente egresado - institución
50. Seguimiento de egresados
51. Eficiencia terminal y de titulación
Categoría 9. Productividad Académica
52. Desarrollo de tecnología educativa:
innovaciones y elaboración de recursos de apoyo al aprendizaje.
53. Mejoramiento de la docencia: actualización
pedagógica y/o disciplinaria
54. Participación en encuentros académicos
55. Dirección de tesis, tesinas y proyectos
terminales o profesionales
56. Líneas de generación y aplicación del
conocimiento
57. Creación artística
58. Articulación de la investigación con la
docencia
Categoría 10. Vinculación con los sectores de
la sociedad
59. Vínculos formales
60. Fuentes extraordinarias de financiamiento
61. Evolución del programa
Para finalizar,
después del indicador 61, se incluía una valoración global del programa
educativo que estaba enfocada a emitir un juicio de valor respecto a los nueve
puntos del paradigma de un programa educativo de buena calidad, en términos de presentar
altos, medios o bajos índices de desarrollo.
Las preguntas
facilitan la reflexión, la interpretación y el análisis de cada uno de los
indicadores. La pregunta base es: ¿Cuáles son los problemas que frenan o
inhiben la mejora y el aseguramiento de la calidad del programa educativo?
Los medios de
verificación son las evidencias dónde el comité puede valorar la información
sobre el estado, comportamiento o desempeño de cada indicador durante la
evaluación.
El propósito de la
metodología general de evaluación fue contar con un modelo de evaluación
flexible que permitiera abordar las diversas áreas del conocimiento y
modalidades de la enseñanza en la educación superior, desde una visión
homogénea y prospectiva. Los propósitos específicos fueron definidos
claramente:
·
Sistematizar el uso de los
criterios para valorar los indicadores.
·
Focalizar las observaciones en los
aspectos esenciales que contribuyen a la calidad del programa educativo.
·
Incorporar la figura del
responsable institucional para atender las recomendaciones y reportar sus
avances.
·
Asegurar la correcta
interpretación del sentido de las recomendaciones.
·
Facilitar el seguimiento de las
recomendaciones.
·
Contar con un método para agrupar
los programas educativos en niveles de calidad para su acreditación.
·
Reconocer y difundir las buenas
prácticas institucionales.
La evaluación
diagnóstica identificó la situación en la que se encontraba el programa
educativo y detectó la problemática existente, así como las áreas de
oportunidad. Las recomendaciones se proponían para lograr un cambio de mediano
a largo plazo para obtener la situación “deseada” del programa educativo. (CIEES, 2005).
Con el trabajo
realizado por parte de los vocales y eventualmente con la opinión de los
asistentes de cada comité, se finalizó el documento en 2004, llegando al
acuerdo de que los Comités lo aplicaran de manera aleatoria en sus procesos de
evaluación, para validar su correcta aplicación y funcionamiento. Mientras
algunos comités lo aplicaron eventualmente; el CCSyA, adoptó la metodología general
de evaluación en todos sus procesos a partir de ese momento por lo cual generó
experiencia en su aplicación en comparación de los otros comités.
Después de haber
sido utilizada durante 2004 y validar que cumpliera sus propósitos, el 20 de
mayo de 2005 (20/05/2005) se aprueba la Metodología General de Evaluación
CIEES.
En 2005, el Comité
de Ciencias Sociales y Administrativas (CCSyA) por haber evaluado más programas
educativos con la nueva metodología, fue el responsable de realizar las
capacitaciones de autoevaluación a nivel nacional, estas capacitaciones, fueron
responsabilidad del Mtro. Ubaldo Ramírez Javier quien posteriormente fungiera
como Asistente Técnico de la Coordinación General de los CIEES.
A las universidades
interesadas en evaluarse, se les entregaba un manual para la autoevaluación en
donde se explicaba cómo integrar la información para el proceso de evaluación,
sin embargo, al recibir la información en los CIEES, se identificaban errores
comunes al llenar la tabla guía de autoevaluación, por ejemplo, la conformación
de la tabla- guía, contenía en la segunda columna preguntas y en la tercera
columna, los medios de verificación; esto se convirtió en un distractor, lo que
dificultaba que la IES elaborara una autoevaluación objetiva, ya que buscaban
solo responder las preguntas y colocar únicamente los documentos probatorios
que se encontraban mencionados, lo cual generó que no se respondiera
adecuadamente y que incluso redactaran que no contaban con medios probatorios
solicitados. Es así como surge la necesidad de eliminar dichas columnas y
fortalecer la explicación mediante cursos – talleres de autoevaluación
Lo principal que se
explicaba en estos cursos fue que cada indicador contenía tres elementos que se
debería de identificar claramente: el nombre, el indicador y el criterio de
evaluación, lo cual se incorporó en un nuevo documento que se llamó “Uso de la
tabla guía de autoevaluación”.
2. Misión y visión
a) Correspondencia de los objetivos y metas del programa
educativo con la misión y visión de la institución y/o de la unidad
académica.
b) Alcance de la difusión de la
misión y visión a toda la comunidad de la institución.
|
El conjunto que se
encuentra en el cuadro se denomina “Indicador”. Seguido del número “2.” se
identifica el nombre del indicador. Posteriormente con letras subrayadas en
negritas, se tiene el criterio de evaluación, mismo que le da sentido al
indicador, también se puede entender como el atributo del indicador que
permitirá tener un punto de partida para emitir un juicio de valor con relación
al cumplimiento de este.
La esencia de una
autoevaluación radica en emitir un juicio de valor relacionado con cumplimiento
en cada uno de los 61 indicadores, para ello, cada indicador cuenta con un
criterio de evaluación. Una vez que se emite el juicio de valor, se realiza una
descripción que justifique el juicio de valor y se deben mencionar los
documentos probatorios, con lo que se demostrará el cumplimiento del indicador.
Como estrategia, cada afirmación dada en la justificación debe tener un medio
probatorio que le de validez.
De la misma manera
que se identificaron inconsistencias en las autoevaluaciones, que dieron origen
al curso de autoevaluación, también se identificaron fallas en la redacción de
los informes de evaluación, por lo cual se consideró la necesidad de capacitar
a los evaluadores en el uso de la metodología general de evaluación.
El padrón de
evaluadores existente debía realizar el proceso de evaluación con base en su
experiencia previa (los marcos de referencia), pero cuando entregaban los
informes de evaluación, se identificó que había comentarios subjetivos o en
ocasiones daban interpretación diferente a los indicadores. Es aquí en donde
surge la necesidad inminente de capacitar a los evaluadores, esto en función de
la forma de leer y comprender los criterios de evaluación.
De la misma manera
que se les explicó a las IES el tema referente al uso de la tabla guía, se
realizó el enfoque necesario para capacitar a los evaluadores en el uso
correcto de los indicadores y en esencia poder emitir un juicio de valor
correspondiente a la evaluación de los programas educativos.
Para exponer esta
situación, se presenta una explicación de los indicadores:
Existen tres tipos de
indicadores con base a su redacción, aspecto que se debe de identificar antes
de emitir el juicio de valor.
Ejemplo
Evaluación del personal académico
Idoneidad y diversidad de los procedimientos
colegiados para la evaluación del personal académico considerando la
participación de los alumnos.
|
Su característica
es que los tres elementos (nombre, indicador y criterio de evaluación) están
integrados; es decir no existen subdivisiones o incisos dentro del indicador.
Por lo cual, en este ejemplo el criterio de evaluación corresponde con
“Idoneidad” y “diversidad”.
Ejemplo
Misión y visión
a) Correspondencia
de los objetivos y metas del programa educativo (ver glosario) con la misión
y visión de la institución y/o de la dependencia de educación superior.
b) Alcance de
la difusión de la misión y visión a toda la comunidad de la institución.
|
Su característica
radica en que cada inciso corresponde a una división del indicador, por lo
cual, se deben emitir juicios de valor de todos los incisos de manera separada.
Los criterios de evaluación son “correspondencia” y “alcance”.
Ejemplo
Marco Normativo Institucional
Efectividad de las disposiciones normativas que regulan el
desarrollo del programa educativo, en relación con:
a) el personal directivo
b) el personal académico;
c) los estudiantes;
d) el personal técnico de
apoyo;
e) el plan de estudios y los
procesos de enseñanza-aprendizaje;
f) el uso, servicio y
mantenimiento de la infraestructura;
g) las diversas formas de
organización del trabajo del personal académico;
h) el desarrollo de la
investigación;
i) el desarrollo de la
vinculación;
j) el desarrollo de la
difusión y la extensión;
k) la celebración de
acuerdos con organismos de los sectores público y privado;
l) la orientación a los
responsables del programa sobre el desarrollo de la docencia.
|
La característica
de este indicador es que además de tener los elementos esenciales (nombre,
indicador y criterio de evaluación) se incluyen incisos que son sugerencias
para identificar los aspectos a evaluar. En el ejemplo podemos identificar “la
efectividad” (como criterio de evaluación) de las disposiciones normativas que
regulan el desarrollo del programa educativo y como sugerencia se mencionan
diferentes incisos, es decir que no necesariamente se tienen que evaluar todos
los incisos, sino que estos son enunciativos; esto es porque no todas las IES
cuentan con la misma cantidad de reglamentos y por ende no podríamos penalizar
la ausencia de un elemento que se encuentra en un listado genérico; de la misma
manera que no se podrá dar una mejor puntuación en el caso de que tenga más
elementos de los listados.
Uno de los
indicadores que se debió explicar en los talleres de formación de evaluadores
fue el de Modelo Educativo porque generó recomendaciones subjetivas en algunos
informes:
8. Modelo educativo
Efectividad y pertinencia entre la concepción
teórica del Modelo educativo (ver glosario) y su aplicación en el proceso de
enseñanza-aprendizaje y su relación con las capacidades genéricas que se
refieren a:
a) habilidades de aprender a
aprender, de aprendizaje a lo largo de la vida y de integración a un ambiente
multicultural;
b) desarrollo de competencias profesionales;
c) manejo de conocimientos e integración multi e interdisciplinaria;
d) formación integral con actitudes y valores;
e) articulación de las funciones sustantivas: docencia,
investigación, difusión, extensión y vinculación.
|
Cuando se clasifica
este indicador en una de las tres opciones anteriores, identificamos que
pertenece al denominado “indicador con sugerencias” pero algunos evaluadores lo
interpretaban erróneamente como “indicador dividido”; El criterio de evaluación
es: “efectividad” y “pertinencia” pero en algunos casos, el evaluador tomo como
criterio de evaluación el inciso b) “desarrollo de competencias profesionales”;
esto generó que algunas recomendaciones fuesen en el sentido de “Implementar un
modelo educativo por competencias”.
En el proceso de
evaluación de los CIEES, se cuidaba no hablar del “deber ser” sino analizar el
contexto institucional y emitir recomendaciones que contribuyeran a mejorar la
calidad, en este sentido, el criterio de evaluación es claro:
“Efectividad y
pertinencia entre la concepción teórica del Modelo educativo y su aplicación en
el proceso de enseñanza aprendizaje”; los incisos se vuelven parte de las
opciones a considerar, pero no son la esencia del indicador.
La metodología
general de evaluación es de programas educativos, por lo cual no se puede
recomendar algún aspecto que implique la modificación de un esquema
institucional, por ejemplo, - ¿qué haría una universidad cuando el comité de
educación recomienda que se adopte un modelo constructivista y el comité de
ingeniería recomienda un modelo por competencias? – Este ejemplo sirve para
diferenciar la evaluación de programas educativos, con respecto a la evaluación
del Comité de Administración y Gestión Institucional, quien podría tener la
facultad de recomendar algo referente a la modificación del modelo educativo;
los comités disciplinares solo podrían enfocarse a la efectividad y pertinencia
del modelo educativo.
Estos talleres de
formación de evaluadores se enfocaron a explicar los indicadores, así como las
estrategias a seguir en las entrevistas durante la visita de evaluación. El
último tema se enfocó a la redacción de las recomendaciones.
Lo más importante
de todo el proceso de evaluación diagnóstica, más allá de los niveles 1, 2 y 3
del programa, son las recomendaciones emitidas en el informe de evaluación.
Las recomendaciones
que se emitían para mejorar la calidad de los programas educativos es la
síntesis del proceso de evaluación y dada su importancia, era un elemento que
debían saber realizar correctamente los evaluadores.
Las recomendaciones
se integran por tres elementos integrados en una tabla de 3 columnas:
a)
Recomendación: debe iniciar con un verbo en infinitivo que indique una acción realizable
y medible que contribuya a mejorar la calidad del programa educativo evaluado.
b)
Justificación: es la descripción sobre la situación del programa educativo y el no
cumplimiento de un indicador; se puede entender como el juicio de valor emitido
con relación al cumplimiento del indicador.
c)
Sugerencia de operación: son instrucciones prácticas que guían a la IES para poder atender la
recomendación.
Estos tres
elementos deben ser congruentes entre sí y solo se deberán emitir, cuando no se
cumpla el indicador. Parte de la importancia de las recomendaciones radicaba en
que eran utilizadas para emitir el nivel del programa educativo evaluado; fueron
los insumos de las IES Públicas para la solicitud de recursos extraordinarios y
fueron su base para la construcción del PIFI.
La visita de
evaluación por parte de los pares evaluadores, constituía el momento para
contrastar la información vertida en la autoevaluación con la realidad del
programa educativo a través de entrevistas con los distintos actores y el
recorrido por las instalaciones universitarias. La visita de evaluación tenía
una duración de tres días, pero la evaluación iniciaba con el análisis de la
autoevaluación por parte de los pares evaluadores, por lo menos tres semanas
antes de la visita in situ.
Ejemplo de la
agenda de visita de evaluación.
Primer Día
HORA
|
ACTIVIDAD
|
REQUERIMIENTOS
|
11:00
|
Traslado de
los evaluadores a la sede del programa
|
La
Institución de Educación Superior trasladará a los evaluadores.
|
14:00
|
Arribo al
Hotel Sede.
|
14:30 – 16:30
|
Receso
|
Comida de los
evaluadores
|
17:00 – 17:30
|
Traslado de
los evaluadores a la Institución de Educación Superior (IES)
|
La IES se
encargará de todos los traslados.
|
17:30 – 18:00
|
Presentación
de los miembros del Comité de los CIEES con los directivos institucionales.
|
Deberán estar
presentes los responsables directos (Coordinadores o jefes de Carrera) de los
programas educativos y las autoridades que la Institución de Educación
Superior considere.
|
18:00 – 19:30
|
Reunión con
egresados (pasantes y graduados) del programa educativo.
|
·
Deben participar un
promedio de diez egresados
·
De las últimas 5
generaciones.
·
Las autoridades de la
Institución No deben estar presentes durante las entrevistas
|
19:30 – 20:00
|
Traslado al
hotel sede.
|
La IES se
encargará de todos los traslados.
|
20:00
|
Cena
|
Solamente
participan los comités de evaluación.
|
Segundo Día
HORA
|
ACTIVIDAD
|
REQUERIMIENTOS
|
08:00 – 09:30
|
Desayuno de
trabajo con empleadores (empresarios y funcionarios gubernamentales)
|
·
Que hayan contratado
egresados del programa educativo o que se hayan beneficiado de que sus
empleados cursaran el programa.
·
Preferentemente, el
desayuno se debe realizar en el hotel sede.
·
Entre 5 y 10 de los más
representativos,
·
Las autoridades de la
Institución No deben estar presentes durante las entrevistas
|
09:30 – 10:00
|
Traslado de
los evaluadores a la IES
|
La IES se
encargará de todos los traslados.
|
10:00 – 11:30
|
Reunión con
alumnos de diferentes ciclos y grupos escolares.
|
·
Deben participar en
promedio doce alumnos
·
Alumnos regulares e
irregulares
·
Considerar todos los
ciclos escolares
·
Que no participen
en comisiones especiales en la dependencia o en la institución.
·
Las autoridades de la
Institución No deben estar presentes durante las entrevistas
|
11:30 – 13:00
|
Reunión con
profesores de diferentes categorías y asignaturas.
|
·
Deben participar en
promedio 10 profesores
·
De diferentes tipos de
contratación
·
De distintos turnos
·
Que no ocupen cargos
administrativos en la unidad o la institución.
·
Las autoridades de la
Institución No deben estar presentes durante las entrevistas
|
13:00 – 14:30
|
Recorrido por
las instalaciones donde se desarrolla el programa educativo.
|
Se visitarán:
aulas, biblioteca, salas de cómputo, laboratorios específicos, cubículos,
control escolar y lugares que brinden algún servicio al programa educativo
evaluado.
|
14:30 –
16:00
|
Receso
|
Comida de los
evaluadores (puede ser en conjunto con las autoridades de la IES)
|
16:30 – 19:00
|
Revisión de
carpetas de medios de verificación, el Coordinador o jefe de Carrera deberá
estar a disposición en caso de requerirse información adicional.
|
Debe tener
disponible las carpetas de la autoevaluación y su información básica (presupuestos,
manuales, estadísticas escolares, plantillas y expedientes de personal, convenios,
trabajos recepcionales, etc.)
|
19:00 – 19:30
|
Traslado al
hotel sede.
|
La IES se
encargará de todos los traslados.
|
20:00
|
Cena
|
Solamente
participan los comités de evaluación.
|
Tercer Día
HORA
|
ACTIVIDAD
|
REQUERIMIENTOS
|
07:30 – 08:30
|
Desayuno de
los Comités evaluadores
|
Solo
participa el Comité de evaluación.
|
08:30 – 9:00
|
Traslado a la
Universidad
|
La IES se
encargará de todos los traslados.
|
09:00 – 13:30
|
Revisión y
llenado de la Tabla Borrador del Informe Final.
|
Solo
participan los comités de evaluación.
Se solicita
un área adecuada, con las carpetas de evidencias y una computadora con
impresora. Se reunirán los comités de evaluación en un mismo espacio.
|
13:30 – 14:00
|
Lectura del
Informe de observaciones preliminares.
|
Deberán estar
presentes: Directivos, coordinadores y responsables de comisiones o de
proyectos académicos
|
14:00 -15:00
|
Receso Final
|
Comida de los
evaluadores (puede ser en conjunto con las autoridades de la IES)
|
15:00
|
Traslado. Regreso
a la Ciudad de origen
|
La
Institución de Educación Superior sede se encargará de todos los traslados.
|
Posterior a la
visita de evaluación, los evaluadores debían finalizar la redacción del informe
de evaluación, esto a cargo del evaluador analista. El promedio de tiempo para
esto no debería exceder un mes posterior a la visita; este informe tendría que
ser revisado y validado por el Comité respectivo y ser turnado al área de
corrección y estilo, previo a su firma y envío a la IES. Por tal motivo, se puede inferir
que la evaluación diagnóstica de un programa educativo, una vez que se
entregaba la autoevaluación, requería de al menos tres meses de trabajo para
culminar el proceso de entrega del informe, con esto se reducía sustancialmente
el tiempo que se demoraba anteriormente este proceso.
Uno de los
propósitos de la metodología general de evaluación fue poder sistematizar el
proceso y homologar la forma de asignar los niveles de calidad, siendo que los
marcos de referencia no habían sido construidos con la finalidad de asignar un
nivel.
Para la asignación
del nivel, fue necesario definir una metodología que evitara un resultado
subjetivo, buscando así homologar los criterios entre los distintos comités
para su asignación. Esta actividad estaba a cargo de los asistentes de los comités,
liberando a los evaluadores de tener la responsabilidad de calificar o
clasificar al programa educativo evaluado.
Bajo esta premisa
se construyó el instrumento “formato para la asignación de nivel” (Solana Ortiz
& Ramírez Javier); este constaba de tres archivos; un documento de texto
con la explicación de cómo realizar el cálculo de nivel; una hoja de cálculo
para asentar los registros obtenidos del informe de evaluación, mismo que
integraba una base de datos de cada uno de los Comités; y un tercer documento
de texto vinculado a la base de datos, que permitía emitir el reporte de nivel en
una hoja membretada ya con el formato necesario para su entrega.
A manera de
resumen, el nivel era asignado en función de 36 indicadores, mismos que
correspondía con los definidos como “esenciales”. Para la integración de la base de datos, se
definió una escala de calificación en el mismo esquema que la asignación del
nivel, es decir, la ponderación para cada uno de los 36 indicadores requería
colocar un valor numérico.
Se debía asignar “1”,
cuando el indicador estaba cumplido. Se asignaba “2”, cuando existía avances en
el cumplimiento del indicador y por último se asignaba “3”, cuando el indicador
no se cumplía.
La base de datos y
el documento de texto que se encargaban de emitir el documento con el nivel
asignado funcionaba mediante cálculos matemáticos simples:
• Se obtienen
los límites superior e inferior (el mayor y el menor puntaje que se pueden
lograr)
• El límite
superior es igual a 36 indicadores de evaluación por 3 que es el grado de
apreciación mayor, esta operación nos da como resultado 108 puntos.
• El límite
inferior es igual a 36 indicadores de evaluación por 1 que es el grado de
apreciación menor, esta operación nos da como resultado 36 puntos.
• Se
contabilizan los cómputos en función del límite superior y el límite inferior a
partir de una lista en orden descendente, desde el número 36 hasta el 108
existen 72 cómputos lo que da como resultado que N=72.
• Se obtiene el
25% de 72 que es igual a 18 cómputos de la lista ordenada es decir del 108
hasta el número 90.
• Se obtiene el
50% de 72 que es igual a 36 cómputos de la lista ordenada a partir del número
90 que llega hasta el cómputo 54.
• Se obtiene el
25% de 72 que es igual a 18 cómputos de la lista ordenada a partir del número
54 que llega hasta el 36.
• Una vez
realizado lo anterior se obtiene la escala de asignación de nivel:
Rango
|
Nivel de Asignación
|
Significado de Calidad
|
36 a 54
|
1 (UNO)
|
Acreditable a corto plazo
|
55 a 90
|
2(DOS)
|
Acreditable a mediano plazo
|
91 a 108
|
3 (TRES)
|
Acreditable a largo plazo
|
Con la construcción
de la base de datos en un archivo de Excel, se sistematizaron los cálculos con
fórmulas lógicas para que el documento de texto emitiera el resultado por
escrito mencionando el nivel obtenido, sin necesidad de mostrar los cálculos
matemáticos para su obtención. Esta hoja de cálculo se cotejaba contra el
informe final de evaluación para validar que en los indicadores que se
asentaron valores de 2 y 3, siempre existiera una recomendación que justificara
la calificación dada, al no existir una recomendación que lo hiciera, ameritaba
volver a hacer el cálculo correspondiente.
Como se mencionó anteriormente,
los CIEES fueron el resultado de la necesidad de mejorar la calidad de la
educación superior en las Universidades Públicas. Pero también se estableció
que para la acreditación por parte de un organismo de COPAES era necesario
contar con el Nivel 1 que otorgaban los CIEES. Esto dio origen a que las
Instituciones de Educación Superior Particulares (IESP) se sometieran a los
procesos de evaluación con los CIEES.
Lo que marcó esta
necesidad de manera puntual, fue la Universidad Virtual del Tec de Monterrey, en
específico con los posgrados en línea que no podían ser acreditados por COPAES
(por ser posgrados) y CONACyT no consideraba los posgrados en línea.
En enero de 2006,
la Universidad Virtual del Instituto Tecnológico de Estudios Superiores de
Monterrey (ITESM) se acerca a CIEES con la intención de buscar un proceso de
evaluación para sus programas educativos de posgrado, ellos habían buscado
previamente este proceso con el Consejo Nacional de Ciencia y Tecnología
(CONACyT) y con el Consejo Mexicano de Estudios de Posgrado (COMEPO) pero no
habían logrado que alguno de estos determinara un proceso de evaluación para la
Universidad Virtual. (Escamilla, 2006) Consideraron que los 15 años de
experiencia de los CIEES y la reciente unificación de los criterios de
evaluación para cualquier área del conocimiento, era lo más adecuado para un
trabajo colaborativo que llevase buen término la necesidad de evaluación de los
programas educativos no escolarizados.
En mayo de 2006, en
Manzanillo Colima, en el marco de la 7ª Reunión Nacional de Educación Abierta y
a Distancia, se presentó la Metodología 2006 para la evaluación de programas de
educación superior en modalidades mixtas y no escolarizadas. Este nuevo
documento tenía como base los 61 indicadores de la metodología general, pero
con adecuaciones en algunos indicadores para enfocarse a las modalidades no
escolarizadas y mixtas.
Durante 2006 y 2007
se evaluaron 17 programas educativos con este instrumento, lo que sirvió para
identificar que la adecuación de los 61 indicadores no era suficiente para la
evaluación de programas educativos a distancia mediados por plataformas
tecnológicas.
También es
importante señalar que diversas instituciones se encontraban desarrollado
estrategias e instrumentos para la evaluación de la calidad de estas
modalidades. Por lo anterior, se acordó desarrollar un proyecto de colaboración
interinstitucional ANUIES–CIEES, para sumar experiencias en materia de
educación a distancia. Para este trabajo, se integró un equipo
interinstitucional y como resultado se obtuvo la metodología CIEES para la
evaluación de programas educativos a distancia, misma que se conformó con 80
indicadores, 11 categorías y cuatro ejes de evaluación. Esta metodología
incorpora 23 indicadores diferenciales de la metodología general y la categoría
11 que se enfocó al funcionamiento de la plataforma tecnológica educativa.
La cultura de la
evaluación fue creciendo y con ello la demanda de evaluación por parte de los
distintos subsistemas de educación superior. La metodología general de 2005 fue
la base de evaluación para las Universidades Públicas, pero al igual que
sucedió con la educación a distancia, fue necesario crear adecuaciones a la
metodología general, para atender la diversidad de instituciones de educación
superior del país, creándose las siguientes metodologías específicas:
1. Metodología de Evaluación de Educación a
Distancia
2. Metodología para IES Particulares
3. Metodología para modalidades mixtas
4. Metodología CIEES Sistema de Enseñanza Abierta
(SEA)
5. Metodología CIEES Universidades
Interculturales
6. Metodología Escuelas Normales
7. Metodología para Técnico Superior
Universitario o Profesional Asociado.
8. Metodología para la Evaluación de Posgrados
9. Metodología para la Evaluación de Posgrados
modalidad a distancia
Dadas las
características de cada uno de los documentos, los indicadores esenciales
podrían variar en cuanto a cantidad, pero la asignación de nivel se replicó
conforme a la metodología de asignación definida, pero ajustando los cálculos,
en función de la cantidad de indicadores esenciales de cada metodología.
COPAES nace dentro de la administración de CIEES y la
primera clasificación de calidad (niveles 1, 2 y 3) de los CIEES se realizó en
función de poder establecer el proceso de acreditación con COPAES.
Las universidades que lograron la acreditación de sus
programas con los organismos acreditadores de COPAES, necesitaron contar con la
evaluación diagnóstica de CIEES con resultado en nivel 1 y la recomendación de
continuar con el proceso de acreditación. Aspecto que cambiaría a partir de
2010.
Los CIEES desde su creación, tenían la facultad de
acreditar la calidad de la educación superior; sin embargo, al no existir la
cultura de evaluación, en CIEES deciden solo ejercer la evaluación diagnóstica
para mejorar la calidad y después incursionar en la acreditación. COPAES tiene
su origen como agencia de segundo nivel, es decir, no es responsable de la
acreditación, sino que es responsable de reconocer a los organismos
particulares, que se encargarían de realizar el proceso de evaluación con fines
de acreditación de los programas educativos. Es por ello, que CIEES y COPAES
podían operar en conjunto, porque no eran juez y parte dentro del proceso de
evaluación diagnóstica (CIEES) y la acreditación de los programas educativos
(Organismos privados reconocidos por COPAES).
El antecedente para que se diera esta separación se tuvo en
marzo de 2006, ya que la Organización para la Cooperación y el Desarrollo
Económico (OCDE, 2006), a través de la división de políticas de educación,
realizó el análisis de la educación superior en México. El propósito de este análisis fue favorecer
en el diseño y puesta en marcha de políticas de educación terciara;
considerando como educación terciaria a los niveles 5B, 5A y 6 de la
Clasificación Internacional Normalizada de Educación (CINE).
En las entrevistas realizadas a las distintas instancias
involucradas en la educación superior, la OCDE identifica tres instancias
encargadas de fomentar la calidad de la educación, CIEES; COPAES y CONACyT,
pero no comprendía la razón por la cual el Coordinador General de los CIEES,
también era el director de COPAES. Como parte del análisis identifican la
necesidad de la separación organizacional de estos y también la necesidad de
dar personalidad jurídica para CIEES; de esta manera comienza el análisis para
realizar la separación de CIEES y COPAES, siendo hasta el 26 de febrero de 2010
que la Asamblea General del COPAES aprueba la separación de CIEES. A la par se
comienza a trabajarse en el Acta Constitutiva de los CIEES como Asociación
Civil.
En el año 2010, COPAES tomó una nueva administración. Los
CIEES tienen por objetivo Contribuir a mejorar la calidad de la educación
superior, a través de procesos de evaluación diagnósticas interinstitucionales
(por pares) y COPAES, tiene por objetivo dar reconocimiento oficial los
organismos acreditadores de educación superior. En este sentido, se podría
comparar a CIEES con los organismos acreditadores que agrupa COPAES. La función
principal de los CIEES es la evaluación diagnóstica; la función principal de los
organismos de COPAES es la acreditación. La Evaluación Diagnóstica lo definen
los CIEES como: “Proceso de evaluación que tiene tres fases: Autoevaluación,
Visita de pares externos, Redacción de un informe sobre la situación que guarda
la institución”; este informe está basado en el trabajo de pares académicos y
contiene las recomendaciones pertinentes para mejorar la calidad de la
educación. La Acreditación lo define la Subsecretaría de Educación Superior de
la siguiente manera: “En el caso de los programas de estudio se refiere a la
validación por parte de un organismo, de que se cumplen los requisitos mínimos
de calidad”. Con estas dos definiciones, se puede inferir que la evaluación
diagnóstica de CIEES tiene como finalidad mejorar la calidad de la educación
superior y la acreditación: validar que se cumplen con requisitos mínimos de
calidad.
Retomando lo escrito anteriormente, es importante recordar
que los CIEES nacen en 1991 y COPAES en 2000; en sus primeros 10 años de vida,
COPAES funcionó con la infraestructura de los CIEES; es decir, el Coordinador
General de los CIEES, fungió como director general de COPAES, de la misma
manera, la infraestructura de los CIEES albergó a COPAES; por ello existe una
estrecha vinculación entre ambos.
En el Noveno Foro de Evaluación Educativa, organizada por
CENEVAL en colaboración con COAPES, (este último, ahora bajo la dirección del
Ing. Luis Eduardo Zedillo Ponce de León); se presentaron diversas ponencias,
principalmente presentadas por los presidentes de los organismos acreditadores
de COPAES, en donde manifestaron reiteradamente que no es necesario contar con
el nivel 1 de los CIEES para someterse un proceso de acreditación por un
organismo acreditador. Dichas afirmaciones generaron incertidumbre en los
participantes, quienes en su mayoría representaban a los responsables de
evaluación y acreditación de las distintas Instituciones de Educación Superior,
esto porque desde la creación de COPAES, se fomentó que era necesario contar
con la evaluación diagnóstica de CIEES con el resultado de nivel 1.
Durante este foro, organizado por Ceneval y COPAES, se
realizó la propuesta de que calidad de la educación superior sea reconocida por
la acreditación de COPAES y los resultados sobresalientes de los exámenes de
egreso de Ceneval. Por ello, los organismos acreditadores incluyeron dentro de
sus criterios los resultados del EGEL como indicador de calidad. El director de
Ceneval dio a conocer su postura respecto a la calidad de la educación superior
lo que llevó a los participantes a inferir que lo único que se necesitaba eran
los exámenes de Ceneval y el proceso de acreditación con COPAES; dejando en
segundo plano a los CIEES.
Como se ha mencionado con anterioridad, las políticas
públicas, han marcado el desarrollo de los procesos de evaluación y
acreditación, el origen de la metodología general de evaluación radica
principalmente en lo establecido en el programa nacional de educación 2001 -
2007
Para
este periodo de separación de CIEES y COPAES, el Programa Sectorial de
Educación 2007 - 2012 ya definía el criterio para determinar la calidad de un
programa educativo; que se establece en:
“Objetivo
1. Elevar la calidad de la educación para que los estudiantes mejoren su nivel
de logro educativo, cuenten con medios para tener acceso a un mayor bienestar y
contribuyan al desarrollo nacional.” (Secretaría de Gobernación, 2008)
Este objetivo, tuvo definida su meta como el porcentaje de
matrícula en programas de educación superior de calidad. Teniendo como nota
aclaratoria:
“Se consideran programas de calidad aquellos
que alcanzan el nivel 1 que otorgan los Comités Interinstitucionales para la
Evaluación de la Educación Superior y/o que son acreditados por el Consejo para
la Acreditación de la Educación Superior. Los Comités Interinstitucionales para
la Evaluación de la Educación Superior asignan nivel 1, 2 o 3 a los programas
que evalúan, siendo el nivel 1 el único que certifica que el programa es de
calidad”. (Secretaría de Gobernación, 2008)
Con esta nueva política, ya no es necesaria la evaluación
diagnóstica con nivel 1 para buscar la acreditación, por lo cual, las IES
podrían acreditar sus programas educativos sin la necesidad de evaluarse por
CIEES, pero para fines de reconocimiento de la calidad, se deja la decisión
abierta respecto a solicitar la evaluación diagnóstica o la acreditación debido
a que un programa de calidad es aquel que logra el nivel 1 de CIEES y/o la acreditación
de un organismo de COPAES. En este sentido la "o" de CIEES y/o COPAES
es lo que ha dado el mismo valor a las funciones de las dos instancias; es
decir, para el Programa Sectorial de Educación 2007-2012 es lo mismo un
programa en nivel 1 por CIEES que un programa acreditado. Entonces la IES es
quien determina con qué instancia buscar el reconocimiento de calidad de sus
programas educativos, siendo que aun cuando son procesos y objetivos
diferentes, el valor final es el mismo.
Para las IES, tomar la decisión entre la evaluación
diagnóstica y la acreditación se definía de acuerdo con las siguientes
características: La acreditación, socialmente tiene mayor aceptación contra el
“Nivel 1 de calidad”; pero la acreditación tiene costo, en ese entonces
aproximadamente de $100,000.00 por programa educativo mientras que la
evaluación diagnóstica no tenía costo directo, solo deberían hacerse cargo de
los viáticos y estancia de los evaluadores. La acreditación implicaba un
instrumento de acreditación por área del conocimiento, mientras que la
evaluación diagnóstica solo utilizaba un instrumento, independientemente del
área del conocimiento.
Como parte de la
última actualización de la metodología general de evaluación, se incorporaron
nuevos documentos de apoyo que se enlistan a continuación:
1.
Criterios de evaluación. Este documento contenía los atributos del indicador con una
definición para el apoyo de los evaluadores a emitir su juicio de valor.
2.
Análisis académico del plan de
estudios. Este instrumento fue creado como un apoyo
didáctico para que los evaluadores realizaran la evaluación del plan de
estudio, esto porque se identificó falta de conocimientos respecto a diseño
curricular.
3.
Guía práctica de apoyo para la
visita de evaluación. Consistía en una tabla con seis
columnas, la primera contenía los indicadores, la segunda un marco de
referencia para contextualizar la razón del indicador y las siguientes columnas
indicaban en qué carpeta se podría encontrar la información o preguntas
orientadoras para realizar las entrevistas a los alumnos, profesores, egresados
o empleadores.
Ejemplo:
Indicador 1. Registro oficial del programa educativo.
Marco de referencia: Todo programa educativo debe pertenecer al Sistema Educativo Nacional
(SEN), este se logra de tres maneras: siendo una Universidad Pública;
obteniendo una incorporación a una Universidad Pública o mediante el
Reconocimiento de Validez Oficial de Estudios (RVOE) que puede ser estatal o
federal. Para garantizar que el programa pertenece al SEN, el programa debe
estar registrado ante la Dirección General de Profesiones (DGP). Es
indispensable que se mencione en el informe de evaluación, el número de
registro que otorga la DGP.
Donde encontrar: se corrobora en la revisión física de la carpeta 1.
4.
Síntesis cuantitativa del
programa educativo. Este documento extraía los datos
numéricos que se solicitaban en los indicadores de evaluación, esto facilitaba
el análisis de la información.
5.
Guía de entrevistas de
evaluación. Se tenía una guía de preguntas ligada a
cada indicador, para cada uno de los actores de la visita de evaluación, es
decir, alumnos, profesores, egresados y empleadores.
En esta época se
contó con el apoyo del Dr. Santos Jadiel Castro Villatoro, de la Universidad de
Ciencias y Artes de Chiapas (UNICACH) quien entregó el primer software que
permitiría trabajar la autoevaluación de manera remota desde las universidades
y esta se almacenaría en un servidor dentro de CIEES.
A partir de la
separación de COPAES; los CIEES comenzaron a tramitar su acta constitutiva para
poder tener la personalidad jurídica que se mencionó durante el análisis que realizó
la OCDE, en dicha acta constitutiva, se reafirma que los CIEES tienen la
facultad de acreditar la calidad de los programas educativos de nivel superior.
La separación de
COPAES, afectó en las finanzas de los CIEES; siendo que en su inicio contaba con
un presupuesto asignado para ambas instancias, pero con la separación, el
presupuesto fue dividido para cada uno. Al constituirse los CIEES como una
Asociación Civil, su presupuesto sufrió una disminución lo que se vio reflejado
en un recorte de personal, así como replantear la gratuidad de la evaluación,
surgiendo así le necesidad de cobrar por los servicios de evaluación.
Considerando una comparativa de costos, los CIEES establecieron una cuota en
promedio 50% por debajo de la cuota de los organismos acreditadores, sin embargo,
había una diferencia para las IES, el organismo de COPAES otorgaba un documento
que lo acreditaba como programa de calidad, mientras que CIEES solo entregaba
un documento con el Nivel 1 de calidad. Por ello, los CIEES comienzan con el
cambio de significado y definir sus procesos de acreditación.
En esta transición,
el nivel 1 dejó de referirse como programa acreditable a corto plazo, en su
lugar, el significado que se le dio fue: “Buena calidad” definido como “Programa
educativo que cuenta con todos los requisitos de un programa educativo de buena
calidad (Nivel 1), es decir, cumple con todos los indicadores establecidos en
los Marcos de Referencia de los CIEES y de los organismos acreditadores reconocidos
por COPAES”.
Teniendo también la
leyenda de “Esta clasificación se incorpora en el Padrón Nacional de los
Programas de Educación Superior Reconocidos por su Buena Calidad de los CIEES,
con vigencia por cinco años.” (CIEES, 2013)
Para 2013 se inició
el proceso denominado Acreditación Institucional, siendo los CIEES los únicos
en poder realizar una acreditación a las IES Públicas; similar a lo que realiza
la Federación de Instituciones Mexicanas Particulares de Educación Superior (FIMPES)
que acredita instituciones de educación superior, pero sólo de régimen
particular.
Este proceso dentro
de CIEES lo llevaba a cabo el Comité de Administración y Gestión Institucional
(CAyGI) y a partir de las primeras IES acreditadas por CIEES, se implementó la
evaluación diagnóstica con fines de acreditación de los programas educativos
con vigencia de cinco y tres años; con ello las IES ya podían buscar la
acreditación directamente con los CIEES sabiendo que esta les ampararía por un
tiempo determinado y en consecuencia, las evaluaciones en nivel 1, comenzaron
su proceso de segunda evaluación, debido a que la vigencia del nivel 1 se haría
caducar después de determinado tiempo.
En 2014, termina el periodo del Dr. Javier de la Garza como
coordinador general de los CIEES, quien, a lo largo de 11 años, desarrolló el
proceso de evaluación diagnóstica con una metodología única, fomentó la
acreditación por organismos de COPAES e implementó la acreditación de CIEES.
A partir de 2014, fue nombrado el Mtro. Rafael Vidal Uribe
como coordinador general de CIEES. Durante los primeros días de su gestión,
estableció las nuevas políticas que implementaría al interior de los CIEES, así
como la modificación de la metodología general de evaluación misma que
trabajaría solo el nuevo equipo que se integró con él. Al mes de sugestión, el
autor de este documento, es convocado para dirigir el área de calidad del Servicio
Nacional de Bachillerato en Línea, Prepa en Línea SEP; por lo que se genera su
salida de CIEES, misma que se realizó en buenos términos con la nueva
administración, esto contribuyó a que pudiese continuar como parte de la
Comisión de Pares Académicos Externos (CPAE) de CIEES.
La
nueva administración diseñó una nueva metodología integrada por cuatro ejes, 13
categorías y 68 indicadores.
Ejes
I. Fundamentos
y condiciones de operación
II. Currículum
específico y genérico
III. Tránsito
de los estudiantes por el programa
IV. Personal
académico, infraestructura y servicios
Categorías
1. Propósito
del programa
2. Condiciones
generales de operación del programa
3. Modelo
educativo y plan de estudios
4. Actividades
para la formación integral
5. Proceso
de ingreso al programa
6. Trayectoria
escolar
7. Egreso
del programa
8. Resultados
de los estudiantes
9. Personal
académico
10.
Infraestructura académica
11.
Infraestructura física
12.
Servicios de apoyo
13.
Distancia y Mixta
Una de las fortalezas de la nueva administración fue el
poder contar con una plataforma digital que permitió dejar de usar papel en las
autoevaluaciones ya que ahora, todo se cargó a un servidor que administraban
los CIEES; si bien esto ya se había propuesto desde años antes, es hasta este
momento en que se puso en marcha.
Ahora se podía realizar la autoevaluación desde cualquier
computadora conectada a internet. Esta fue una innovación que cambió el proceso
tanto de autoevaluación como de la visita de evaluación.
Algunos aspectos importantes, es que la GAPES buscó
simplificar el proceso de capacitación que se brindaba, integrando toda la
información necesaria (explicaciones) en la plataforma y segmentando los
indicadores de 2005 en partes más accesibles para su comprensión, por ejemplo:
Metodología general 2005-2014
|
GAPES
|
1. Registro oficial del programa educativo
Existencia de:
a) la aprobación del programa educativo por la autoridad máxima de la
institución;
b) nombre oficial del programa corroborado ante la Dirección General
de Profesiones de la Secretaría de Educación Pública Federal;
c) el registro del programa educativo ante la Dirección General de
Profesiones;
d) las condiciones señaladas en a) b) y c) cuando ocurran cambios en
el nombre del programa educativo.
|
1.2.1. Registro oficial del programa
A) Descripción.
El registro es el documento de aprobación
de apertura del programa educativo para su operación legal.
B) Instrucciones.
a) Indique el nombre oficial y vigente del
programa, la modalidad educativa en la que se imparte y el campus donde se
imparte. (Máximo 300 palabras)
b) Asiente el número y fecha de registro
del programa educativo ante la Dirección General de Profesiones de la SEP.
(máximo 300 palabras)
C) Valoración o
comentarios del equipo elaborador.
D) Documentos: Adjuntar
en formato PDF.
·
Documento legal de
aprobación de apertura del programa ante la autoridad correspondiente.
·
Oficio de registro ante
la Dirección General de Profesiones de la Secretaría de Educación Pública
Federal, que coincida con el nombre completo del programa como aparece en el
título, institución, campus en el que se imparte y modalidad educativa.
·
Para programas del área de la salud, cuando así
corresponda, oficio de no inconveniencia por parte de la Comisión
Interinstitucional para la Formación de Recursos Humanos para la Salud (CIFRHS)
federal o estatal.
·
Para programas del sector turismo, cuando así
corresponda, opinión técnica de la SECTUR.
E) Información
adicional que deberá estar disponible, en versión impresa o preferentemente
electrónica, durante la visita de la CPAE.
|
De la misma manera que la autoevaluación fue construida
desde cualquier computadora conectada a internet, el proceso de evaluación utilizaba
la misma plataforma, para documentar en tiempo real, el proceso de emisión de
juicios de valor durante la visita de evaluación.
La Carpeta Electrónica de Evaluación (CAE-16), como
herramienta para los trabajos de evaluación, permitió dar un seguimiento
puntual al trabajo de los evaluadores, desde las oficinas centrales, ya que en
CIEES podía monitorear en tiempo real, el avance del proceso de evaluación, que
debía ser llenado en la plataforma por los evaluadores conforme avanzaba el
cumplimiento de la agenda de trabajo de la visita de evaluación.
En la plataforma se contaba con todos los documentos de
apoyo necesarios para realizar la evaluación, tendiendo así, acceso a la
información en cualquier momento. Lo valioso es que se contaba con la guía de
entrevistas y el espacio para realizar las anotaciones de los evaluadores. Se
contaba con los menús para realizar las anotaciones de las entrevistas con el
responsable del programa; estudiantes; docentes; empleadores; áreas de apoyo y
anotaciones que emanan del recorrido por las instalaciones. Un elemento final
eran las conclusiones que en realidad es una evaluación del responsable del
programa educativo. Parafraseando esta última valoración, se pretendía lo
siguiente: “El liderazgo del responsable de un programa educativo determina la
calidad y éxito del programa. Su capacidad de comunicación con los docentes,
los alumnos, directivos, egresados, empleadores y otros actores, le permite que
se tomen las mejores decisiones para el programa.” (CIEES, A.C., 2016)
Desde el punto de vista tecnológico, fue una gran
innovación, pero desde el punto de vista de la valoración objetiva, estaba
limitada en comparación con la metodología anterior. Con la metodología general
de 2005 - 2014, se emitía un juicio de valor para cada uno de los 61 indicadores,
lo que permitía orientar las recomendaciones a la mejora específica y permitía
un análisis detallado de los elementos evaluados; La CAE 16, incorporaba una
rúbrica de evaluación para un conjunto de indicadores. La valoración era en
función de cuatro niveles de apreciación: Insuficiente, Suficiente, Adecuado y
Óptimo. El problema que se presentó es respecto a que la rúbrica, no permitía
valorar los indicadores por separado y, en consecuencia, había cosas que era
necesario mencionar, pero no existía la forma de hacerlo con la rúbrica. Por
ejemplo, para los indicadores a) Modelo educativo, b) Plan de estudios, c) Mapa
curricular, d) Asignaturas o unidades de aprendizaje y e) Tecnología educativa
y de la información para el aprendizaje; se tenía solo una rúbrica de
valoración que no necesariamente permitía valorar lo identificado en cada uno
de los indicadores. Al final se presentaba el resultado en una matriz de doble
entrada en donde se visualizaba en la primera columna las 13 categorías de evaluación
y en las columnas subsecuentes los actores entrevistados. En la intersección de
cada eje, mediante una semaforización de colores (verde, amarillo y rojo), se
presentaba la valoración dada a cada momento.
Como
se mencionó anteriormente, los programas sectoriales de educación 2001-2006 y
2007-2012, fomentaron los procesos de evaluación y acreditación ya sea por
CIEES o por COPAES; sin embargo, el programa sectorial de educación 2013-2018,
dio un nuevo enfoque.
Programa Sectorial de Educación. (Secretaría de Educación
Pública, 2013)
“Objetivo 2. Fortalecer la calidad y pertinencia de la educación media
superior, superior y formación para el trabajo, a fin de que contribuyan al desarrollo
de México
Estrategia 2.3. Continuar
el desarrollo de los mecanismos para el aseguramiento de la calidad de los
programas e instituciones de educación superior.
2.3.2. Articular un sistema
nacional de evaluación y acreditación de los programas académicos e
instituciones de educación superior.”
En 2011, derivado
del noveno foro de evaluación educativa, se creó una instancia encargada de
regular y coordinar a los organismos encargados de garantizar la calidad de la
educación superior, esta es la Comisión Coordinadora de los Organismos de
Evaluación de la Educación Superior (COCOEES), misma que se integra tras el
análisis realizado por el Dr. Rodolfo Tuirán Gutiérrez, Subsecretario de
Educación Superior en turno, sin embargo, aun cuando se definió, no entró en
función. Dicha instancia estaría integrada por la Secretaría de Educación
Pública (SEP), representada por la Subsecretaría de Educación Superior (SES);
el Consejo Nacional de Ciencia y Tecnología (CONACyT); la Dirección General de
Educación Superior Universitaria (DEGESU); la Dirección General de Profesiones
(DGP); la Dirección General de Acreditación, Incorporación y Revalidación (DGAIR);
el Consejo para la Acreditación de la Educación Superior (COAPES); los Comités
Interinstitucionales para la Evaluación de la Educación Superior (CIEES); el
Centro Nacional de Evaluación para la Educación Superior (CENEVAL); la
Federación de Instituciones Mexicanas Particulares de Educación Superior
(FIMPES) y la Alianza para la Educación Superior (ALPES).
En el comunicado 65
de la Secretaría de Educación Pública de 2018, Tuirán (en su segundo periodo
como Subsecretario de Educación Superior) expresó que el paradigma actual de
evaluación y acreditación pertenecía al siglo pasado y era necesario revisar,
discutir y replantear el futuro de la evaluación y la acreditación de los
programas en el nivel superior:
“Es
fundamental, dijo, transitar del paradigma basado en la revisión de procesos
organizacionales, normativos, de infraestructura y equipamiento, así como de
planes y programas de estudio, a un nuevo modelo en el que, más allá de los
insumos y procesos de evaluación, se enfatice la eficacia del proceso formativo
de las instituciones, y con ello, la relevancia y pertinencia de los aprendizajes
logrados por los estudiantes.”
(Secretaría de Educación
Pública, 2018).
De esta manera se
reactivó COCOEES y se tuvieron algunas reuniones, nuevamente sin una definición
real en materia innovación de los procesos de evaluación y acreditación. Solo
se establecieron como propósitos construir un Padrón Nacional de programas
educativos reconocidos por su buena calidad (PNPEC) y difundirlo ampliamente a
través de un portal web y otros medios; Alentar a las Instituciones de
Educación Superior (IES) a continuar impulsando políticas de evaluación y/o
acreditación de sus programas; Estimular las prácticas de evaluación y
acreditación de programas no escolarizados; Fortalecer la coordinación de las
instancias de evaluación y acreditación.
Con el cambio de coordinador en el 2014, se dejó de utilizar la
metodología general de evaluación creada en 2005, por lo cual, la experiencia
generada en los procesos de evaluación se fue perdiendo, prueba de ello es que
los integrantes actuales de CIEES, no tienen conocimiento de que hubo manuales
para la autoevaluación por subsistema y modalidad de enseñanza.
La construcción de una nueva metodología a partir de 2014 tuvo como base
la metodología general de 2005 sin embargo, ya no se vinculó a las políticas
nacionales como se realizó en la primera ocasión, aunado a que las políticas en
el sexenio pasado y en especial en este, han desvinculado los procesos de
evaluación y acreditación a la asignación de recursos extraordinarios para las
IES Públicas en pro de la mejora de la calidad de sus programas educativos.
Actualmente la Metodología de evaluación está integrada por cinco ejes,
12 categorías y 49 indicadores que corresponden a programas impartidos en la
modalidad escolar. Cada indicador cuenta con una descripción y el proceso de
autoevaluación requiere el llenado de un formato por cada indicador con sus
respectivas evidencias, con la particularidad de que al final de cada categoría
se presentan los estándares establecidos por los CIEES para emitir un juicio de
valor entre cinco opciones posibles: óptimo, adecuado, suficiente, insuficiente
y no es aplicable. Esto se presenta a manera de rúbrica, similar a la rúbrica
de 2014, teniendo la misma complejidad para valorar dos o más descriptivos en
un solo momento, por lo cual, los niveles de cumplimiento podrían ser óptimos
para un descriptivo, pero suficiente para el otro, en cuyo caso, puede generar
una disyuntiva en la toma de decisión respecto a qué se debe responder. Por
ejemplo:
Marque la opción correspondiente.
En
apreciación del equipo elaborador el cumplimiento de estos estándares ¿es?
|
Óptimo
|
Adecuado
|
Suficiente
|
Insuficiente
|
No es aplicable
|
6.1) Control del desempeño de los estudiantes dentro del programa
|
a)
La institución debe contar con un
registro sistematizado, fidedigno, actualizado y accesible para conocer el
avance académico de cada uno de los estudiantes inscritos en el programa educativo.
b) El programa educativo debe analizar
periódicamente la información disponible para vigilar la trayectoria escolar
de los estudiantes y establecer acciones para mejorar su tránsito en el
programa.
|
|
|
|
|
|
|
|
|
|
|
|
|
En el primer inciso, se puede tener el registro sistematizado, sin
embargo, no se realiza el análisis de manera periódica, bajo esta disyuntiva ¿qué
opción de cumplimiento se debe elegir?
La política educativa de este sexenio está enfocada a la
equidad, inclusión, intercultural e integral. Es un documento general que no
desagrega los niveles educativos, por lo cual, no se observa información
específica en cuanto a la educación superior, en este sentido, se infiere que
el objetivo prioritario dos, se puede vincular a los procesos de evaluación y
acreditación de los programas educativos.
Objetivo prioritario 2: Garantizar el derecho de la
población en México a una educación de excelencia, pertinente y relevante en
los diferentes tipos, niveles y modalidades del Sistema Educativo Nacional. (Secretaría de Educación Pública, 2020)
Estrategia prioritaria 2.5 Vincular los resultados de las
evaluaciones de logro educativo con la toma de decisiones de las autoridades
educativas para mejorar la calidad y pertinencia de la educación.
2.5.8 Establecer el Sistema Nacional de Evaluación de la
Educación Superior con una visión renovada de la calidad y de la evaluación que
impulse la excelencia educativa y la mejora continua de las IES.
En el mes de octubre de 2021, se llevarán a cabo los foros
de consulta que contribuyan al diseño del Sistema de Evaluación y Acreditación
de la Educación Superior (SEAES, 2021),
con los siguientes objetivos:
1.
Generar, por parte de las
autoridades e instituciones educativas, espacios de diálogo y análisis, entre
los diversos actores de la educación superior, sobre la situación actual, las
fortalezas, debilidades, necesidades y retos de la evaluación y acreditación de
la educación superior en el país.
2.
Impulsar y promover mecanismos de
participación y consulta que permitan, en condiciones de libertad y pluralidad,
identificar y registrar propuestas sobre los requerimientos, participantes y
ruta crítica para diseñar y establecer el SEAES a nivel nacional.
3.
Convocar la participación de
especialistas en temas de planeación o evaluación de la educación superior
quienes coordinarán los procesos de recolección, integración, sistematización y
análisis de los planteamientos y propuestas planteadas durante el proceso de
consulta para el diseño del SEAES.
En este sentido, es importante conocer las nuevas políticas
que emanarán de este proceso para dar certeza a qué sigue con respecto a la
evaluación de los programas de educación superior.
Los CIEES fueron
constituidos para detectar logros, áreas de oportunidad y proponer estrategias
de mejoramiento de la calidad; dentro de sus funciones está la evaluación
diagnóstica y la acreditación, aun cuando esta última se confirió a los
organismos acreditadores. La importancia de la evaluación diagnóstica ha sido
conocer la situación de los programas educativos para detectar logros y
deficiencias y proponer estrategias de mejoramiento de la calidad. Las recomendaciones
como producto final de la evaluación se utilizan en distintos niveles, primeramente,
para el programa educativo, para la IES de procedencia, y en la medida de lo
posible, para el gobierno estatal y federal.
Las políticas
públicas y en específico los Programas Sectoriales de Educación, en su apartado
de Educación Superior, han enmarcado los lineamientos nacionales respecto a la
evaluación de los programas educativos pertenecientes al Sistema Educativo
Nacional (SEN).
Las universidades particulares
que pertenecen al SEN, no han tenido beneficio presupuestario de ninguna índole,
sin embargo, han optado por someterse a los procesos de evaluación como un
elemento clave para mejorar la calidad académica ofrecida en sus IES.
Una de las fortalezas
de la metodología general 2005 contra la metodología actual, es que la primera
tuvo a bien subdividirse de acuerdo con los subsistemas y modalidades de
enseñanza-aprendizaje.
Una de las
fortalezas de la metodología actual, contra la metodología 2005, es poder
contar con plataformas informáticas, que permiten sistematizar el proceso de
autoevaluación y evaluación, evitando el uso de papel y permitiendo el acceso a
la información desde cualquier punto a través de una computadora con acceso a
internet. Esto en la situación pandémica de 2020, permitió seguir los procesos
de evaluación remota sin necesidad de la presencialidad física.
Una de las grandes
críticas que se ha realizado a la evaluación que realizan los CIEES, es la carencia
de un sustento teórico de evaluación. Al respecto, hay datos que no se
conocieron o faltó difusión al respecto; el primero tiene que ver con el
sustento teórico que fue dado en la publicación del décimo aniversario de los
CIEES; para lo cual se emitió una publicación donde además de recapitular la
reunión que se llevó a cabo en la Subsecretaría de Educación Superior e Investigación
Científica (SESIC) en el año 2001, se mencionaba que el modelo de evaluación de
CIEES, se sustentaba en el modelo de evaluación iluminativa.
Con la metodología
general que se puso en marcha en 2005, solo se explicaba como un modelo
cualitativo – cuantitativo, sin la intención de justificar un modelo de
evaluación iluminativa; esto porque no se desarrolló un documento que diera un
sustento teórico respecto al modelo de evaluación de los CIEES; el modelo
iluminativo se refería a la primera década de los CIEES, es decir previo a la
creación de la metodología general de 2005; misma que, como su nombre lo
indica, es una metodología de evaluación, por lo cual no se considera un modelo
teórico de evaluación; sin embargo, si se pretendiera profundizar respecto al
modelo teórico, se tendría que adoptar un modelo ecléctico ya que podríamos
considerar el Modelo CIPP, referente al contexto, insumos, procesos y
productos, pero también tendríamos que pensar en la evaluación orientada al
logro de los objetivos propuesta por Tyler, pero no podríamos omitir la
evaluación libre de metas que propone Scriven, incluso el modelo de evaluación
responsiva de Stake.
Los académicos –
evaluadores de CIEES, no necesariamente deben de ser teóricos de los modelos de
evaluación, sino que deben conocer el procedimiento a seguir para realizar la
evaluación de un programa educativo; dicho de otra manera, guiar su labor con
la metodología de evaluación.
La evaluación de
CIEES, marcó un antes y después para las Instituciones de Educación Superior, por
ejemplo, las Unidades Académicas Multidisciplinarias de la Universidad Autónoma
del Estado de México, después del proceso de evaluación y con las
recomendaciones recibidas, se transformaron a Centros Universitarios. Facultades
que tenían cerrados bajo llave, con cadena y candado los centros de cómputo,
por temor a que los alumnos descompusieran las computadoras, después de la
evaluación ofrecieron servicio a todos los alumnos para que realizaran sus
tareas en las computadoras en la misma institución. Al ser una evaluación
interinstitucional, generó vinculación para foros, ponencias e investigaciones
de forma colaborativa entre distintas instituciones. El contar con el nivel 1,
abrió las puertas a los estudiantes nacionales para realizar intercambios
internacionales. El ser evaluador de CIEES, era considerado como un
reconocimiento importante en las IES, al grado que este formaba parte de los
elementos a considerar en los estímulos docentes. Las recomendaciones de CIEES,
permitieron a las Instituciones Públicas, poder gestionar recursos
extraordinarios para atender las recomendaciones, siendo estos recursos
“etiquetados” para solo poderse emplear en la atención de las recomendaciones. En
educación a distancia, el contar con nivel 1 permitió revalidar estudios hechos
en México para estudiantes de otros países.
Así como en la
década de los noventa, la Comisión Nacional de Evaluación de la Educación
Superior (CONAEVA) formuló el marco conceptual y operativo para el Sistema
Nacional de Evaluación que dio origen a los CIEES; el futuro de la evaluación
dependerá del nuevo Sistema de Evaluación y Acreditación de la Educación
Superior que ha iniciado su conformación en 2021 y que marcará el rumbo a
seguir para las Instituciones de Educación Superior en este tema, por lo cual
hoy no se puede aseverar nada al respecto, solo que la evaluación debe
continuar para garantizar la calidad de la educación superior, ya sea con los
organismos existentes o a través de la conformación de nuevas instancias y
marcos de referencia.
“La evaluación se debe percibir como la
oportunidad de identificar logros, pero también como el insumo principal para
mejorar en cualquier aspecto”.
Ubaldo Ramírez. 2021
Referencias
ANUIES. (Julio de
1990). Publicaciones ANUIES. Obtenido de Propuesta de Lineamientos
para la Evaluación de la Educación Superior:
http://publicaciones.anuies.mx/pdfs/revista/Revista75_S2A1ES.pdf
CIEES / CCSyA. (2001).
Criterios para evaluar programas académicos de técnico superior universitario
o profesional asociado. Primera edición. México.
CIEES. (Octubre de 2000).
Análisis general de las recomendaciones emitidas como resultado de las
evaluaciones practicadas a programas académicos: 1991 - 2000. Proyecto
Integrador. Distrito Federal, México.
CIEES. (Febrero de 2004).
Criterios para evaluar programas académicos de licenciatura y posgrado. Comité
de Ciencias Sociales y Administrativas. México, D.F.
CIEES. (2005). Fundamentos
de la matodología CIEES. Documento de trabajo.
CIEES. (2013). Metodología
General para la evaluación de programas educativos de Nivel Superior. México:
Comités Interinstitucionales para la Evaluación de Educación Superior A.C.
CIEES, A.C. (2016). Carpeta
Electrónica para Evaluadores C A E. Obtenido de https://cae.ciees.edu.mx/
D.O.F. (29 de 01 de 1990).
Diario Oficial de la Federación. Programa Nacional para la Modernaización
Educativa 1990 - 1994. México, D.F.: http://dof.gob.mx/nota_detalle.php?codigo=4642789&fecha=29/01/1990.
D.O.F. (15 de 01 de 2003). Diario
Oficial de la Federación . Obtenido de Programa Nacional de Educación
2001 - 2006:
http://dof.gob.mx/nota_detalle.php?codigo=706001&fecha=15/01/2003
De la Garza Aguilar, J.,
& Ramírez Javier, J. U. (13 de Enero de 2010). Planeación y Aseguramiento
de la calidad en la educación superior en México. Taller para la
autoevaluación de programas de educación superior. Monterrey, Nuevo León,
México: Universidad Autónoma de Nuevo León.
Delors, J. (1996). La
educación encierra un tesoro. Madrid: Unesco .
Diario Oficial de la
Federación. (27 de 11 de 2018). Secretaría de Gobernación. Obtenido de
Acuerdo Secretarial 18/11/18:
http://www.dof.gob.mx/nota_detalle.php?codigo=5544816&fecha=27/11/2018
Díaz Barriga, Á. (2001). El
financiamiento de la educación. Perfiles educativos vol.23 no.94.
Ciudad de México: Perfiles Educativos.
Escamilla, J. (01 de
diciembre de 2006). Estándares de calidad Universidad Virtual. Proceso de
colaboración para la definición de indicadores. Guadalajara, UdeG:
Ponencia.
González Ramírez, R. E.,
& Ramírez Javier, J. U. (15 de Noviembre de 2013). Políticas Nacionales y
gestión institucional para reducir el abandono. La relación entre la
evaluación de programas, las políticas nacionales y el abandono en educación
superior. Ciudad de México, México: Tercera conferencia latinoamericana
sobre el abandono en la educación superior.
OCDE. (Noviembre de 2006).
Thematic Review of Tertiary Education Mexico Country Note. Análisis
temático de la educación terciaria. Versión en español Secretaría de
Educación Pública.
Pérez Rocha, M. (Centro de
Documentación CIEES). Evaluación y autoevaluación. Materiales de apoyo a
la evaluacción educativa, Número 27.
Pérez Rocha, M. (s.f.). Materiales
de apoyo para la evaluación educativa. Tommo II. CONAEVA, CONPES, SEP,
ANUIES.
Ramírez Javier, J. U.
(2010). Panorámica de la Educación Turística en México. La evaluación de
los CIEES a los programas de Licenciatura en Tuismo de las Universidades Públicas.
México: Documento de trabajo .
SEAES. (12 de octubre de
2021). Sistema de Evaluación y Acreditación de la Educación Superior.
Obtenido de Convocatoria: https://www.consultaseaes.mx/index.php
Seara Vázquez, M. (2009). Un
Nuevo Modelo de Universidad. . ISBN 9786079522216: Universidad
Tecnológica de la Mixteca.
Secretaría de Educación
Pública. (Diciembre de 2013). Programa Sectorial de Educación 2013 - 2018.
México, D.F.
Secretaría de Educación
Pública. (10 de Marzo de 2018). Comunicado 65. Se reactivan trabajos de la
Comisión Coordinadora de Organismos de Evaluación de la Educación Superior.
México: SEP.
Secretaría de Educación
Pública. (06 de Julio de 2020). Programa Sectorial de Educación 2020 -
2024. Obtenido de Diario Oficial de la Federación:
https://www.dof.gob.mx/nota_detalle.php?codigo=5596202&fecha=06/07/2020
Secretaría de Educación
Pública. (Septiembre de 2001). Programa Nacional de Educación 2001 - 2006.
México D.F.: ISBN 970-18-6213-9.
Secretaría de Gobernación.
(17 de 01 de 2008). Diario Oficial de la Federación. Obtenido de
Programa Sectorial de Educación 2007 - 2012:
http://www.dof.gob.mx/nota_detalle.php?codigo=5028684&fecha=17/01/2008
SEP. (15 de Septiembre de
2021). Gobierno de México. Obtenido de Instituciones de Educación
Superior: https://educacionsuperior.sep.gob.mx/instituciones.html
SESIC. (Enero de 2002).
Subseceratría de Educación Superior e Investigación Científica. Programa
Integrar de Fortalecimiento Institucional. LIneamientos para su formulación y
presentación. México, Distrito Federal : Secretaría de Educación Pública.
Solana Ortiz, F. J., &
Ramírez Javier, J. U. (s.f.). Metodología para la asignación de nivel de
programas educativos de educación superior. México: Documento de trabajo
CIEES.
Stufflebeam, D. (1999). Foundational
Models for 21 Century Program Evaluation. Michigan: The evaluation center
Western Michigan University.
Acerca del Autor.
Ubaldo Ramírez
cursó la licenciatura en Administración del Tiempo Libre y la Maestría en
Educación, tiene en su formación continua un diplomado en administración
estratégica.
Del año 1999 a
2018 trabajó en procesos de evaluación y acreditación de la educación superior
(presencial, a distancia y mixta).
Se capacitó en
Bogotá, Colombia con la Red Iberoamericana para la Acreditación de la Calidad
de la Educación Superior, RIACES en el proyecto “calidad interna de las
agencias de evaluación y acreditación”.
Participó como
Instructor Internacional en el IV Congreso CREAD Andes y IV Encuentro Virtual
Educa: "Evaluación y Calidad de la Educación Superior a Distancia en:
América, África, Asia y Europa”. Loja Ecuador.
Como ponente e
instructor, ha capacitado a evaluadores - acreditadores de Organismos como la
Agencia Centroamericana de Acreditación de Postgrado (ACAP); el Consejo de
Acreditación de la Comunicación (CONAC) y el Consejo para la Acreditación de la
Educación Superior de las Artes (CAESA). Además de formación de evaluadores - acreditadores
CIEES de Educación Superior Presencial y a Distancia; durante 2006 – 2013.
Su trayectoria en
los Comités Interinstitucionales para la Evaluación de la Educación Superior
(CIEES) fue:
·
Analista
externo del Comité de Ciencias Sociales y Administrativas;
·
Asistente del Comité de Ciencias Sociales y
Administrativas;
·
Responsable del Comité de Ciencias Naturales y
Exactas;
·
Asistente Técnico de la Coordinación General en
los CIEES
·
Par Evaluador del Comité de Artes, Educación y
Humanidades
·
Par Evaluador del Comité de Ciencias Sociales y
Administrativas