Estrategias e instrumentos de evaluación en contextos
universitarios: un enfoque desde la práctica académica
Assessment strategies and instruments in university contexts:
an approach from academic practice
Recibido: 28/03/2025 - Aceptado: 02/07/2025
Néstor Torres Gamarra
https://orcid.org/0009-0007-5406-5482
ntorresg@ucsm.edu.pe
Universidad Católica de Santa María. Arequipa, Perú
Fernando German Paredes Marchena
https://orcid.org/0000-0003-2081-4100
fparedesm@ucsm.edu.pe
Universidad Católica de Santa María. Arequipa, Perú
Roxana Jacqueline Candelaria Gutierrez Aranibar
https://orcid.org/0000-0001-7684-6852
rgutierreza@ucsm.edu.pe
Universidad Católica de Santa María. Arequipa, Perú
Resumen
La presente investigación examina la aplicación de instrumentos de evaluación en la educación superior,
centrándose en la Universidad Católica de Santa María durante el primer semestre de 2024. El objetivo principal
fue analizar el tipo, la frecuencia y la efectividad de dichos instrumentos en el proceso de enseñanza-aprendizaje.
Para ello, se adoptó un enfoque mixto, utilizando el método histórico-lógico para recopilar datos. Se realizó un
análisis cuantitativo de sílabos institucionales, complementado con una revisión crítica de literatura científica
reciente. Los hallazgos revelan un uso predominante de instrumentos tradicionales, con un énfasis significativo
en exámenes escritos (23 %) y participación oral (12 %), aunque con variaciones notables entre facultades. Se
identificaron deficiencias estructurales, como la ambigüedad en los criterios de evaluación (reportada por el 74 %
de los estudiantes) y una resistencia considerable del profesorado hacia enfoques innovadores (85 %). Sin
embargo, se reconoce el valor pedagógico de herramientas como rúbricas y portafolios, ya que favorecen
procesos más objetivos, reflexivos y coherentes con un enfoque por competencias. En conclusión, la universidad
necesita implementar estrategias de formación docente continua, fomentar una cultura de evaluación auténtica y
diversificada, y aprovechar el potencial de tecnologías emergentes como la inteligencia artificial para modernizar
los procesos evaluativos, garantizando así mayor equidad y pertinencia educativa.
Palabras clave: evaluación educativa, instrumentos de evaluación, educación superior.
Abstract
This research examines the use of assessment instruments in higher education, focusing on the Catholic
University of Santa María during the first semester of 2024. The main objective was to analyze the type, frequency,
and effectiveness of these instruments in the teaching-learning process. To this end, a mixed-method approach
was adopted, using the historical-logical method to collect data. A quantitative analysis of institutional syllabi was
conducted, complemented by a critical review of recent scientific literature. The findings reveal a predominant use
of traditional instruments, with a significant emphasis on written exams (23%) and oral participation (12%),
although with notable variations between faculties. Structural deficiencies were identified, such as ambiguity in
assessment criteria (reported by 74% of students) and considerable faculty resistance to innovative approaches
(85%). However, the pedagogical value of tools such as rubrics and portfolios is recognized, as they foster more
objective, reflective processes consistent with a competency-based approach. In conclusion, universities need to
implement ongoing teacher training strategies, foster a culture of authentic and diverse assessment, and harness
the potential of emerging technologies such as artificial intelligence to modernize assessment processes, thereby
ensuring greater equity and educational relevance.
2
Keywords: educational assessment, assessment instruments, higher education.
Introducción
La evaluación constituye un componente fundamental del proceso de enseñanza-aprendizaje en la
educación superior, ya que permite valorar no solo la adquisición de conocimientos, sino también el desarrollo de
habilidades, actitudes y competencias profesionales. En este sentido, los instrumentos de evaluación juegan un
papel crucial, dado que su adecuada selección y aplicación impactan directamente en la calidad del aprendizaje.
En los últimos años, los enfoques centrados en el desarrollo de competencias han impulsado la necesidad
de diversificar los métodos e instrumentos evaluativos, promoviendo una evaluación más formativa,
contextualizada y basada en evidencias. Sin embargo, en muchos contextos universitarios persiste el predominio
de métodos tradicionales, como los exámenes escritos y la participación oral, lo cual limita la capacidad para
evaluar aprendizajes complejos.
Este estudio se enfoca en el análisis de los instrumentos de evaluación aplicados en la Universidad
Católica de Santa María, tomando como referencia el semestre impar del año académico 2024. El propósito es
identificar los instrumentos utilizados, examinar su aplicación práctica en los distintos programas académicos y
proponer recomendaciones para su mejora, alineadas con un enfoque por competencias.
Para ello, se empleó una metodología de enfoque mixto que combinó el análisis cuantitativo de datos
extraídos del sistema institucional de sílabos con una revisión bibliográfica de estudios relevantes publicados
entre 2010 y 2024. El marco metodológico se sustentó en el método histórico-lógico, y las búsquedas
bibliográficas se realizaron en bases de datos académicas reconocidas como Scopus, IEEE Xplore, Springer Link
y Science Direct.
Uno de los ejes clave en la evaluación universitaria es la justicia e inclusión en las prácticas docentes.
Ucan et al. (2025) identifican que los docentes adoptan estilos de toma de decisiones racionales, intuitivos y
dependientes para seleccionar métodos evaluativos que promuevan la equidad. Esta preocupación se refleja
también en estudios como el de David (2025), quien propone un modelo de evaluación ambiental que equilibra
teoría y práctica mediante estrategias formativas y sumativas orientadas a la sostenibilidad. De igual forma,
Rodríguez-Ferrer et al. (2025) argumentan que las metodologías lúdicas, como el aprendizaje basado en juegos
y los escape rooms, fortalecen la motivación estudiantil y generan contextos evaluativos más inclusivos.
Otro aspecto relevante es la integración de tecnologías emergentes en los procesos evaluativos. Abbas
et al. (2025) destacan el papel de los modelos de lenguaje de gran escala (LLMs) como herramientas eficientes
para generar retroalimentación automatizada, mejorando la calidad de las evaluaciones sin reemplazar la
intervención docente. Asimismo, Castillo-Manzano et al. (2024) evidencian que la evaluación continua digital,
mediante pruebas virtuales, contribuye a reducir la deserción y aumentar la participación estudiantil.
Paralelamente, Annamalai et al. (2025) resaltan cómo la teoría de las inteligencias múltiples de Gardner puede
integrarse exitosamente en plataformas LMS para diversificar los instrumentos evaluativos.
Finalmente, la construcción de instrumentos de evaluación específicos y culturalmente sensibles se
posiciona como un eje transversal. Mandasari et al. (2024) desarrollan un modelo de evaluación oral basado en
la cultura indonesia, reforzando la competencia comunicativa de estudiantes de inglés como lengua extranjera.
En este sentido, Yu et al. (2025) valoran el uso del portafolio como medio de evaluación formativa, destacando
su aceptación entre estudiantes de japonés como lengua extranjera. Otros estudios, como el de Gumeta (2025),
documentan las dificultades para implementar métodos auténticos de evaluación en contextos virtuales,
especialmente en entornos culturalmente conservadores como China. Complementariamente, Kusmawan &
Sukmayadi (2024) proponen una escala validada para que los estudiantes autoevalúen sus competencias
digitales, alineando los métodos evaluativos con las demandas de entornos de aprendizaje virtuales.
Este artículo busca aportar evidencia empírica y reflexiva sobre el uso actual de los instrumentos de
evaluación en el contexto universitario, destacando fortalezas, limitaciones y su potencial para contribuir a una
cultura evaluativa más justa, innovadora y centrada en el aprendizaje del estudiante.
Para ello, se plantea el siguiente objetivo general: analizar la aplicación de los instrumentos de evaluación
en la Universidad Católica de Santa María, con el fin de evaluar su efectividad, pertinencia y alineación con un
enfoque por competencias en la educación superior. Además, se establecen los objetivos específicos: (1)
identificar los tipos de instrumentos de evaluación utilizados en los cursos de pregrado durante el semestre impar
del año académico 2024; (2) evaluar la frecuencia y forma de aplicación práctica de dichos instrumentos en las
diferentes facultades y programas académicos; (3) determinar las fortalezas y limitaciones de los instrumentos
empleados a partir del análisis cuantitativo y la revisión de estudios previos; y (4) proponer recomendaciones
3
orientadas a mejorar la calidad del proceso evaluativo y fomentar el uso de metodologías innovadoras basadas
en evidencias.
Metodología
Para analizar la evolución y el estado actual de los instrumentos de evaluación en la educación superior,
se empleó el método histórico-lógico propuesto por Torres (2020), considerando fuentes publicadas entre 2010 y
2024. La búsqueda bibliográfica se realizó en bases de datos científicas reconocidas, como Scopus, IEEE Xplore,
Springer Link y Science Direct, enfocándose en estudios relacionados con los instrumentos de evaluación en
educación superior.
Se incluyeron investigaciones en español e inglés que abordaran temas vinculados a la metodología,
instrumentos de evaluación, educación superior y competencias. Las palabras clave fueron definidas por los
autores en función de los objetivos del estudio, y se priorizaron publicaciones en revistas de alto impacto y
reportes de relevancia reconocida.
La investigación adoptó un enfoque mixto, integrando métodos cualitativos y cuantitativos para la
recolección y análisis de datos sobre el estado actual de los instrumentos de evaluación en educación superior y
su relación con el desarrollo de competencias.
El análisis cuantitativo se realizó a partir de la base de datos del sistema de sílabos de todos los docentes,
cursos, facultades y escuelas profesionales de la Universidad Católica de Santa María, correspondiente al
semestre impar del año académico 2024. Esto permitió identificar tendencias y patrones en la aplicación de los
instrumentos evaluativos.
Por otro lado, la revisión de investigaciones previas facilitó conocer las percepciones de los docentes
sobre la efectividad de dichos instrumentos. Los datos extraídos de los estudios seleccionados fueron
organizados y analizados mediante técnicas de análisis y síntesis, lo que permitió elaborar una síntesis narrativa
de los resultados. Entre los temas evaluados se incluyeron los principales tipos de instrumentos de evaluación
utilizados.
Resultados
El análisis del uso de instrumentos de evaluación por facultad en la Universidad revela que el examen
escrito es el instrumento más utilizado, seguido por una diversidad de prácticas evaluativas que reflejan las
particularidades pedagógicas de cada disciplina.
En cuanto a los instrumentos basados en evidencia de producto, en la Facultad de Arquitectura e
Ingeniería Civil y del Ambiente, por ejemplo, predomina el informe de práctica (41 %) y los proyectos (22 %), lo
que sugiere una fuerte orientación hacia el aprendizaje experiencial y la resolución de problemas reales,
coherente con el enfoque por competencias (Bazán, 2024). Este patrón se repite en facultades como Ciencias e
Ingenierías Físicas y Formales, donde los informes (39 %) y proyectos (26 %) también tienen un peso significativo.
En contraste, en facultades como Ciencias Económico-Administrativas se observa un uso más equilibrado entre
informes de práctica (22 %) y proyectos (29 %), indicando una estrategia más diversificada, aunque no
necesariamente innovadora (Hamodi, 2015; Chisag et al., 2019).
No obstante, a pesar de esta variedad, persiste un uso limitado de recursos que fomenten la
autorregulación, el pensamiento crítico y el trabajo colaborativo, aspectos clave en la evaluación auténtica (Varela
& Álvarez de Sotomayor, 2023). Herramientas como rúbricas y portafolios, ampliamente reconocidas por su
capacidad para medir competencias de orden superior (Cisneros-Cohernour et al., 2012), continúan siendo
infrautilizadas en la mayoría de las facultades. Además, la categoría “Otro” alcanza porcentajes considerables en
varias unidades académicas, lo que podría evidenciar falta de sistematización o claridad en la clasificación de los
instrumentos. Estos hallazgos refuerzan la necesidad de implementar políticas institucionales que estandaricen
los criterios de evaluación, fortalezcan la formación docente en prácticas innovadoras y aseguren mayor
coherencia entre objetivos de aprendizaje e instrumentos utilizados (Barros et al., 2019).
Aplicación de la inteligencia artificial en la evaluación
La evaluación universitaria del futuro será automatizada, personalizada y en línea, enfocándose tanto en
conocimientos teóricos como prácticos, así como en el desarrollo de competencias clave como pensamiento
crítico, creatividad y manejo de la inteligencia artificial (Hernández-León, 2024). Frente a esta tecnología, los
docentes adoptan posturas diversas: desde la prohibición y la continuidad de métodos tradicionales hasta la
integración como recurso pedagógico. Se recomienda diversificar los instrumentos de evaluación y fomentar una
retroalimentación constante para un uso ético y formativo de la inteligencia artificial (Sánchez, 2023).
4
Evaluación basada en evidencias
Según Huerta (2018), la evaluación basada en evidencias se estructura en cuatro tipos: del saber
(conocimientos), del hacer (habilidades), del ser (actitudes y valores) y del producto (resultados tangibles),
utilizando instrumentos como rúbricas, portafolios, diarios de campo, ensayos y exposiciones. En esta línea, el
modelo propuesto por Tejedor de León & Tejedor de León (2024) plantea una evaluación auténtica y
contextualizada, articulada con la planificación curricular y orientada al desarrollo de competencias. Nardoni
(2022) destaca que la evaluación formativa proporciona retroalimentación continua y alinea las estrategias
pedagógicas con los objetivos de aprendizaje, fortaleciendo su validez. Por su parte, Ahumada (2005) subraya
que la evaluación auténtica se centra en procesos y contextos reales mediante autoevaluación, coevaluación y
heteroevaluación, diferenciándose de enfoques tradicionales al promover actividades significativas con aplicación
práctica.
Criterios de evaluación en la Universidad Católica de Santa María
La evaluación de los aprendizajes se estructuró en tres tipos de evidencia: conocimiento, desempeño y
producto, alineados con el enfoque por competencias. La evaluación del conocimiento valora el dominio
conceptual mediante pruebas escritas y participación oral; la evidencia del desempeño mide la aplicación práctica
en contextos reales a través de listas de cotejo y rúbricas; y la evidencia del producto recoge resultados tangibles
como informes y proyectos, reflejando la capacidad del estudiante para aplicar lo aprendido (Tobón, 2013).
Aplicación de instrumentos de evaluación en la Universidad Católica de Santa María
El análisis cuantitativo del uso de instrumentos de evaluación se realizó a partir de la base de datos del
sistema de sílabos de la universidad correspondiente al semestre impar del año académico 2024. Los resultados
muestran que los instrumentos más utilizados son el examen escrito y la participación oral, mientras que los
menos empleados incluyen guías de prácticas, informes y resolución de ejercicios, como se detalla en la Tabla 1.
Tabla 1
Uso de instrumentos de evaluación en la Universidad Católica de Santa María
Instrumento
Porcentaje (%)
Examen escrito
23%
Participación oral
12%
Lista de cotejos
11%
Informe de práctica
10%
Rúbricas
9%
Cuestionarios
9%
Proyecto
5%
Monografías
3%
Guía de Práctica
2%
Informes
2%
Resolución de ejercicios
1%
Otros
13%
Análisis del uso de Instrumentos de evaluación por facultad en la Universidad Católica de Santa María
Se obtuvieron los siguientes resultados: los instrumentos más utilizados son el examen escrito y la
participación oral, tal como se muestra en la Tabla 2.
5
Tabla 2
Uso de instrumentos de evaluación por facultad
Facultad
Cuestionario
%
Examen
escrito
%
Guía de
Práctica
%
Informe de
práctica
%
Lista de
cotejos
%
Participación
oral
%
Rúbricas
%
Otros
%
Arquitectura e
Ingeniería Civil y
del Ambiente
21%
12%
16%
51%
Ciencias
Contables y
Financieras
29%
8%
15%
53%
Ciencias e
Ingenierías
Biológicas y
Químicas
22%
17%
12%
49%
Ciencias e
Ingenierías
Físicas y
Formales
22%
11%
14%
48%
Ciencias
Económico-
Administrativas
11%
24%
12%
53%
Ciencias
Farmacéuticas
Bioquímicas y
Biotecnológicas
24%
15%
16%
45%
Ciencias Jurídicas
y Políticas
27%
19%
10%
44%
Ciencias y
Tecnologías
Sociales y
Humanidades
24%
16%
11%
49%
Enfermería
17%
22%
10%
51%
Medicina Humana
20%
12%
15%
53%
Obstetricia y
Puericultura
23%
9%
16%
52%
Odontología
20%
14%
18%
48%
Análisis del uso de instrumentos de evaluación basada en evidencias en la Universidad Católica de Santa
María
Para el análisis cuantitativo del uso de instrumentos de evaluación por tipo de evidencia, se utilizó como
base la información del sistema de sílabos de todas las facultades. A partir de ello, se obtuvieron los siguientes
resultados:
Evaluación del Conocimiento
Los instrumentos más utilizados son: examen escrito y participación oral, como se evidencia en la Tabla
3.
6
Tabla 3
Uso de instrumentos de evaluación por evidencia de conocimiento
Instrumento
Porcentaje (%)
Examen escrito
46%
Participación oral
25%
Cuestionarios
18%
Examen oral
3%
Otros
9%
Evidencia Desempeño
Los instrumentos más utilizados son: lista de cotejos y rúbricas, como se muestra en la Tabla 4.
Tabla 4
Uso de instrumentos de evaluación por evidencia de desempeño
Instrumento
Porcentaje (%)
Lista de cotejos
48%
Rúbricas
38%
Informes
7%
Fichas de observación
3%
Evaluación oral
1%
Otros
3%
Evidencia de Producto
Los instrumentos más utilizados son: informe de practica y Proyecto, como se muestra en la Tabla 5.
Tabla 5
Uso de instrumentos de evaluación por evidencia de producto
Instrumento
Porcentaje (%)
Informe de práctica
38%
Proyecto
17%
Monografías
10%
Guía de Práctica
7%
Resolución de ejercicios
6%
Casos clínicos
3%
Maqueta
2%
Otros
16%
Análisis del uso de instrumentos de evaluación en la Universidad Católica de Santa María por facultad
Este análisis se basa en la información del sistema de sílabos de todas las facultades y cursos. Los
resultados obtenidos fueron:
Instrumentos para la evaluación de evidencia de conocimiento
Los instrumentos más utilizados son el examen escrito y la participación oral, como se muestra en la Tabla
6.
7
Tabla 6
Uso de instrumentos de evaluación por evidencia de conocimiento y facultad
Facultad
Examen escrito %
Participación oral %
Otros %
Arquitectura e Ingeniería
Civil y del Ambiente
44%
20%
17%
Ciencias Contables y
Financieras
47%
13%
35%
Ciencias e Ingenierías
Biológicas y Químicas
47%
21%
12%
Ciencias e Ingenierías
Físicas y Formales
47%
19%
13%
Ciencias Económico
Administrativa
45%
22%
13%
Ciencias Farmacéuticas
Bioquímicas y
Biotecnológicas
47%
27%
6%
Ciencias Jurídicas y
Políticas
45%
31%
24%
Ciencias y Tecnologías
Sociales y Humanidades
45%
30%
10%
Enfermería
45%
17%
4%
Medicina Humana
44%
34%
7%
Obstetricia y Puericultura
45%
31%
8%
Odontología
42%
29%
11%
Instrumentos para la evaluación de evidencia de desempeño
Los instrumentos más utilizados son la lista de cotejos y la rúbrica, como se muestra en la Tabla 7.
Tabla 7
Uso de instrumentos de evaluación por evidencia de desempeño y facultad
Facultad
Informes %
Lista de
Cotejos %
Rúbricas %
Otro %
Arquitectura e Ingeniería
Civil y del Ambiente
3%
68%
26%
3%
Ciencias Contables y
Financieras
7%
44%
41%
8%
Ciencias e Ingenierías
Biológicas y Químicas
6%
47%
43%
4%
Ciencias e Ingenierías
Físicas y Formales
14%
56%
30%
12%
Ciencias Económico
Administrativa
5%
44%
46%
5%
8
Ciencias Farmacéuticas
Bioquímicas y
Biotecnológicas
9%
65%
17%
9%
Ciencias Jurídicas y
Políticas
14%
18%
50%
18%
Ciencias y Tecnologías
Sociales y Humanidades
6%
42%
49%
3%
Enfermería
15%
38%
39%
8%
Medicina Humana
42%
33%
14%
Obstetricia y Puericultura
35%
30%
8%
Odontología
3%
14%
83%
Instrumentos para la evaluación de evidencia de producto.
Los instrumentos más utilizados son el informe de práctica y el proyecto, como se muestra en la Tabla 8.
Tabla 8
Uso de instrumentos de evaluación por evidencia de producto y facultad
Facultad
Casos
clínicos %
Guía de
Práctica %
Informe de
práctica %
Monografías
%
Proyecto
%
Otros %
Arquitectura e Ingeniería
Civil y del Ambiente
41%
10%
22%
27%
Ciencias Contables y
Financieras
36%
11%
5%
48%
Ciencias e Ingenierías
Biológicas y Químicas
57%
16%
9%
18%
Ciencias e Ingenierías
Físicas y Formales
39%
26%
35%
Ciencias Económico
Administrativa
22%
20%
29%
29%
Ciencias Farmacéuticas
Bioquímicas y
Biotecnológicas
12%
60%
8%
20%
Ciencias Jurídicas y
Políticas
31%
16%
53%
Ciencias y Tecnologías
Sociales y Humanidades
31%
8%
23%
38%
Enfermería
11%
29%
11%
49%
Medicina Humana
12%
11%
38%
39%
Obstetricia y Puericultura
32%
21%
13%
34%
Odontología
14%
35%
16%
35%
9
Discusión
Los resultados obtenidos en esta investigación confirman tendencias ampliamente documentadas en
estudios previos sobre prácticas evaluativas universitarias, donde se evidencia un claro predominio de métodos
tradicionales, especialmente el uso del examen escrito como instrumento principal. Investigaciones como la de
Barros, Casquete & Vera (2019) revelan que el 76 % de los docentes optan por este tipo de evaluación, lo cual
limita la valoración de competencias complejas, tales como la resolución de problemas, el pensamiento crítico o
la autonomía. Esta preferencia se ve reforzada por una marcada resistencia al cambio, ya que un 85 % del
profesorado no explora alternativas evaluativas innovadoras, reflejando así una brecha significativa entre la
retórica del enfoque por competencias y su aplicación real en las aulas universitarias.
En el caso específico de la Universidad Católica de Santa María, el análisis cuantitativo de los sílabos
muestra que los instrumentos más frecuentes son el examen escrito (23 %), la participación oral (12 %) y la lista
de cotejos (11 %). Esta selección responde a lógicas tradicionales centradas en la reproducción de contenidos,
más que en la demostración de habilidades o el desarrollo integral del estudiante. Aunque se observa una
inclusión progresiva de informes de práctica (10 %) y rúbricas (9 %), su uso sigue siendo limitado en comparación
con métodos formativos que aportan evidencias más ricas del aprendizaje. Además, la baja implementación de
herramientas tecnológicas y criterios evaluativos centrados en habilidades socioemocionales —como señalan
Cisneros-Cohernour et al. (2012) debilita la capacidad de la evaluación para promover aprendizajes
significativos.
Al desagregar los datos por facultades, se aprecia una distribución dispar en la selección de instrumentos.
Por ejemplo, la Facultad de Ciencias Jurídicas y Políticas privilegia el examen escrito (27 %) y la participación
oral (19 %), reproduciendo un modelo tradicionalista. En contraste, facultades como Odontología y Enfermería
evidencian una mayor apertura hacia instrumentos formativos, destacando el uso de rúbricas (18 %) y
cuestionarios (17 %), respectivamente, como medios de evaluación continua. Estas diferencias reflejan no solo
particularidades disciplinarias, sino también diversas actitudes institucionales frente al cambio metodológico, un
aspecto que debe considerarse en futuras estrategias de desarrollo docente y curricular.
Finalmente, al categorizar los instrumentos según el tipo de evidencia que recogen, se confirma la
preeminencia de la evaluación del conocimiento declarativo: el examen escrito (46 %), la participación oral (25
%) y los cuestionarios (18 %) representan la mayor proporción. En contraste, los instrumentos que permiten
evaluar el desempeño (listas de cotejo: 48 %, rúbricas: 38 %) y las evidencias de producto (informes de práctica:
38 %, proyectos: 17 %) tienen un uso más moderado. Este panorama subraya la necesidad urgente de fortalecer
el enfoque por competencias mediante la incorporación sostenida de instrumentos innovadores y alineados con
evidencias auténticas del aprendizaje, tal como proponen Bazán (2024), Hamodi (2015) y Varela & Álvarez de
Sotomayor (2023), quienes destacan el valor transformador de la evaluación formativa para lograr una educación
superior más equitativa, significativa y profesionalmente relevante.
Conclusiones
Los resultados evidencian una clara tendencia hacia una evaluación centrada en el conocimiento
declarativo, principalmente representada por el examen escrito (23 %) y la participación oral (12 %). Este enfoque
tradicional limita la valoración de habilidades complejas como el pensamiento crítico, la resolución de problemas
y la creatividad. Esta prevalencia se explica, en parte, por la insuficiente formación docente en evaluación
innovadora: el 85 % de los profesores no ha desarrollado competencias en este ámbito, lo que restringe la
incorporación de métodos más formativos y contextualizados. Aunque los estudiantes manifiestan una creciente
demanda por tecnologías y prácticas evaluativas orientadas a competencias (55 %), las respuestas institucionales
aún resultan insuficientes para transformar el paradigma vigente.
El análisis por facultades revela una diversidad de enfoques acorde con las particularidades disciplinares.
Mientras que en Ciencias Jurídicas y Políticas predomina el examen escrito (27 %), en Odontología destaca tanto
el examen escrito (20 %) como el uso de rúbricas (18 %), y en Enfermería se observa una estrategia más
equilibrada entre examen escrito (22 %) y cuestionarios (17 %). Sin embargo, esta variedad de instrumentos no
garantiza una innovación real si no se acompaña de una revisión profunda de los criterios evaluativos y del tipo
de evidencias recogidas. A pesar de la existencia de herramientas como portafolios y proyectos, su aplicación
sigue siendo marginal, y un 74 % de los estudiantes reporta ambigüedades en los criterios de evaluación, lo que
afecta la transparencia y equidad del proceso.
Por último, al clasificar los instrumentos según el tipo de evidencia recolectada, se observa un
desequilibrio significativo: la mayoría mide conocimientos (examen escrito 46 %, participación oral 25 %). Las
listas de cotejo (48 %) y las rúbricas (38 %) se emplean con relativa frecuencia para valorar el desempeño,
mientras que los informes de práctica (38 %) y los proyectos (17 %) miden la evidencia de producto,
10
representando una oportunidad para fortalecer prácticas más auténticas y alineadas con los objetivos
profesionales. No obstante, la escasa atención a la autorreflexión, la autonomía del estudiante y la evaluación
contextualizada del aprendizaje exige una transformación más profunda hacia modelos integrales que articulen
conocimiento, acción y resultados significativos.
Referencias
Abbas, N., & Atwell, E. (2025). Cognitive computing with large language models for student assessment
feedback. Big Data and Cognitive Computing, 9(5), 112. https://doi.org/10.3390/bdcc9050112
Ahumada, P. (2005). La evaluación auténtica: Un sistema para la obtención de evidencias. Perspectiva
Educacional, 45(14), 11–24. https://www.redalyc.org/pdf/3333/333329100002.pdf
Annamalai, N., Hashim, M., Mohd Yatim, S. A., Mohamad Yunus, N., & Kamal, S. S. L. A. (2025). Exploring the
representation of multiple intelligences in self-instructional materials in the learning management
system. Library Hi Tech. https://doi.org/10.1108/LHT-01-2024-0036
Barros, R., Casquete, R., & Vera, K. (2019). Los instrumentos de evaluación y su importancia para mejorar la
calidad educativa de los estudiantes de la Universidad de Babahoyo, Extensión Quevedo. Revista Ciencia
e Investigación, 4, 324. https://dialnet.unirioja.es/servlet/articulo?codigo=7368587
Bazán, M. P.-R. (2024). Instrumentos de evaluación en la información de competencias profesionales de
estudiantes universitarios. Revista Chakiñan de Ciencias Sociales y Humanidades, 22, 69–
84. https://chakinan.unach.edu.ec/index.php/chakinan/article/view/974
Castillo-Manzano, J. I., Castro-Nuño, M., López-Valpuesta, L., Sanz-Díaz, M. T., & Yñiguez, R. (2024). Evaluating
the design of digital tools for the transition to an e-continuous assessment in higher education. Journal of
Computing in Higher Education, 36(3), 875–893. https://doi.org/10.1007/s12528-023-09381-2
Chisag, J., Herrera, M., & Casa, M. (2019). Metodología e instrumentos aplicables a estudiantes de educación
superior (Vol. 3). España.
Cisneros-Cohernour, E., Jorquera, M., & Aguilar, A. (2012). Validación de instrumentos de evaluación docente en
el contexto de una universidad española. Voces y Silencios: Revista Latinoamericana de Educación, 3(1),
41–55. https://revistas.uniandes.edu.co/index.php/vys/article/view/7536
David, J. O. (2025). Redefining assessment for sustainability: A reflective approach to curriculum transformation
in environmental education. Frontiers in Education, 10,
1553999. https://doi.org/10.3389/feduc.2025.1553999
Gumeta, H. (2025). Online teaching in China: Active learning and authentic assessment challenges. In E. Vilalta-
Perdomo, A. Scroccaro, D. E. Salinas-Navarro, & R. Michel-Villarreal (Eds.), The Emerald Handbook of
Active Learning for Authentic Assessment (pp. 271–291). Emerald Publishing
Limited. https://doi.org/10.1108/978-1-83797-857-120251014
Hamodi, C. L. (2015). Medios, técnicas e instrumentos de evaluación. Perfiles Educativos,
37(147). https://www.scielo.org.mx/scielo.php?pid=S0185-26982015000100009&script=sci_abstract
Hernández-León, N., & Cárdenas-Chávez, L. (2024). Inteligencia artificial aplicada a la educación y la evaluación
educativa en la universidad: Introducción de sistemas de tutorización inteligentes, sistemas de
reconocimiento y otras tendencias futuras. Revista de Educación a Distancia, 24(78), 1
32. https://doi.org/10.6018/red.594651
Huerta, M. (2018). Evaluación basada en evidencias, un nuevo enfoque de evaluación por competencias. Le
Cordon Bleu, 5(1), 1–59. https://doi.org/10.36955/RIULCB.2018v5n1.0011
Kusmawan, U., & Sukmayadi, D. (2024). Scale development on university students’ digital and online
competencies. Edutec, (90), 7491. https://doi.org/10.21556/edutec.2024.90.3265
Mandasari, B., Rahmah, M., & Mukminatien, N. (2024). Developing an assessment instrument model for
Indonesian culture-based oral presentations. Journal for Foreign Languages, 16(1), 385
402. https://doi.org/10.4312/vestnik.16.385-402
Nardoni, M. G. (2022). Repensando la evaluación de los aprendizajes en la cátedra de matemática como
lenguaje. Ciencias Económicas, 2(19), 1–14. https://dialnet.unirioja.es/descarga/articulo/9047759.pdf
Rodríguez-Ferrer, J. M., Rivera, P. R., & Manzano-León, A. (2025). Playful methodologies for evaluation in higher
education: A systematic review. Edutec, 305–319. https://doi.org/10.21556/edutec.2025.91.3519
Sánchez, M. (2023). La inteligencia artificial generativa y la evaluación: ¿Qué pasará con los
exámenes? Investigación en Educación Médica, 12(48), 1–
4. https://doi.org/10.22201/fm.20075057e.2023.48.23550
11
Tejedor de León, D., & Tejedor de León, E. (2024). Modelo de evaluación de los aprendizajes basado en
evidencias contextualizado al nivel superior público panameño. Revista de Evaluación Educativa, 3(1),
38–64. https://doi.org/10.48204/rea.v3n1.5102
Tobón, S. (2013). Formación integral y competencias: Pensamiento complejo, currículo, didáctica y
evaluación (4.ª ed.). ECOE Ediciones.
Torres, T. (2020). En defensa del método histórico-lógico desde la lógica como ciencia. Revista Cubana de
Educación Superior, 9(2), 12. http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S0257-
43142020000200016
Ucan, S., Yıldırım Hoş, H., Karataş, İ. H., & lbül, Y. (2025). Faculty assessment choices in higher education:
Drivers, strategies, and decision-making styles. Assessment and Evaluation in Higher
Education. https://doi.org/10.1080/02602938.2025.2511792
Varela, C., & Álvarez de Sotomayor, I. (2023). Evaluación innovadora en educación superior. Revista de Estilos
de Aprendizaje, 17(33), 1–11. https://doi.org/10.55777/rea.v17i33.4497
Yu, Z., Di, X., & Chen, F. (2025). University-level students’ perceptions of using the portfolio assessment
method. Forum for Linguistic Studies, 7(4), 413–424. https://doi.org/10.30564/fls.v7i4.8635