
Revista de Investigación Educativa y Deportiva
|
Volumen 5
|
2026 |
|
Número 14 |
Director: Ph.D. Richar Posso Pacheco
Email: rjposso@revistamentor.ec
Website: https://revistamentor.ec/
Editora en Jefe: Ph.D. Susana Paz Viteri
Coordinador Editorial: Ph.D. (c) Josue Marcillo Ñacato
Coordinadora Comité Científico: Ph.D. Laura Barba Miranda
Supervisor Editorial: Ph.D. Isidro Lapuente Álvarez
Coordinadora Comité de Editores: Msc. María Gladys Cóndor Chicaiza
Coordinador del Consejo de Revisores: PhD. Javier Fernández-Rio
Original

Study of the use of AI for learning the subject of programming I:
case study of information technology career
Estudio del uso de IA para el aprendizaje de la materia programación I:
caso de estudio carrera de tecnologías de la información
Mariela Paola Espinoza Martínez 1
ORCID: https://orcid.org/0000-0003-3677-019X
ORCID: https://orcid.org/0000-0003-4872-3702
ORCID: https://orcid.org/0009-0006-6925-6356
Jorge Armando Caguana Méndez 1
ORCID: https://orcid.org/0009-0002-8295-7545
Universidad de Guayaquil, Guayaquil, Ecuador 1
Autor de correspondencia
mariela.espinozam@ug.edu.ec
fausto.orozcol@ug.edu.ec
andrew.aspiazus@ug.edu.ec
jorge.caguanam@ug.edu.ec
Recibido: 22-01-2026
Aceptado: 05-03-2026
Disponible en línea: 15-05-2026
The objective of this study was to describe the trends observed in academic performance during the use of Artificial Intelligence (AI) in the Programming 1 course in the Information Technology degree program. The methodology consisted of a quasi-experimental quantitative design that integrated two sources of data: academic performance and student perception, at a descriptive level, with non-equivalent groups. To collect data, an experimental group was used with Artificial Intelligence tools, and two comparison groups under traditional instruction; the three courses shared the same syllabus and evaluation periods. The quantitative results show the averages of the three courses in the “alert zone” below 7/10, with no evidence of improvement attributable to the intervention of these tools. 56.5% of students in the experimental group perceived a reduction in academic frustration, and 78.2% expressed satisfaction with learning with Artificial Intelligence. A dependency was evident: 82.6% of students reported low confidence in passing an independent practical exam without technological assistance. It was concluded that these tools functioned as a technical safety net for syntax correction but did not replace logical-algorithmic reasoning.
Keywords: artificial intelligence, programming, academic performance, cognitive scaffolding.
El objetivo de este estudio fue describir las tendencias observadas en el desempeño académico durante el uso de la Inteligencia Artificial (IA) en la materia Programación 1 en la carrera de Tecnologías de la Información. La metodología consistió en un diseño cuantitativo cuasiexperimental que integra dos fuentes de datos: rendimiento académico y percepción estudiantil, de nivel descriptivo, con grupos no equivalentes. Para recolectar datos se utilizó un grupo experimental intervenido con herramientas de Inteligencia Artificial, y dos grupos de comparación bajo instrucción tradicional; los tres cursos compartían el mismo syllabus y períodos de evaluación. Los resultados cuantitativos muestran los promedios de los tres cursos en “zona de alerta” por debajo de 7/10, sin evidenciarse una mejora atribuible a la intervención de dichas herramientas. El 56,5% de estudiantes del grupo experimental percibió una reducción de frustración académica, y el 78,2% expresó satisfacción con el aprendizaje con la Inteligencia Artificial. Se evidenció una dependencia: el 82,6% de los estudiantes reportó baja confianza para aprobar un examen práctico autónomo sin asistencia tecnológica. Se concluye que estas herramientas funcionaron como red de seguridad técnica para corrección de sintaxis, pero no sustituyeron el razonamiento lógico-algorítmico.
Palabras clave: inteligencia artificial, programación, rendimiento académico, andamiaje cognitivo.
La enseñanza de la programación en el nivel universitario enfrenta una problemática estructural documentada en múltiples contextos latinoamericanos: los cursos introductorios actúan históricamente como materias “filtro” con elevadas tasas de reprobación y deserción, debido a que los estudiantes deben enfrentar simultáneamente el aprendizaje de la lógica algorítmica y la sintaxis de un lenguaje de programación, lo que genera una sobrecarga cognitiva que deriva con frecuencia en frustración y abandono. En la carrera de Tecnologías de la Información donde se realizó este estudio, se identificó que una proporción considerable de estudiantes de primer semestre ingresa sin bases formativas previa, provenientes de bachilleratos no técnicos, lo que agrava las brechas de conocimiento al inicio del ciclo (Morillo, 2016).
Diversas investigaciones han abordado este fenómeno con distintas aproximaciones. Vera Paredes et al. (2025), mediante una revisión sistemática con metodología PRISMA, identificaron que las dificultades más frecuentes en cursos de programación incluyen la abstracción lógica, la depuración de errores y la desconexión entre teoría y práctica, y que las intervenciones pedagógicas con tecnología adaptativa muestran resultados mixtos dependientes del diseño instruccional. En el contexto ecuatoriano, Basantes Suñiga (2023) analizó el uso de asistentes de IA en educación superior y encontró que su integración puede reducir la carga cognitiva externa asociada a la sintaxis, aunque advirtió sobre el riesgo de sustitución del pensamiento lógico por la automatización. Por su parte, Díaz Vera et al. (2024), en un estudio con 334 docentes de educación superior, señalaron que la IA generativa se expande de manera dinámica y compleja en el ámbito educativo, y que su implementación requiere criterios éticos y estratégicos explícitos para evitar usos dependientes y no reflexivos.
A pesar de este creciente cuerpo de evidencia, persiste un vacío en la literatura respecto a cómo el uso de herramientas de IA influye simultáneamente en el rendimiento académico y en la autonomía cognitiva de estudiantes de primer semestre en cursos introductorios de programación dentro de contextos universitarios latinoamericanos específicos. La mayoría de los estudios existentes miden impactos en términos de calificaciones finales o percepciones generales, sin analizar la tensión entre el apoyo técnico que ofrece la IA y el riesgo de dependencia que puede comprometer la transferencia del aprendizaje hacia evaluaciones autónomas. Por lo tanto, el objetivo del presente estudio fue determinar la relación entre el uso de herramientas de Inteligencia Artificial y el aprendizaje en la asignatura Programación 1 de la carrera de Tecnologías de la Información, analizando simultáneamente el rendimiento académico y la percepción estudiantil sobre autonomía y dependencia tecnológica.
El estudio adoptó un diseño cuantitativo cuasiexperimental que integra dos fuentes: que son indicadores de rendimiento académico y datos de percepción estudiantil. En una primera fase se recolectaron y analizaron datos cuantitativos de rendimiento académico (calificaciones en seis momentos de evaluación, procesadas por el Dashboard analítico); en una segunda fase, sobre la base de esas tendencias, se incorporaron los datos de percepción estudiantil obtenidos mediante un cuestionario de diez ítems de respuesta cerrada, cuyos resultados se analizaron de forma cuantitativa descriptiva. Los resultados de percepción se analizaron posteriormente para contextualizar e interpretar las tendencias observadas en los indicadores de rendimiento académico.
El nivel de investigación fue descriptivo-explicativo: descriptivo, porque caracterizó tendencias de desempeño por actividad y percepciones sobre el uso de IA; explicativo, porque buscó analizar la asociación entre la presencia de herramientas de IA y los resultados académicos observados. Sin embargo, la ausencia de asignación aleatoria y la carencia de un pretest estandarizado impiden establecer causalidad; las interpretaciones se limitan a tendencias descriptivas con valor analítico contextual.
El diseño fue cuasiexperimental de grupos no equivalentes con medición de solo postest. No se aplicó un instrumento de evaluación diagnóstica estandarizado previo a la intervención que garantizara la equivalencia inicial entre los tres paralelos. Esta ausencia de pretest formal constituye la principal limitación del diseño: impide controlar diferencias de base en conocimientos previos, rendimiento histórico, estilos de aprendizaje o nivel de motivación entre grupos, restringiendo cualquier comparación entre cursos al nivel de tendencia descriptiva contextual, no de efecto causal.
La población consistió en la totalidad de los estudiantes matriculados en los tres paralelos de Programación 1 durante el primer parcial del ciclo II 2025-2026 en la carrera de Tecnologías de la Información. El curso 1-6 (n = 37 matriculados; n = 23 que completaron todas las actividades y el cuestionario) fue designado como grupo experimental, en el cual se implementó la integración sistemática de herramientas de IA como andamiaje pedagógico. Los cursos 1-2 y 1-7 actuaron como grupos de control bajo metodología tradicional, sin integración sistemática de IA durante el parcial. Para equiparar las condiciones de evaluación, los tres paralelos compartieron: (a) el mismo contenido temático según el sílabo institucional; (b) las mismas seis actividades evaluativas con idénticos criterios de calificación; y (c) el mismo período temporal de aplicación. No obstante, variables de confusión no controladas, como diferencias de conocimientos previos entre paralelos, dinámica propia de cada grupo-clase y posible variación en el ritmo de avance docente, deben tenerse en cuenta al leer cualquier diferencia entre cursos. En cuanto a los aspectos éticos, el estudio contó con autorización institucional para el acceso a los registros académicos y para la aplicación del cuestionario de percepción. Los participantes fueron informados del propósito del estudio y del carácter voluntario de su participación en el cuestionario; la identidad de los estudiantes no se divulga en los resultados, preservando el anonimato de los datos reportados.
La variable independiente fue la integración de herramientas de IA, definida por la exposición tecnológica mediante registro docente y asignación de paralelo, con presencia sistemática en el grupo experimental y ausencia en los grupos de control. Las variables dependientes fueron: (a) rendimiento académico, que abarcó las dimensiones de conocimiento de fundamentos, resolución de algoritmos y autonomía evaluativa, operacionalizado como la calificación obtenida en seis instancias evaluativas (un diagnóstico en Kahoot, cuatro talleres en Forms/Quizizz y una lección sin asistencia de IA), en escala 0–10 registradas en el Dashboard analítico; y (b) percepción estudiantil sobre el uso de IA, que analizó dimensiones de rol percibido, dependencia tecnológica, impacto socioemocional y satisfacción general mediante las respuestas a diez ítems cerrados aplicados al grupo experimental al término de la intervención. Es fundamental subrayar que las actividades formativas no fueron diseñadas con rúbricas que operacionalicen directamente constructos como carga cognitiva, retención conceptual o pensamiento algorítmico; sus puntajes describen desempeño en la tarea específica, cuya interpretación teórica se realiza en la sección de Discusión, aclarando que los datos son consistentes con esas hipótesis, pero no las miden de forma directa.
Las herramientas de IA integradas en el grupo experimental incluyeron: zzzcode.ai (corrección de sintaxis y explicación de errores lógicos), ChatGPT y Gemini (consultas conceptuales), Kahoot (evaluación gamificada de fundamentos), Quizizz (refuerzo de estructuras de control) y Google Forms (práctica estructurada). El uso fue guiado por el docente y orientado a tareas específicas del sílabo; no se autorizó el uso libre sin supervisión, ni el acceso a estas herramientas durante la lección evaluativa final.
La recolección de datos se organizó en tres fases. Fase 1 Diagnóstico inicial (todos los grupos, sin IA): la Actividad 1 (Kahoot) se aplicó a los tres paralelos sin acceso a herramientas de IA, con el propósito de obtener una referencia descriptiva del nivel de conocimientos previos. Al no constituir un pretest con instrumento estandarizado validado, sus resultados se usan como línea de base orientativa, no como garantía de equivalencia entre grupos. Fase 2 Intervención (grupo experimental con IA; grupos de control sin IA): desde la Actividad 2 hasta la Actividad 5, el grupo 1-6 utilizó herramientas de IA bajo supervisión docente como andamiaje pedagógico, mientras los grupos 1-2 y 1-7 desarrollaron las mismas actividades bajo metodología tradicional. Fase 3 Evaluación autónoma (todos los grupos, sin IA): la Lección evaluativa se aplicó a los tres grupos en el mismo momento, sin acceso a IA, como indicador de la transferencia del aprendizaje hacia la autonomía. Dado que no existe pretest estandarizado, el diseño se clasifica como de solo postest con grupos de comparación intactos; las comparaciones entre cursos son descriptivas y contextuales, no causales.
Los datos cuantitativos de rendimiento se registraron de forma continua en el Dashboard analítico, herramienta web personalizada que visualiza calificaciones mediante gráficos de frecuencia, promedios por curso y semaforización (verde: suficiente ≥7/10; amarillo: alerta 5–6,9; rojo: bajo <5). Los datos de percepción se recogieron mediante un cuestionario de diez ítems cerrados aplicado únicamente al grupo experimental al término de la intervención, por lo que sus resultados describen la experiencia de ese grupo y no permiten comparaciones con los cursos de control. El Dashboard cumple la función de visualizador de tendencias; no constituye, por sí mismo, un instrumento de validación de constructos psicoeducativos.
Esta sección reporta, de forma estrictamente descriptiva, los hallazgos obtenidos en las dos fuentes de datos del estudio: primero los resultados cuantitativos de rendimiento académico, y luego los resultados cuantitativos descriptivos de percepción estudiantil. Ambas fuentes se integran en un apartado final de síntesis descriptiva entre indicadores de rendimiento y percepciones estudiantiles. Las interpretaciones que siguen se limitan a describir tendencias observadas; las explicaciones teóricas y el diálogo con la literatura se desarrollan en la Discusión.
Contexto del aprendizaje en Programación 1
Como referencia contextual, se registró que la asignatura Programación 1 presenta históricamente indicadores elevados de reprobación y abandono en la carrera de Tecnologías de la Información, consistentes con la literatura regional sobre cursos introductorios de programación (Morillo, 2016; Vera Paredes et al., 2025). En el ciclo estudiado, un segmento considerable del estudiantado ingresó sin formación computacional previa, proveniente de bachilleratos no técnicos. Estos antecedentes contextualizan sin determinar los niveles de desempeño observados en las actividades.
Resultados cuantitativos de rendimiento académico
Los datos cuantitativos se obtuvieron del Dashboard analítico, que procesó las calificaciones de los tres cursos en seis instancias evaluativas durante el primer parcial. Dado que el diseño no incluyó pretest estandarizado, las comparaciones entre cursos son descriptivas y contextuales. En ningún caso se interpreta una diferencia entre cursos como efecto causal de la intervención con IA; factores no controlados de conocimientos previos, dinámica de cada paralelo, ritmo de avance docente, pudieron contribuir a las diferencias observadas. Se pueden observar mejor en la siguiente tabla 1:
Tabla 1
Promedios (M) y dispersión por actividad evaluativa y curso/ Programación 1, ciclo II 2025-2026
|
Actividad |
Herramienta |
Fase |
Curso 1-2 (Control) |
Curso 1-6 (Experimental) |
Curso 1-7 (Control) |
Observación |
|||
|
|
|
|
M |
Dispersión |
M |
Dispersión |
M |
Dispersión |
|
|
Actividad 1 Kahoot (diagnóstico inicial) |
Kahoot |
Diagnóstico (sin IA) |
5.38 |
Heterogénea |
5.08 |
Heterogénea |
4.02 |
Zona baja |
Sin IA. Media máx. 5.38 en los tres cursos |
|
Actividad 2 Taller: Sec., Selec. e Iteración |
Forms/Quizizz |
Intervención |
6.05 |
Heterogénea |
4.64 |
Heterogénea |
4.95 |
Heterogénea |
Distribuciones heterogéneas entre cursos |
|
Actividad 3 Forms: Práctica de Refuerzo |
Google
Forms |
Intervención |
7.50 |
Alta dispersión |
4.82 |
Menor dispersión |
0.82 |
Alta dispersión |
Curso 1-6 con menor dispersión extrema |
|
Actividad 4 Quizizz: Bucles |
Quizizz |
Intervención |
6 |
Incluye notas nulas |
4.15 |
Sin notas nulas |
5.18 |
Incluye notas nulas |
Grupo exp. sin calificaciones nulas |
|
Actividad 5 Práctica: Arreglos y Matrices |
Práctica evaluada Codeconvert.ai |
Intervención |
6.41 |
Moderada |
4.18 |
Variable |
2.95 |
Alta |
Mayor variabilidad entre cursos del parcial |
|
Lección evaluativa Selec. e Iteración (sin IA) |
Lección escrita |
Eval. autónoma (sin IA) |
4.50 |
Zona baja |
3.66 |
Zona baja |
4.40 |
Zona baja |
Todos los grupos en rendimiento bajo |
Nota. Elaborada por los autores.
Resultados de percepción estudiantil: análisis por dimensiones
El cuestionario de diez ítems cerrados fue aplicado a los 37 estudiantes del grupo experimental (1-6) al término de la fase de intervención pero solo respondieron los 23 estudiantes que participaron durante todo la intervención. Sus resultados se analizan como datos cuantitativos descriptivos de percepción; no constituyen análisis cualitativo en sentido estricto. Los resultados se organizan en ocho dimensiones analíticas, no por número de pregunta, definidas a partir de los focos temáticos del instrumento. Cada dimensión se reporta indicando qué ítems la alimentan.
Dimensión 1 - Rol percibido de la IA (Ítem 1). El 39,1 % de los estudiantes identificó la IA principalmente como «corrector de errores»; el 26,1 % como «generador de soluciones» (uso para obtener código directamente); el 21,7 % como «tutor explicativo»; y el 13 % como generador de práctica adicional (gráfico 7). La concentración del uso en funciones correctivas y de generación de soluciones sumando 65,2 % describe que, en este grupo, la IA operó predominantemente como apoyo técnico de sintaxis más que como herramienta de razonamiento.
Gráfico 1
Rol percibido de la IA en el aprendizaje.
Nota. Resultados obtenidos de la encuesta aplicada a los 23 estudiantes participantes tras la implementación de herramientas de IA.
Dimensión 2 - Estrategias de depuración y autonomía (Ítem 2). Ante errores en el código, el 47,8 % reportó analizar la explicación de la IA para resolver el error de forma autónoma; el 30,4 % generó ejemplos similares para practicar; y el 21,7 % copió el código corregido sin análisis previo (gráfico 8). El 21,7 % que copió sin analizar representa un patrón de uso que, en términos descriptivos, apunta a posible dependencia; no puede afirmarse que ese patrón fue o no reflexivo, dado que el instrumento no incluyó criterios de observación independiente.
Gráfico 2
Estrategias de depuración reportadas.
Nota. Resultados de la encuesta aplicada para evaluar la autonomía y el pensamiento crítico en la depuración de programas.
Dimensión 3 - Criterio crítico sobre la fiabilidad de la IA (Ítem 3). El 39,1 % reportó haber detectado respuestas incorrectas o ineficientes de la IA y haber podido corregirlas; el 43,5 % no recordó errores de la herramienta; y el 17,4 % detectó fallas pero no supo resolverlas sin recurrir a otra herramienta (gráfico 9). El 17,4 % que no pudo resolver errores detectados describe una fracción del grupo con vulnerabilidad crítica ante posibles inexactitudes del modelo.
Gráfico 3
Criterio crítico sobre la fiabilidad de la IA.
Nota. Resultados de la encuesta aplicada para evaluar el nivel de discernimiento técnico y supervisión humana sobre la herramienta de IA.
Dimensión 4 - Dependencia ante evaluación sin IA (Ítem 4). El 47,8 % declaró que enfrentaría un examen autónomo «con muchas dificultades»; el 34,8 % se mostró “incierto”; y solo el 17,4 % se consideró “bastante capaz” (gráfico 10). En conjunto, el 82,6 % expresó algún nivel de inseguridad ante la evaluación sin asistencia tecnológica. Este porcentaje es coherente con el desempeño observado en la lección evaluativa (todos los grupos en zona roja), lo que constituye el primer punto de articulación entre fuentes cuantitativas y perceptuales del estudio.
Gráfico 3
Nivel de confianza para evaluación autónoma sin IA.
Nota. Resultados de la encuesta aplicada para evaluar la seguridad estudiantil y la transferencia de conocimiento tras el uso de herramientas de IA.
Dimensión 5 - Impacto socioemocional (Ítem 5). El 56,5 % reportó que la IA redujo sustancialmente su frustración e incrementó su motivación; el 30,4 % señaló que, pese al apoyo, continuó experimentando dificultades; y el 13 % indicó que la IA le generó ansiedad respecto a la validez de su aprendizaje (gráfico 11). La coexistencia de una alta percepción de alivio emocional (56,5 %) con un desempeño bajo en la lección autónoma (3,66/10 en el grupo experimental) constituye la tensión descriptiva central de este estudio: confort emocional no equivale a aprendizaje autónomo consolidado.
Gráfico 4
Impacto socioemocional percibido del uso de IA.
Nota. Resultados de la encuesta aplicada para evaluar el bienestar emocional y la persistencia académica tras la intervención tecnológica.
Dimensión 6 - Cambios en los hábitos de estudio (Ítem 6). El 52,2 % empleó la IA como un recurso de explicación de conceptos fuera del horario de clases; el 39,1 % la usó para verificar y depurar su propio código; el 21,7 % sustituyó fuentes de consulta tradicionales; y otro 21,7 % automatizó tareas para reducir el tiempo de estudio (gráfico 12). Solo el 8,7 % no reportó cambios. El patrón de automatización de tareas (21,7 %) describe un comportamiento que, de ampliarse, podría reducir el esfuerzo cognitivo invertido; su interpretación teórica se desarrolla en la Discusión.
Gráfico 5
Cambios en hábitos de estudio reportados.

Nota. Resultados de la encuesta aplicada para identificar la evolución de las estrategias de aprendizaje autónomo.
Dimensiones 7 y 8 - Postura ética y satisfacción general (Ítems 7 y 8). El 65,2 % consideró que la IA debería enseñarse formalmente como habilidad técnica en el currículo; el 26,1 % apoyó su uso libre; y el 8,7 % propuso su prohibición en niveles básicos (gráfico 13). En cuanto a satisfacción general, el 78,2 % expresó niveles favorables (39,1 % totalmente satisfecho y 39,1 % satisfecho); el 13 % neutral; y el 8,7 % insatisfecho (gráfico 14). La alta tasa de aprobación de la experiencia (78,2 %) contrasta con el indicador de dependencia (82,6 %), reforzando la tensión descriptiva entre valoración positiva de la experiencia y fragilidad en la autonomía evaluativa.
Gráfico 6
Postura ética sobre la IA en el currículo.
Nota. Resultados de la encuesta aplicada para definir la visión de los futuros profesionales de TI sobre el currículo académico.
Gráfico 7
Nivel de satisfacción general con el aprendizaje
asistido por IA.
Nota. Resultados de la encuesta aplicada para medir la aceptación tecnológica y el impacto en la experiencia de aprendizaje.
Dimensión 9 - Motivación y dinamismo con IA frente a métodos tradicionales (Ítem 9). El 47,8 % de los estudiantes afirmó que el aprendizaje resultó más dinámico e interesante con las herramientas de IA en comparación con el uso exclusivo de libros o diapositivas; el 43,5 % no percibió diferencia significativa respecto a los métodos tradicionales; y el 8,7 % expresó preferencia por la metodología tradicional sin asistencia tecnológica (gráfico 15). La coexistencia de una mayoría que valoró positivamente el dinamismo (47,8 %) con un grupo significativo que no distinguió cambio (43,5 %) sugiere que el impacto motivacional de la IA no fue homogéneo en el grupo y que factores individuales de perfil de aprendizaje pudieron modular la percepción de interés y compromiso.
Gráfico 8
Percepción sobre dinamismo y motivación con IA
frente a métodos tradicionales.
Nota. Resultados de la encuesta aplicada para evaluar el impacto de la tecnología en el compromiso estudiantil (n = 23).
Dimensión 10 - Preferencia de modalidad educativa futura (Ítem 10). El 65,2 % de los estudiantes declaró que preferiría cursar futuras asignaturas de programación con integración de herramientas de IA; el 21,7 % mostró indiferencia ante la modalidad; y el 13 % prefirió retornar a una metodología sin IA (gráfico 16). Este alto porcentaje de preferencia por la modalidad asistida (65,2 %) es coherente con los indicadores de satisfacción general (78,2 %, Dimensión 8) y constituye un indicador de aceptación tecnológica que, no obstante, debe leerse junto al indicador de dependencia (82,6 %, Dimensión 4): la preferencia declarada por la asistencia tecnológica puede reflejar tanto una valoración pedagógica positiva como una tendencia a preferir el andamiaje frente a la autonomía evaluativa.
Gráfico 9
Preferencia de modalidad educativa para futuras asignaturas de programación.
Nota. Resultados de la encuesta aplicada para evaluar la sostenibilidad de la integración de la IA en la formación académica (n = 23).
Triangulación entre indicadores de rendimiento y dimensiones de percepción
La Tabla 1 integra los indicadores de rendimiento con las dimensiones de percepción como síntesis descriptiva entre ambas fuentes cuantitativas, mostrando la correspondencia entre tendencias y la lectura conjunta que resulta de articularlas. Los datos de percepción permiten contextualizar e interpretar las tendencias observadas en los indicadores de rendimiento académico.
Tabla 2
Triangulación entre indicadores de rendimiento y dimensiones de percepción.
|
Dimensión perceptual |
Ítems que la alimentan |
Tendencia de percepción |
Indicador de rendimiento relacionado |
Tendencia integrada |
|
Dependencia ante evaluación sin IA |
Ítem 4 |
82,6 % con inseguridad o baja confianza |
Lección autónoma: todos los grupos en zona roja (3,66/10 en grupo exp.) |
Dependencia autorreportada consistente con el desempeño en evaluación autónoma |
|
Impacto socioemocional |
Ítem 5 |
56,5 % reporta reducción de frustración |
Promedios en zona de alerta en todas las actividades; lección en zona roja |
Alivio emocional sin mejora académica autónoma consolidada |
|
Rol percibido de la IA |
Ítem 1 |
65,2 % la percibe como corrector o generador de soluciones |
Distribuciones de rendimiento similares entre grupos en actividades de intervención |
Uso predominantemente técnico-correctivo, no de razonamiento profundo |
|
Estrategias de depuración |
Ítem 2 |
21,7 % copia sin analizar |
No existe indicador directo; coherente con la fragilidad en la lección autónoma |
Patrón de uso sustitutivo en fracción relevante del grupo |
|
Satisfacción general |
Ítem 8 |
78,2 % satisfecho o muy satisfecho |
Promedios en zona de alerta en todas las actividades |
Alta valoración de la experiencia con rendimiento académico no mejorado |
Nota. Elaborada por los autores.
Interpretación de la tensión central: confort emocional y fragilidad autónoma
El hallazgo más relevante del estudio es la coexistencia de dos tendencias aparentemente contradictorias: por un lado, una percepción elevada de reducción de frustración y de satisfacción con la experiencia asistida por IA (56,5 % y 78,2 %, respectivamente); por otro, la persistencia de promedios en zona de alerta en todas las actividades formativas y un desempeño bajo en la lección evaluativa sin asistencia (3,66/10 en el grupo experimental), con un 82,6 % de estudiantes que reportó inseguridad ante una evaluación autónoma. Esta dualidad es consistente con lo que Vera Paredes et al. (2025) describen como el riesgo de intervenciones tecnológicas que reducen la carga cognitiva externa (asociada a la sintaxis) sin generar comprensión profunda de la lógica algorítmica, que requiere esfuerzo cognitivo activo. Los datos de este estudio son consistentes con esa advertencia, aunque no la demuestran directamente, dado que no se midió carga cognitiva con instrumentos específicos.
El patrón de uso observado, donde la IA funcionó predominantemente como “corrector de errores” (39,1 %) y “generador de soluciones” (26,1 %), es coherente con la hipótesis de andamiaje técnico: la herramienta ofreció soporte en la dimensión superficial (sintaxis) más que en la dimensión profunda (razonamiento algorítmico). Pairetti et al. (2023) plantean que el uso pedagógico efectivo de la IA generativa debería orientarse a problemas de complejidad que el estudiante no puede abordar de forma independiente en los tiempos del curso, preservando la responsabilidad del razonamiento en el propio alumno. Los resultados sugieren que esa condición no se alcanzó plenamente en este contexto: la ausencia de una retirada progresiva del andamiaje evidente en los niveles de dependencia autorreportada habría facilitado el uso sustitutivo más que el uso amplificador. Sin embargo, estas interpretaciones son hipotéticas; el diseño del estudio no permite verificarlas con certeza.
Diálogo con la literatura sobre impacto socioemocional y dependencia
El impacto socioemocional positivo, reducción de frustración y alta satisfacción; se alinea con los hallazgos de Díaz Vera et al. (2024), quienes documentaron que la IA generativa puede actuar como facilitadora de la motivación y la persistencia académica cuando se integra de forma controlada. No obstante, los mismos autores advierten que su uso sin criterios éticos y estratégicos claros puede generar sustitución del pensamiento más que amplificación cognitiva. En este estudio, el porcentaje de estudiantes que copió soluciones sin análisis previo (21,7 %) y el que reportó baja confianza ante evaluaciones autónomas (82,6 %) describen indicadores de dependencia que coinciden con esas advertencias, aunque la encuesta no permite distinguir cuál fue el proceso cognitivo real detrás de cada uso autorreportado.
Basantes Suñiga (2023) advirtió específicamente sobre el riesgo de que los asistentes de IA en programación sustituyan el pensamiento lógico por automatización. Los datos de hábitos de estudio de este estudio, donde el 21,7 % automatizó tareas para reducir el tiempo invertido; son coherentes con esa advertencia a nivel descriptivo. Sin embargo, dado que la encuesta es de autorreporte, no puede descartarse que la percepción de “automatización” refleje en parte una interpretación subjetiva del propio proceso de aprendizaje asistido.
Limitaciones metodológicas y alcance de las inferencias
Es indispensable delimitar con precisión las limitaciones que condicionan el alcance de las interpretaciones anteriores. En primer lugar, la ausencia de asignación aleatoria y de pretest estandarizado impide atribuir diferencias entre cursos a la intervención con IA; factores de base no controlados, conocimientos previos, dinámica de grupo y motivación inicial pudieron haber influido en los resultados. En segundo lugar, la duración del estudio se limitó al primer parcial del ciclo, lo que impide observar efectos de mediano o largo plazo en el aprendizaje. En tercer lugar, el posible efecto novedad de las herramientas de IA pudo haber incrementado temporalmente la motivación sin que ello se traduzca en aprendizaje sostenido. En cuarto lugar, el cuestionario de autorreporte introduce sesgos de deseabilidad social, y no permite verificar si los comportamientos declarados se dieron efectivamente de esa forma. En quinto lugar, la ausencia de instrumentos validados para medir constructos como carga cognitiva, retención conceptual o razonamiento algorítmico impide hacer afirmaciones directas sobre esos procesos; el Dashboard visualiza tendencias de calificaciones, pero no valida constructos psicoeducativos. Finalmente, la muestra (n = 23 en el grupo experimental) limita la estabilidad descriptiva de los porcentajes reportados.
Los hallazgos de este estudio se circunscriben al contexto específico analizado: primer parcial del ciclo II 2025-2026, carrera de Tecnologías de la Información, con las herramientas y el diseño de intervención descrito. Las inferencias son de carácter analítico y contextual, no generalizables estadísticamente a otros contextos sin estudios adicionales que incorporen asignación aleatoria, pretest estandarizado, mayor duración temporal y medición específica de variables cognitivas.
Implicaciones pedagógicas
A partir de las tendencias observadas, y con la cautela inferencial descrita, los hallazgos sugieren que la integración de herramientas de IA en cursos introductorios de programación requiere al menos tres elementos de diseño pedagógico: (a) fases progresivas y explícitas de retirada del andamiaje tecnológico, para que el estudiante transite gradualmente hacia la autonomía evaluativa; (b) criterios claros de uso ético que delimiten cuándo y cómo emplear la IA como herramienta de aprendizaje y no como sustituto del razonamiento; y (c) actividades de verificación crítica que entrenen al estudiante en la detección y corrección de respuestas erróneas de la IA. Estos elementos coinciden con los marcos de implementación responsable que Nivela y Echeverría (2024) señalan como necesarios ante las limitaciones de preparación técnica institucional para integrar IA en la educación superior, y con la propuesta de Posso Pacheco et al. (2025) de una metodología de enseñanza integrada que incorpore la IA como facilitadora de la analítica del aprendizaje y los ajustes pedagógicos en tiempo real. De igual forma, Argudo et al. (2025) documentan que la personalización de los procesos de aprendizaje y la optimización de la gestión docente mediante IA son efectivas en la medida en que se acompañen de estructuras pedagógicas que garanticen la construcción activa del conocimiento. Estas implicaciones se plantean como hipótesis de diseño para estudios futuros, no como conclusiones verificadas por el presente estudio.
En relación con el objetivo general del estudio, el análisis de las tendencias observadas en el desempeño académico durante el uso de herramientas de IA en la materia Programación 1, los datos descriptivos no evidenciaron diferencias sustanciales ni consistentes en los promedios de calificaciones entre el grupo experimental y los grupos de control a lo largo del primer parcial del ciclo II 2025-2026. Los tres paralelos se mantuvieron predominantemente en zona de alerta en todas las actividades formativas. En la lección evaluativa aplicada sin acceso a herramientas de IA, todos los cursos se ubicaron en zona de rendimiento bajo: el grupo experimental registró un promedio de 3,66/10, resultado comparable al de los grupos de control, lo que indica que la condición de intervención no se tradujo en una ventaja descriptivamente perceptible en la evaluación autónoma. Dado que el estudio no incluyó análisis inferenciales ni pruebas de contraste estadístico, estas observaciones se expresan únicamente como tendencias descriptivas dentro del contexto analizado, sin que sea posible establecer la existencia o ausencia de relaciones causales ni hablar de diferencias estadísticamente significativas entre grupos.
En relación con la percepción estudiantil, los datos del cuestionario aplicado al grupo experimental mostraron una reducción en su nivel de frustración académica y expresaron satisfacción general con el aprendizaje asistido por IA. Estas percepciones positivas coexisten con un indicador de dependencia autorreportada: por otro lado, un gran porcentaje de los estudiantes indicaron que enfrentarían una evaluación práctica sin asistencia tecnológica con dificultades o incertidumbre. Esta tendencia es coherente con el desempeño bajo registrado en la lección evaluativa autónoma. La lectura conjunta de ambas fuentes de datos, rendimiento y percepción sugiere que las herramientas de IA operaron principalmente como apoyo técnico en la corrección de sintaxis y la reducción de la ansiedad asociada a esa dimensión, sin que se observe, en los datos disponibles, una mejora consistente en el desempeño de las evaluaciones autónomas sin asistencia tecnológica. La dependencia se infiere a partir de la autopercepción autorreportada mediante el cuestionario aplicado al grupo experimental; al tratarse de un instrumento de autorreporte con n = 23 estudiantes, esta tendencia debe interpretarse con cautela y no puede generalizarse a otros contextos.
El Dashboard analítico utilizado en el estudio cumplió su propósito instrumental de visualizar tendencias de calificaciones y facilitar la toma de decisiones docentes basadas en datos dentro del contexto de la intervención; no obstante, su evaluación no constituyó el objetivo principal de la investigación. Los hallazgos de este estudio se circunscriben al contexto específico analizado y no son generalizables a otros cursos, instituciones o ciclos sin estudios adicionales que incorporen asignación aleatoria, pretest estandarizado, mayor duración temporal, medición específica de variables cognitivas e instrumentos validados para la construcción teórica que aquí se interpreta de forma contextual.
Referencias
Argudo, R., Aveiga, C., Cruz, A., & Otero, O. (2025). Inteligencia artificial ( IA ) para el aprendizaje en el contexto académico universitario. 6(12), 1854–1867. https://doi.org/10.55813/gaea/ccri/v6/nE2/1140
Basantes, R. (2023). Estudio comparativo de las herramientas de ia (inteligencia artificial) Code GPT Y GITHUB COPILOT como asistentes de programación en el desarrollo de software. [Tesis de Licenciatura] Universidad Técnica de Babahoyo. http://dspace.utb.edu.ec/handle/49000/13900
Díaz Vera, J. P., Molina Izurieta, R., Bayas Jaramillo, C. M., & Ruiz Ramírez, A. K. (2024). Asistencia de la inteligencia artificial generativa como herramienta pedagógica en la educación superior. Revista de Investigación En Tecnologías de La Información, 12(26), 61–76. https://doi.org/10.36825/RITI.12.26.006
Espin, L. (2025). Inteligencia artificial en el desarrollo cognitivo en la enseñanza de la historia y ciencias sociales. Guía didáctica. [Tesis de Licenciatura] Universidad de Guayaquil. https://repositorio.ug.edu.ec/handle/redug/80810
Granda Dávila, M. F., Muncha Cofre , I. J., Guamanquispe Rosero , F. V., & Jácome Noroña , J. H. (2024). Artificial Intelligence: advantages and disadvantages of its use in the teaching-learning process. MENTOR Revista De investigación Educativa Y Deportiva , 3(7), 202–224. https://doi.org/10.56200/mried.v3i7.7081
Martínez, R. (2023). El impacto del uso de la inteligencia artificial como herramienta educativa en los procesos de aprendizaje [Tesis de Pregrado] Universidad de Chile. https://repositorio.uchile.cl/bitstream/handle/2250/201369/El-impacto-del-uso-de-la-inteligencia-artificial-como-herramienta-educativa-en-los-procesos-de-aprendizaje-Rowan-Martinez-Tralma.pdf
Morillo, M. del C. (2016). Aprendizaje Adaptativo [Trabajo fin de Máster] Universidad de Valladolid. http://uvadoc.uva.es/handle/10324/21000
Nivela, M., & Echeverría, S. (2024). Inteligencia Artificial en la Educación Superior: Innovación, Desafíos y Perspectivas para el Futuro. Código Científico Revista de Investigación, 5(2), 1242–1266. https://revistacodigocientifico.itslosandes.net/index.php/1/article/view/625/1379
Pairetti, C. I., Rodríguez, G. L., & Decoppet, G. (2023). Uso de IA generativa como herramienta de inducción a la programación en carreras STEAM. Memorias de Las JAIIO, 9(9), 20–33. https://revistas.unlp.edu.ar/JAIIO/article/view/18050/17718
Posso Pacheco, R. J., Posso Pacheco, E. E., & Salazar Ayala, J. J. (2025). Artificial Intelligence in Education: Proposal for an Integrated Teaching Methodology. MENTOR Revista De investigación Educativa Y Deportiva , 4(10), 1–8. https://doi.org/10.56200/mried.v4i10.9501
Ruiz, G. (2025). El impacto de la inteligencia artificial y las herramientas digitales en las asignaturas básicas de la educación superior The Impact of artificial intelligence and digital tools on core subjects in higher education. Revista de Investigación En Tecnologías de La Información, 13(30), 9–24. https://doi.org/10.36825/RITI.13.30.002
Vera Paredes, D. A., Franco Arias, O. O., & Córdova Martínez, L. C. (2025). Impacto de la inteligencia artificial en el aprendizaje de la programación informática en los estudiantes universitarios. Ciencia y Educación, 6(3), 33–50. https://doi.org/10.5281/ZENODO.15056104
Financiación
Los autores no recibieron financiación para el desarrollo de la presente investigación.
Conflicto de Intereses
Los autores declaran que no existe conflicto de intereses.
Contribución de Autoría:
Los autores han participado en la construcción del documento.