viernes, 23 de enero de 2026

El Impacto de la IA en Estudiantes Universitarios

 
 

Este estudio de investigación investiga cómo la Inteligencia Artificial Generativa (GAI) influye en el desarrollo del pensamiento computacional entre estudiantes universitarios que abordan tareas complejas de programación. Basándose en la Teoría Cognitiva Social, el autor analiza entrevistas cualitativas para revelar cómo la IA sirve como un andamio cognitivo para la descomposición de problemas y la depuración iterativa. Los hallazgos destacan un modelo de colaboración humano-IA donde los estudiantes pasan de ser simples codificadores a evaluadores y planificadores estratégicos. Sin embargo, el estudio también identifica riesgos significativos, como la sustitución cognitiva, la dependencia emergente y el posible debilitamiento del razonamiento independiente. En última instancia, el texto posiciona a la GAI como un socio cognitivo dinámico que remodela las experiencias emocionales, las estrategias de comportamiento y las identidades profesionales de los estudiantes dentro de la educación superior.

Enlace al artículo científico, para aquellos interesados en profundizar en el tema: "The Impact of Generative Artificial Intelligence on College Students’ Computer Thinking in the Task of Complex Computer Programming: Based on Social Cognitive Theory", por Wenhui Yin. Publicado el 22 de Enero del 2026.

El resumen, la transcripción, y la traducción fueron hechas usando herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.


Resumen

Beto
Sabes, hay ese enorme elefante de neón parpadeante en la habitación cada vez que hablamos de IA generativa: nos obsesionamos tanto con el resultado.

Alicia
Oh, totalmente. Los ensayos, las imágenes, el código, ...

Beto
... especialmente este último. Vemos un script generado en, ¿qué?, ¿tres segundos? Y pensamos, vaya, mira esa eficiencia. Mira todo el tiempo que acabo de ahorrar.

Alicia
Son esos objetos brillantes, ¿no? Estamos mirando el producto y completamente ignorando el proceso.

Beto
Exacto. Pero la pregunta que nadie parece estar haciendo, o al menos no lo suficientemente en voz alta, es ¿qué le está pasando al cerebro humano mientras todo eso ocurre? Es decir, si la máquina hace todo el trabajo pesado, ¿nos estamos convirtiendo en estos brillantes arquitectos del futuro, o nos estamos volviendo, no sé, supervisores perezosos?

Alicia
Es la diferencia entre ser un chef maestro y simplemente pedir por Uber Eats. ¿Ambos te consiguen la cena? Seguro. Pero solo uno sabe qué hacer si el restaurante de repente cierra.

Beto
Esa es la forma perfecta de decirlo. Y esa es exactamente la tensión que estamos explorando hoy. Hacemos un análisis profundo en este trabajo de investigación tan interesante de 2026.

Alicia
Es un estudio de Wenhui Yin, publicado en Creative Education.

Beto
El título es un bocado, y quiero decir que es uno serio, así que aguanta conmigo: "El impacto de la inteligencia artificial generativa en el pensamiento computacional de estudiantes universitarios en la tarea de programación informática compleja".

Alicia
Vaya título. Pero no dejes que ese título académico te asuste porque la metodología es lo que lo hace especial.

Beto
No es solo una encuesta.

Alicia
No, para nada. Esto no fue un formulario de Google preguntando, “oye, ¿te gusta ChatGPT?” El equipo de Yin en realidad siguió a 16 estudiantes de segundo año de informática durante un extenuante curso de programación de 15 semanas.

Beto
Y esa duración es tan importante, ¿no? Esto no es un experimento de laboratorio de cinco minutos. Estos estudiantes estuvieron en la trinchera casi cuatro meses.

Alicia
Exactamente. Tenían herramientas de IA generativa para resolver problemas reales, sucios y complejos. Y nuestra misión hoy no es calificar su código. Realmente no nos importa si funcionó o no.

Beto
Estamos observando el cambio psicológico. El estudio habla de una emergente estructura cognitiva híbrida.


El Impacto de la IA en Estudiantes Universitarios

Alicia
Estructura cognitiva híbrida. Lo sé. Suena a algo sacado de una novela cyberpunk.

Beto
Realmente lo parece.

Alicia
Pero en realidad es solo un término para la montaña rusa emocional e intelectual por la que pasaron estos estudiantes. Hablamos de todo, desde la ilusión de comprensión hasta mecanismos de afrontamiento realmente sorprendentes que aparecieron cuando la IA empezó a fallar.

Teoría Cognitiva Social

Beto
Bien, antes de entrar en los detalles de cómo codifican ahora, necesitamos preparar el terreno. El estudio enmarca todo a través de la teoría cognitiva social.

Alicia
Bien.

Beto
Sé que nuestra audiencia es inteligente, pero expliquemos eso en términos sencillos. ¿Por qué importa esta teoría aquí?

Alicia
La teoría cognitiva social es básicamente la lente que usamos para entender que el aprendizaje no ocurre en el vacío. Es aprendizaje como un triángulo. Imagina un triángulo en tu cabeza.

En un vértice tienes a la persona, su confianza, sus habilidades, su estado interno.

Beto
Tiene sentido.

Alicia
En el segundo vértice está el comportamiento, lo que realmente hace, las acciones que toma. Y en el tercer vértice está el ambiente.

Beto
Que en un aula normal es solo la sala, el profesor, el libro de texto.

Alicia
Pero aquí, el ambiente incluye la IA generativa. Y el concepto clave es algo llamado "determinismo recíproco". Simplemente significa que estas tres cosas están cambiándose mutuamente constantemente. La IA no es solo una calculadora pasiva sobre el escritorio. Es una parte activa del entorno.

Beto
Así que cambia cómo actúa el estudiante.

Alicia
Y ese comportamiento cambia cómo el estudiante ve su propia inteligencia, lo que entonces cambia cómo interactúa con la IA otra vez.

Beto
Esa es una distinción enorme. Si uso un martillo, el martillo no me responde. No me sugiere otra manera de golpear el clavo.

Alicia
Pero una IA sí. Altera completamente ese ciclo de retroalimentación.

Beto
Y esa alteración crea una forma totalmente nueva de pensar.

El Cambio Cognitivo

Lo que supongo que nos lleva al primer hallazgo importante: el cambio cognitivo. El flujo de trabajo real de cómo codificar ha sido totalmente reescrito.

Alicia
Sí, esta parte es fascinante.

Beto
Porque históricamente, y yo he incursionado un poco, la programación es lineal. Tienes un problema. Mapeas la lógica. Escribes la sintaxis. Y luego rezas para que funcione.

Alicia
Y si no funciona, te quedas mirando la pantalla hasta que te sangran los ojos buscando ese único error tipográfico.

Beto
Exacto. El estudio encontró este nuevo modelo emergente. Lo llaman "analizar-describir-refinar".

Alicia
Ese es el nuevo proceso cíclico. En lugar de lanzarse a escribir las sentencias "if", el estudiante comienza analizando el problema conceptualmente. Tiene que dar un paso atrás primero.

Beto
Luego tiene que describírselo a la IA.

Alicia
En lenguaje natural, sí. Inglés, no Python. Y solo entonces, cuando la IA escupe el código, empiezan a refinarlo.

Beto
El Participante 11 en el estudio describió esto perfectamente. Dijo que piensan el enfoque primero y luego actúan como guía para la IA.

Alicia
Piensa en lo que eso le hace al cerebro. Pasas de ser el escritor, la persona sudando por la sintaxis, las comas, los corchetes, a ser el arquitecto.

Beto
El que tiene la idea.

Alicia
Correcto. Tienes que articular el problema con claridad para obtener un buen resultado. En cierto modo, te obliga a entender mejor la meta, aunque no estés escribiendo los pasos individuales.

Beto
Suena como un ascenso. Pasas del obrero que coloca ladrillos al capataz que sostiene los planos. Me pregunto si hay alguna trampa en todo esto.

Alicia
Bueno, puede haberla. Y la interacción cambia otra vez una vez que el código se genera. Esto nos lleva a un concepto que el investigador llamó "depuración diferencial".

Beto
Me encanta ese término, "depuración diferencial". Suena tan sofisticado.

Alicia
En realidad es una estrategia brillante que nació de la necesidad. El Participante 08 describió pegar su propio intento de código y compararlo lado a lado con la versión de la IA, ...

Beto
.... solo para encontrar las diferencias.

Alicia
Sí, es un juego de “encuentra las diferencias”, lo cual es un cambio enorme. Antes, depurar era solo mirar tu propio trabajo. Ahora comparas.

Beto
Ya no solo creas; evalúas. Miras dos realidades potenciales: la tuya y la de la máquina, y juzgas cuál es mejor.

Alicia
Eso empuja a los estudiantes hacia lo que el estudio llama "pensamiento de múltiples soluciones".

Beto
Correcto. El Participante 10 comentó esto. Dijo que la IA a menudo ofrece múltiples formas de resolver el mismo problema. Entonces la pregunta ya no es “¿cómo escribo esto?” ...

Alicia
... sino “¿cuál de estas tres opciones es la mejor?”

Beto
Y eso es una habilidad de pensamiento de orden superior. Eso es lo que hacen los ingenieros seniors: evalúan compensaciones.

Alicia
En la superficie esto se ve genial. Nos saltamos el trabajo braquial y vamos directo a la estrategia.

Beto
Pero puedo oír un “pero” acercándose. Puedo oírlo en tu voz.

Alicia
Hay un “pero” significativo. Es el efecto de sustitución cognitiva.

Beto
Suena como una manera académica muy educada de decir que dejas que la máquina piense por ti.

Alicia
Básicamente, eso es. Los Participantes 14 y 15 fueron brutalmente honestos al respecto. Admitieron que si toman el código de la IA tal cual, se saltan el pensar en los detalles.

Beto
Y ese es el peligro. Esa es la zona de riesgo. Es como usar un GPS. Puedo conducir a través del país con Google Maps, giro a giro, sin problema. Llego eficientemente.

Alicia
Claro.

Beto
Pero si mi batería se queda sin carga en medio de la nada, no tengo idea de dónde estoy. No he aprendido la ruta. Solo seguí instrucciones.

Alicia
Esa es la analogía perfecta. Eres eficiente, pero frágil. Si la herramienta falla, quedas completamente varado.

Beto
Y esa fragilidad conduce directamente al lado emocional de esto. Porque cuando funciona, se siente como magia.

Alicia
Pero cuando falla.

Beto
Ay, amiga. Es una pesadilla.

La Montaña Rusa Emocional

Lo que nos lleva al segmento dos: la montaña rusa emocional. No se trató solo de lógica; fue sobre sentimientos.

Alicia
Y los picos son obvios. Es un enorme subidón de dopamina. El Participante 14 habló de este gran impulso de confianza cuando el código simplemente se ejecuta perfectamente a la primera.

Beto
Gratificación instantánea.

Alicia
Totalmente. El Participante 07 lo llamó una "sensación de seguridad". Y lo entiendo. Cuando estás programando te puedes sentir tan solo y frustrado, tú contra la máquina.

Beto
Tener una IA es como tener a un desarrollador senior sentado a tu lado 24/7. Te valida.

Alicia
Pero aquí está la vuelta de tuerca: esa seguridad es precaria. El estudio identificó algo llamado "efecto de error acumulado".

Beto
Oh, esta parte resonó conmigo a nivel espiritual.

Alicia
¿Verdad?

Beto
El Participante 15 lo describió tan vívidamente: le pides a la IA que arregle un error. Te da nuevo código. Lo ejecutas. Nuevo error. Le pides que arregle ese error.

Alicia
De repente estás en una espiral descendente. El Participante 15 dijo que se vuelve peor que no haber preguntado en absoluto.

Beto
Es como si tu computadora te engañara. Empiezas a dudar de todo. ¿Lo estoy explicando mal? ¿La máquina es tonta? ¿Soy yo un tonto por confiar en ella?

Alicia
Y la respuesta a esa pregunta revela un mecanismo de defensa psicológico fascinante. Cuando las cosas van mal, ¿a quién crees que culpan los estudiantes?

Beto
Yo supondría que a ellos mismos. Normalmente el síndrome del impostor en tech funciona así.

Alicia
Sorprendentemente, no. Este fue uno de los hallazgos más interesantes. El estudio notó que cuando los errores se acumulan, en realidad no pierden la autoconfianza.

Beto
¿En serio? Porque si fracaso en una tarea una y otra vez, empiezo a sentirme bastante incompetente.

Alicia
No aquí. Practican lo que se llama "atribución externa". Culpaban a la herramienta.

Beto
“No fallé yo. Falló mi martillo.”

Alicia
Exactamente. Ven la IA como solo un pedazo de software. Si el software falla, es culpa del software. No su fallo como programador. Eso protege el ego.

Beto
Es un truco psicológico extremadamente conveniente.

Alicia
Es protector, sí. Evita que su confianza se desplome, lo cual es importante para el aprendizaje, pero crea este conflicto interno.

El Participante 10 habló de dependencia psicológica.

Beto
Esta es la parte adictiva.

Alicia
Sí, refleja el hecho de pedirle a la IA inmediatamente cuando te atas. El Participante 10 admitió que crea esta tensión: disfrutas la facilidad, pero en el fondo tienes miedo de estar perdiendo tu propia habilidad.

Beto
Es como llevar calculadora a un examen de matemáticas. Te alivias por tenerla, pero también te preocupa haber olvidado cómo hacer la división larga.

Alicia
Eso es. Y ese conflicto interno está definiendo a esta generación de aprendices. Caminan constantemente por la cuerda floja entre eficiencia y dependencia.

Beto
Así que tenemos el cambio cognitivo y la volatilidad emocional.

Pero programar en este estudio no siempre fue una actividad en solitario. También trabajaron en equipos.

La Nueva Dinámica De Equipo

Alicia
Y aquí es donde la parte social de la teoría cognitiva social realmente entra en juego. Segmento 3: la nueva dinámica de equipo.

Beto
Las cosas se vuelven casi sociológicas aquí.

Alicia
Lo hacen. El estudio encontró que cuando introduces una IA en un grupo humano, los roles cambian dramáticamente.

Beto
De hecho, se dieron títulos a sí mismos, lo cual me encanta. El Participante 14 llamó al rol humano “el comandante” o “descomponedor de demandas”.

Alicia
Y la IA es la “ejecutora” o la “depuradora”.

Beto
Descomponedor de demandas. Suena como una banda de heavy metal, pero en realidad es una descripción muy precisa. Rompes las demandas complejas y la IA hace el trabajo pesado.

Alicia
Pero fíjate en la jerarquía: el humano es el comandante. Sin embargo, y esto es un gran sin embargo, quién dirige la danza cambia según la dificultad.

Beto
Cambio dinámico.

Alicia
Exacto. Para tareas básicas, los estudiantes dirigen. “Escríbeme una función para ordenar esta lista.” Pum, hecho. Pero para problemas complejos y sucios, ...

Beto
... ¿qué pasaba entonces?

Alicia
Los 16 encuestados, todos y cada uno, dijeron que entregaban la iniciativa a la IA.

Beto
Los 16. Así que cuando se pone difícil, el humano se repliega y deja que el bot tome el volante.

Alicia
Dejan que la IA proponga ideas primero. La buscan para la hoja de ruta inicial. Invierte toda la dinámica de mentoría.

Beto
Guau. Y eso cambia cómo los estudiantes interactúan entre sí también. El Participante 15 notó que las discusiones dentro del grupo en realidad disminuyeron.

Alicia
Lo hicieron.

Beto
¿Es eso bueno? Siento que a veces la fricción es donde surgen las buenas ideas.

Alicia
Es un tipo diferente de colaboración. En un proyecto grupal tradicional, si tú y yo no estamos de acuerdo, discutimos basados en nuestras opiniones, tal vez nuestros egos: “mi forma es mejor”.

Beto
“No, la mía es más limpia”.

Alicia
Pero ahora solo consultamos la IA. El Participante 10 la llamó "una propuesta de terceros".

Beto
Es el desempate. Despersonaliza el conflicto.

Alicia
Exacto. ¿Quieres modificar mi código? Ambos estamos criticando el código de la IA. Crea un frente unido: nosotros los humanos contra la salida de la IA.

Beto
Lo cual suena increíblemente eficiente. Pero la IA no es solo una generadora de código, ¿cierto? El Participante 15 mencionó usarla como fuente conversacional de conocimiento.

Alicia
Sí, como intérprete, preguntándole a la IA por qué su código funciona. Esto es crucial. La usan correctamente. La IA se vuelve un tutor, lo que ayuda a cerrar esa brecha de la que hablamos.

Beto
El riesgo de no entender los detalles.

Alicia
Correcto. Así que puede ser tutor, compañero de equipo, desempate. Suena como el colega perfecto.

Beto
Pero no es una varita mágica.

Límites Duros y Riesgos Reales

Lo que nos lleva al segmento cuatro: los límites duros y los riesgos reales. Porque esta tecnología tiene puntos ciegos serios.

Alicia
Enormes. Y el más grande que el estudio identificó es la ilusión de comprensión.

Beto
Ya lo tocamos, pero profundicemos. El Participante 05 lo dijo sin rodeos: las explicaciones de la IA a menudo suenan razonables, pero en realidad no funcionan.

Alicia
Ese es el problema de las alucinaciones, pero es más insidioso que simplemente estar equivocado. La IA habla con absoluta confianza. Usa la jerga correcta, la sintaxis correcta.

Beto
Es como ese amigo en un bar que está inventando datos, pero los dice con tanta autoridad que terminas creyéndole.

Alicia
Precisamente. Y para un aprendiz eso es muy peligroso. Si crees que entiendes porque la IA te dio una explicación fluida, pero la lógica es defectuosa, estás construyendo tu conocimiento sobre arenas movedizas.

Beto
Tienes la sensación de haber aprendido sin la sustancia real.

Alicia
Y luego está la ceguera contextual. Aquí es donde la goma realmente se encuentra con la carretera.

Beto
Correcto. El Participante 15 dio un ejemplo específico sobre Harmony OS y las mini aplicaciones de WeChat.

Alicia
Gran ejemplo técnico. Estos entornos tienen compatibilidad de versiones muy estricta.

Beto
Así que el código pensado para la versión 2.0 simplemente romperá en un entorno 3.0, aunque parezca correcto.

Alicia
La IA a menudo no sabe qué versión específica estás ejecutando en tu portátil. Sus datos de entrenamiento pueden tener seis meses de antigüedad y la API ya cambió.

Beto
Así que te da código lógicamente perfecto que es contextualmente inútil. Carece de esa conciencia situacional del mundo real.

Alicia
Exacto. Opera en un vacío de código perfecto, no en la realidad sucia del desarrollo de software.

Y por último está la paradoja de la elección.

El Participante 10 mencionó sentirse abrumado. Si la IA te da cinco formas de resolver un problema y no tienes el conocimiento fundamental para juzgar cuál es la mejor, no estás empoderado.

Beto
Estás paralizado.

Alicia
Pasas más tiempo evaluando a la IA de lo que habrías pasado escribiendo el código tú mismo. Te exige un alto nivel de discernimiento.

Beto
Entonces tratemos de sintetizar todo esto. Tenemos el cambio cognitivo, las emociones, la dinámica de equipo, los riesgos. Realmente estamos presenciando el nacimiento de esa estructura cognitiva híbrida humano-máquina.

Alicia
Ese es el punto central. El rol del estudiante está cambiando fundamentalmente. Conservan el juicio, la fijación de objetivos, la evaluación, pero están externalizando la ejecución y la sintaxis.

Beto
Es una asociación. Pero como dijiste, hay riesgo de que ese conjunto de habilidades se vuelva hueco.

Alicia
Ese es el miedo. La eficiencia sube, la productividad sube. Pero si un estudiante puede gestionar el código pero no puede crearlo desde cero, ¿es un programador? ¿O es solo un gestor de proyectos para robots?

Beto
El estudio muestra que están desarrollando habilidades de alto nivel, como el pensamiento de múltiples soluciones, pero están perdiendo esa lucha con los detalles que a menudo cimenta el aprendizaje profundo.

Alicia
Y simplemente no sabemos los efectos a largo plazo de eso. Esto fueron 15 semanas. ¿Qué pasa después de cuatro años? ¿Qué pasa cuando se enfrentan a un problema que la IA nunca ha visto?

Beto
Eso nos lleva a nuestro pensamiento final para quienes nos escuchan hoy, y es algo para masticar bien.

Alicia
Si la habilidad primaria del futuro es evaluar la salida de la IA en lugar de crear la entrada, ¿qué pasa con nuestra capacidad de juzgar la verdad cuando dejamos de saber cómo se hace la salchicha?

Beto
¿Nos estamos convirtiendo en arquitectos, diseñando estas estructuras elevadas que entendemos íntimamente? ¿O nos estamos convirtiendo en meros sellos de goma, aprobando planos que ya no podemos leer?

Alicia
Es una pregunta que cada aprendiz y cada profesional necesita hacerse cada vez que pulsa “generar”.

Beto
Efectivamente. Estaremos observando cómo evoluciona todo esto. Gracias por sumergirte con nosotros hoy. Sigan aprendiendo y sigan pensando.

Alicia
Hasta la próxima.