martes, 24 de marzo de 2026

Estudiantes opinan sobre la ética y el impacto social de la IA

 
 

Este estudio presenta un análisis de género sobre cómo los estudiantes de informática perciben las consecuencias éticas y sociales de la inteligencia artificial. Mediante una encuesta a 230 estudiantes universitarios, los investigadores descubrieron que, si bien ambos sexos identifican la medicina y la educación como áreas de alto impacto, los hombres muestran mayor conciencia sobre la conducción autónoma y los cambios técnicos en la programación. Por el contrario, las mujeres tienden a priorizar el impacto de las redes sociales y el potencial de disminución de las capacidades cognitivas humanas. En cuanto a las amenazas existenciales, los participantes masculinos expresaron mayor preocupación por las aplicaciones militares y la desinformación, mientras que las participantes femeninas demostraron una mayor inclinación hacia el uso de la tecnología para el bien social. El estudio también destaca que las mujeres son, en general, más reacias a comprometer sus valores éticos por beneficios económicos o estatus, en comparación con sus compañeros varones. En definitiva, los autores argumentan que comprender estas diversas perspectivas es esencial para desarrollar planes de estudio de IA inclusivos y responsables para los futuros desarrolladores.

Enlace al artículo científico, para aquellos interesados en profundizar en el tema: "Student views in AI Ethics and Social Impact", por Tudor-Dan Mihoc y colegas, del Departamento de Ciencias de la Computación, Universidad Babes Bolyai, de Rumania. Publicado el 19 de Marzo de 2026.

El resumen, la transcripción, y la traducción fueron hechas usando herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.


Resumen

Alicia
Imagina a la persona que va a construir, digamos, la inteligencia artificial que diagnostique tu próxima enfermedad.

Beto
Bien.

Alicia
O, ya sabes, la persona que escribe el algoritmo que selecciona todas las noticias políticas que lees en línea. O incluso el ingeniero que programa los protocolos de seguridad del coche autónomo en el que metes a tus hijos cada mañana.

Beto
Es una idea pesada.

Alicia
Sí, de verdad lo es. Y si cierras los ojos ahora mismo, probablemente te imaginas, eh, no sé, a algún gurú tecnológico experimentado en una sala de juntas de cristal, ¿no? Como un arquitecto sénior de ingeniería con décadas de experiencia vital.

Beto
Sí, definitivamente. Ese es el estereotipo.

Alicia
Pero la realidad hoy en día es que esa persona tiene muchas probabilidades de ser un estudiante de segundo año universitario de 19 años.

Beto
Literalmente, un crío.

Alicia
Exacto. Sí. Está sentado frente a un portátil en alguna habitación estrecha de la residencia, bebiendo un café horrible de la cafetería y, eh, tratando de pasar sus exámenes parciales.

Beto
Quiero decir, predecir el futuro de la inteligencia artificial solo mirando el código es, es muy parecido a intentar predecir hacia dónde irá un coche fijándote solo en el motor.

Alicia
Oh, es una buena forma de decirlo.

Beto
Claro. Porque puedes entender la mecánica perfectamente. Pero si realmente quieres saber el destino, tienes que mirar al conductor. Nos concentramos tanto en la propia tecnología, ya sabes, los centros de datos, los enormes modelos de lenguaje, la potencia de procesamiento, que nos olvidamos por completo de las manos sobre el teclado.

Alicia
Y esas manos pertenecen a humanos.

Beto
Exacto. Humanos con sus propios miedos específicos, sus propias ambiciones financieras y, francamente, sus propios puntos ciegos culturales.

Alicia
Así que el análisis profundo de hoy nos lleva a las mentes de esos mismos conductores: la próxima generación de creadores de IA. Tenemos un artículo de investigación genuinamente fascinante sobre la mesa hoy. Es de la Universidad Babeș-Bolyai en Rumanía.

Beto
Sí, un estudio realmente atractivo.

Alicia
Se titula "Student Views in AI, Ethics, and Social Impact" (Visiones estudiantiles sobre IA, ética e impacto social). Y lo firmaron los investigadores Mihoc, Petrescu y Pop. La misión de esta inmersión profunda es que tú, el oyente, tengas un adelanto de las mentes del liderazgo tecnológico del mañana. Vamos a desglosar qué ven estos estudiantes de informática como los mayores impactos sociales de la IA, sus amenazas más aterradoras y si realmente están dispuestos a vender sus propios valores éticos por un salario lucrativo en tecnología.


Perspectivas de Estudiantes sobre Ética e Impacto Social de la IA

Beto
Esa es la pregunta del millón, ¿no?

Alicia
Oh, claro.

Beto
Pero para darte el contexto necesario antes de ver qué dijeron realmente estos estudiantes, la metodología de este estudio es, bueno, lo que lo hace tan convincente.

Alicia
Claro, por el tamaño de la muestra.

Beto
Exacto. Los investigadores encuestaron a una cohorte de 198 estudiantes de segundo año de informática de un total de 230 matriculados.

Alicia
Vaya, casi toda la clase.

Beto
Sí, hay un tamaño de muestra masivo y muy representativo para una sola cohorte. Pero no solo les hicieron preguntas genéricas sobre hacia dónde va la tecnología. Analizaron las respuestas de texto libre y las opciones múltiples específicamente a través de una lente de género.

Alicia
Para ver si lo ven de manera diferente.

Beto
Claro. Para ver si los desarrolladores hombres y mujeres ven el futuro de esta tecnología que altera el mundo de forma fundamentalmente distinta.

Alicia
Y la distribución por género del estudio es una pieza crucial del rompecabezas. El artículo señala que en las mayores universidades de Rumanía, alrededor del 31% de los estudiantes de informática son mujeres.

Beto
Lo cual es un número súper importante para tener en cuenta.

Alicia
Sí, y ese número importa para ti y para mí porque se asemeja bastante a los promedios globales en campos STEM. Esta cohorte de 119 hombres y 72 mujeres no es solo una instantánea aislada de una universidad del Este de Europa.

Beto
No, para nada.

Alicia
Es altamente representativa de la canalización global más amplia de talento en IA que eventualmente será contratada por las grandes empresas tecnológicas.

Beto
Sí, el análisis desde la perspectiva de género que atraviesa todo este estudio actúa como una especie de ventana hacia las dinámicas de poder futuras de la industria. Es increíblemente revelador. Pero, para entender de qué tienen realmente miedo estos jóvenes de 19 años, primero tenemos que ver qué creen que este código es capaz de cambiar.

Alicia
Y ahí es donde se vuelve realmente sorprendente. Porque si le preguntas a la persona promedio en la calle qué cree que pensaría un estudiante de informática que la IA revolucionará primero, probablemente esperarías que dijera programación, ¿no?

Beto
Claro, desarrollo de software, fabricar mejores ordenadores.

Alicia
Esa fue exactamente mi suposición. Pensé que se centrarían por completo en su propio mundo inmediato, pero los datos dan la vuelta a esa suposición por completo.

Beto
De verdad que sí.

Alicia
Más de la mitad de los estudiantes encuestados —y esto fue un consenso masivo que abarcó tanto a hombres como a mujeres— apuntaron a la medicina como el dominio principal que será impactado por la IA.

Beto
Y las razones que los estudiantes dieron en sus respuestas de texto libre revelan una comprensión profunda de cómo funciona realmente la IA.

Alicia
¿Cómo es eso?

Beto
Bueno, todo se reduce a la capacidad inigualable de la tecnología para reconocer patrones en conjuntos de datos masivos. Un estudiante señaló explícitamente el papel de la IA en reconocer fallos médicos imperceptibles al ojo humano.

Alicia
Wow.

Beto
Piensa en cómo opera un médico humano. Dependen de su experiencia profesional individual, de los casos específicos que han visto y de la limitada cantidad de literatura médica que tienen tiempo físico de leer.

Alicia
Claro. Quiero decir, un médico humano, por brillante que sea, simplemente no puede leerse un millón de historias clínicas en una tarde.

Beto
Exacto. Pero una IA sí puede. Estos estudiantes reconocen que, en teoría, una IA puede cruzar referencias de cada historial médico digitalizado, cada resonancia magnética y cada perfil genético en la Tierra en milisegundos.

Alicia
Es increíble pensarlo.

Beto
No ven la IA solo como una calculadora elegante. La ven como un cambio de paradigma completo en cómo analizamos los datos sanitarios para predecir resultados antes incluso de que aparezcan los síntomas.

Alicia
Así que hay un enorme consenso unificador sobre la medicina. Pero una vez que miramos más allá de la atención sanitaria, los datos empiezan a fracturarse. Y la división por género realmente se revela de forma fascinante.

Beto
Oh, absolutamente. La separación es clara.

Alicia
Los estudiantes varones se centraron significativamente más en la infraestructura técnica de la sociedad. Por ejemplo, casi un tercio de los hombres se centró en el impacto de la IA en la propia informática, cosas como hacer que la IA escriba código repetitivo o detecte errores estructurales.

Beto
Claro.

Alicia
Y cuando se trató de la conducción autónoma, casi el doble de hombres resaltaron los coches autónomos en comparación con las mujeres.

Beto
Y las estudiantes mujeres de la cohorte enfatizaron áreas de impacto completamente diferentes. Señalaron con mucha más frecuencia la educación.

Alicia
Como un tutor de IA.

Beto
Sí, imaginando la IA como un tutor virtual personalizado que se adapta al estilo de aprendizaje específico de un estudiante. También dieron un énfasis notablemente mayor a los algoritmos que mueven las redes sociales y a cómo la inteligencia artificial aprende sobre y manipula el comportamiento humano.

Alicia
De verdad que da la sensación de que los estudiantes varones están viendo la IA a través de la lente de la infra-estructura. Como si miraran los engranajes mecánicos del mundo: cómo se mueven los coches, cómo está estructurado el código, el marco físico.

Beto
Sí, es una gran manera de enmarcarlo.

Alicia
Mientras que las estudiantes mujeres parecen verla un poco más a través del prisma de la conexión humana: cómo aprendemos, cómo interactuamos en línea y el tejido social que nos sostiene.

Beto
Y los hallazgos del artículo sobre generación de contenido y procesamiento de datos validan en gran medida esa deducción. Las respuestas de las mujeres referenciaban repetidamente plataformas de redes sociales y la industria de los videojuegos, específicamente por el mecanismo detrás de esas herramientas.

Alicia
¿Cuál es ese mecanismo?

Beto
Los algoritmos de redes sociales usan aprendizaje por refuerzo para averiguar exactamente qué mantiene al usuario enganchado. Básicamente mapean la psicología humana.

Alicia
Claro, claro.

Beto
Los hombres, en cambio, eran mucho más propensos a citar procesamiento de imágenes, utilidades funcionales de chatbots o sistemas de navegación automotriz. Naturalmente están sintonizados para observar vectores completamente distintos de la misma ola tecnológica.

Alicia
Bien, sabiendo que la IA va a reconfigurar tanto nuestra infraestructura física como nuestras conexiones humanas, la siguiente pregunta natural para estos estudiantes es: ¿qué puede salir mal?

Beto
El factor miedo.

Alicia
Exacto. Ellos son los que ahora están aprendiendo a construir estos sistemas. ¿Cuál es su peor escenario? Porque la cultura popular te haría creer que el mayor miedo de un informático es la superinteligencia apocalíptica fuera de control.

Beto
El clásico escenario "Terminator".

Alicia
Pero la realidad encontrada en el estudio es mucho más pragmática y con los pies en la tierra. El miedo compartido más grande entre estos futuros desarrolladores no es existencial, es económico.

Beto
Sí.

Alicia
Más de una cuarta parte de los hombres y aproximadamente una de cada tres mujeres citaron los recortes de empleo como la amenaza principal en los próximos tres años.

Beto
Y la parte fascinante de esa ansiedad económica es que no están hablando solo de automatización en fábricas o líneas de montaje.

Alicia
No, para nada.

Beto
Señalaron específicamente la destrucción de múltiples trayectorias profesionales, enfocándose en gran medida en campos creativos como el arte, la escritura y el diseño.

Alicia
Que antes se consideraban completamente seguros frente a la automatización.

Beto
Exacto. Los constructores de esta automatización son muy conscientes de que una red neuronal no discrimina entre un administrativo de entrada de datos rutinario y un diseñador gráfico altamente cualificado. Si la tarea implica una salida digital, el algoritmo puede aprender a imitarla.

Alicia
Pero al conectar esta ansiedad económica con la imagen social más amplia se revela dónde divergen con fuerza los estudiantes varones y mujeres otra vez. Porque una vez que pasamos del miedo compartido al desempleo, vemos una división marcada respecto a cómo la IA amenaza la información y a la humanidad misma.

Beto
Es una separación realmente impactante.

Alicia
Los estudiantes varones se centraron profundamente en la militarización, casi táctico-militar, de la IA.

Beto
Hablamos de noticias falsas, deepfakes, campañas de desinformación, drones controlados por IA, reconocimiento de terreno y guerras de la información.

Alicia
Wow.

Beto
Casi el doble de porcentaje de hombres destacó la desinformación y las noticias falsas en comparación con las mujeres. Los hombres están muy centrados en actores malintencionados que usan la IA como herramienta externa para el engaño y la destrucción.

Alicia
Quiero decir, piensa en tu propio feed de redes sociales hoy o en las noticias que consumes en un año electoral. Estos estudiantes varones básicamente resaltaban que los algoritmos que están aprendiendo a escribir son exactamente las armas que se usarán para engañarte.

Beto
Es un modelo de amenaza muy exterior: la IA como arma desplegada contra instituciones o naciones rivales. Las estudiantes mujeres, sin embargo, expresaron un tipo de pavor completamente distinto. Fue mucho más interno y psicológico.

Alicia
Sí, esta parte del estudio realmente me impactó.

Beto
Un porcentaje significativamente mayor de mujeres se preocupó por la pérdida literal de habilidades humanas. Expresaron el temor de que la humanidad se vuelva tan dependiente de la IA para la toma de decisiones que esto lleve a una disminución mensurable de nuestra propia inteligencia. Una estudiante articuló el miedo específico de que simplemente perdamos la capacidad de pensar por nosotros mismos.

Alicia
Vale, espera, me quedo con esto de la pérdida de habilidades humanas. Tengo que objetar un poco aquí.

Beto
Adelante.

Alicia
Porque esto suena un poco como el pánico de hace 30 años cuando los profesores decían “tienes que aprender la división larga porque no siempre tendrás una calculadora en el bolsillo”.

Beto
Claro.

Alicia
¿Se trata de una amenaza ética, o es la típica ansiedad de estudiantes universitarios que temen perder sus habilidades técnicas?

Beto
Es una comparación muy relevante, pero necesitamos mirar el mecanismo de lo que realmente se está externalizando aquí. Usar una calculadora externaliza la aritmética, que es solo procesamiento mecánico.

Alicia
Bien.

Beto
Lo que estas estudiantes mujeres están advirtiendo —y que los investigadores clasificaron explícitamente como una preocupación ética profunda y válida— es la descarga cognitiva del juicio.

Alicia
Oh, vaya. Del juicio.

Beto
Sí. Si dependes de una IA para resumir tus lecturas, redactar tus correos, decidir qué artículos de noticias son creíbles y mediar tus conflictos sociales, no solo estás externalizando matemáticas. Estás subcontratando tu pensamiento crítico, tu planificación estratégica y tu razonamiento moral.

Alicia
Así que no es una calculadora. Es un GPS ético.

Beto
Es una gran forma de decirlo.

Alicia
Y si sigues ciegamente el GPS el tiempo suficiente, tu propio sentido de la orientación se atrofia por completo.

Beto
Precisamente, ese es el mecanismo en juego. Si el cerebro es un músculo, el hecho de delegar constantemente la resolución de problemas complejos a una IA implica que ese músculo cognitivo humano se debilita.

Alicia
Eso da miedo.

Beto
Cierto. Mientras los hombres vigilan las fronteras por drones de IA y "deepfakes" políticos, las mujeres vigilan nuestras propias mentes, preocupadas de que la herramienta erosione la inteligencia fundamental del usuario medio.

Alicia
Vaya. Para recapitular, el estado mental de un estudiante de informática de 19 años hoy en día: llevan la carga del desempleo masivo, la desinformación armada, el desgarro de la realidad objetiva y la lenta y silenciosa decadencia de la inteligencia humana.

Beto
Sí.

Alicia
Eso es mucho para llevar a un laboratorio de programación un martes por la mañana.

Beto
Realmente lo es.

Alicia
Lo que nos lleva al punto de fricción definitivo de toda esta inmersión: el dilema del constructor.

Beto
Sí.

Alicia
Si estos estudiantes son tan conscientes de estos enormes riesgos sociales, ¿eso les impide querer construir la tecnología? Es decir, ¿están dispuestos a comprometer su ética por un sueldo?

Beto
El estudio abordó esto de frente pidiéndoles a los estudiantes que explicaran sus razones específicas para perseguir o evitar una carrera en inteligencia artificial. Y las respuestas inyectan una dosis muy necesaria de realidad humana en este debate ético tan elevado. Porque a pesar de todos esos miedos profundos que acabamos de discutir, cuando se les preguntó por qué podrían evitar el campo, las respuestas dominantes fueron en realidad totalmente pragmáticas.

Alicia
Mi parte favorita de todo el artículo fue ver que una razón principal por la que dudan en entrar en IA es simplemente que las matemáticas son demasiado complejas.

Beto
Sí.

Alicia
Pueden estar codificando la matriz digital que gobierna nuestras vidas, pero al final del día, a muchos de ellos simplemente les detesta el cálculo avanzado.

Beto
Humaniza perfectamente los datos, ¿no? También citaron la percepción de escasez de empleos de nivel inicial para desarrolladores sin experiencia sénior.

Alicia
Claro. Cosas prácticas.

Beto
Pero cuando los investigadores ahondaron más en las motivaciones específicas, analizando quién está impulsado por el mercado frente a quién lo está por la moral, esa brecha de género significativa volvió a aparecer.

Alicia
Sí. Los datos mostraron que los estudiantes varones estaban notablemente más preocupados por los aspectos financieros y de estatus de una carrera en IA. Se centraron en el gran volumen de oportunidades laborales, los salarios masivos y la ventaja competitiva de estar en el campo más lucrativo de la tecnología.

Beto
Y los números lo respaldaron.

Alicia
Sí. Casi el 19% de los hombres citaron estas razones financieras y de oportunidad para sus decisiones de carrera en comparación con alrededor del 12% de las mujeres.

Beto
Y las estudiantes mujeres se sentían mucho más atraídas por el campo por el deseo de generar un cambio positivo en la sociedad. Expresaron razones explícitas como querer salvar a personas de enfermedades raras o usar la tecnología para hacer la sociedad más sana y cómoda.

Alicia
Es una motivación totalmente distinta.

Beto
Completamente. Por el contrario, al mirar las razones para evitar el campo, las mujeres fueron mucho más vocales sobre negarse a participar debido a problemas morales o a una sensación persistente de que la tecnología va en una mala dirección.

Alicia
Entonces si los hombres miran principalmente el beneficio financiero y las oportunidades competitivas, y las estudiantes mujeres miran el impacto social y las barreras morales, ¿qué significa eso realmente para la industria que está construyendo las herramientas que tú y yo usamos cada día?

Beto
Bueno, al contextualizar estos datos de la encuesta con la revisión bibliográfica más amplia que ofrece el artículo se dibuja una imagen bastante preocupante de la trayectoria de la industria.

Alicia
¿De qué manera?

Beto
Los investigadores citan múltiples estudios de Jakesch, Cave y otros, que históricamente demuestran que las encuestadas mujeres y las minorías atribuyen un peso mucho mayor a las implicaciones éticas de la IA que el público en general o sus pares masculinos.

Alicia
¿Así que son ellas las que más se preocupan por las barandillas de seguridad?

Beto
Exacto. Son las que históricamente levantan la mano en las reuniones de desarrollo y preguntan si un producto es realmente seguro para grupos marginados.

Alicia
Pero la revisión bibliográfica también apunta un problema sistémico que se complica respecto a quiénes pueden quedarse realmente en esas reuniones. La industria enfrenta tasas masivas de abandono donde minorías y mujeres frecuentemente abandonan los equipos de desarrollo de IA.

Beto
Sí.

Alicia
Y el artículo señala que esto se debe en gran parte a culturas de equipo injustas y a sesgos algorítmicos en la adquisición de talento.

Beto
Tomar un momento para entender cómo funciona realmente ese sesgo algorítmico es crucial aquí.

Alicia
Sí, explícalo porque creo que la gente lo malinterpreta.

Beto
Claro. Si una empresa tecnológica usa una herramienta de contratación basada en IA y esa herramienta se entrena con 20 años de datos históricos de contratación donde la gran mayoría de ingenieros exitosos eran hombres, la IA aprende matemáticamente a asociar el éxito con rasgos masculinos.

Alicia
Claro. Literalmente rebajará los currículums que incluyan nombres de mujeres o mencionen universidades o clubes de mujeres. No está teniendo pensamientos sexistas. Está optimizando fríamente patrones históricos pasados.

Beto
Así que la propia tecnología que están construyendo está filtrando matemáticamente a las voces diversas que intentan entrar en el campo.

Alicia
Exacto.

Beto
Es el choque clásico entre la mentalidad de Silicon Valley de “muévete rápido y rompe cosas”, que parece inclinarse fuertemente por el lado financiero y competitivo, versus una mentalidad de “primero, no hacer daño”, que según esta investigación es defendida mucho más por las desarrolladoras mujeres.

Alicia
La implicación crítica es que si la cultura de los equipos de desarrollo de IA, combinada con herramientas de contratación sesgadas, aleja a las personas que más están atentas a los riesgos éticos, la industria pierde sus barreras internas.

Beto
Vaya.

Alicia
Si el grupo “no hacer daño” sigue saliendo de la sala porque la cultura es excluyente o las herramientas de contratación están rotas, nos quedamos con una cámara de eco de “muévete rápido y rompe cosas”. Y nos quedamos con esa cámara de eco justo en el momento histórico en que la tecnología se está volviendo terroríficamente poderosa. Se crea un ciclo de retroalimentación cerrado en el que los sesgos y la tolerancia al riesgo de un grupo altamente homogéneo se incorporan permanentemente en los propios modelos de IA.

Beto
Este estudio proporciona evidencia empírica de que los equipos diversos literalmente ven diferentes amenazas en el radar. Los estudiantes varones fueron muy capaces de detectar riesgos tácticos externos: las noticias falsas, las aplicaciones militares, los cambios estructurales en la economía. Las estudiantes mujeres fueron muy capaces de detectar los riesgos sociales internos: la pérdida de capacidad cognitiva, la deriva ética y la necesidad de proteger a los vulnerables a través de la salud.

Alicia
Así que la falta de diversidad en la ingeniería de IA no solo implica una falta de equidad y un mal reclutamiento corporativo. Significa que nosotros, como sociedad, estamos volando a ciegas frente a la mitad de los riesgos potenciales que se nos vienen encima.

Beto
Necesitamos desesperadamente a ambos grupos en la sala.

Alicia
Absolutamente, mirando el radar, porque las herramientas solo serán tan conscientes como las personas que las programan. Sinteticemos esta inmersión y llevémosla a casa para ti, el oyente.

Beto
Sí, hagámoslo.

Alicia
¿Por qué importa ahora mismo para tu vida una encuesta a estudiantes universitarios en Rumanía?

Pues porque si estás usando herramientas de IA para redactar un correo importante, o si estás leyendo noticias políticas que podrían estar generadas artificialmente, o si recibes un diagnóstico médico asistido por IA, la seguridad, la equidad y la ética subyacente de esas herramientas dependen por completo de los estudiantes de 19 años que las construyeron originalmente.

Beto
Es el problema definitivo de "basura-dentro, basura-fuera" en informática, pero aplicado directamente a la moral humana y a los valores sociales.

Alicia
Está muy bien dicho. El código ya no es solo una herramienta. Es un espejo que refleja las prioridades de sus creadores, lo que nos lleva de nuevo a esa habitación del dormitorio.

Quiero dejarte con un pensamiento final para explorar hoy por tu cuenta. Si nuestros futuros sistemas de IA aprenden qué es ético imitando los valores de los desarrolladores que los entrenan, y si los datos muestran que esos desarrolladores están predominantemente impulsados por el pragmatismo financiero y la competencia de mercado en lugar del cuidado social, ¿estamos por accidente codificando un sesgo permanente de “beneficio sobre las personas” en el propio ADN de nuestra inteligencia futura?

Gracias por acompañarnos en este análisis profundo.