Pensé que sería necesario resumir este artículo científico reciente que me encontré, donde 21 autores exploran la urgente necesidad de un enfoque de "Educación Integral" en la ingeniería de Inteligencia Artificial (IA).
Los autores argumentan que la educación actual en IA sobreestima las habilidades técnicas, descuidando consideraciones éticas, sociales y filosóficas cruciales, lo que conduce a sistemas que perpetúan el sesgo y la desigualdad. Utilizando una metodología de auto-etnografía colaborativa, los investigadores comparten reflexiones sobre por qué los ingenieros deben estar dotados de pensamiento interdisciplinario, responsabilidad social y conciencia ética para superar las ideologías limitantes de la neutralidad tecnológica y el tecnosavismo. El artículo aboga por un cambio transformador en el currículo que centre los valores humanos, promueva la equidad y la inclusión, y forme a los ingenieros como gestores socialmente responsables de la tecnología. En definitiva, el trabajo propone que un modelo educativo holístico es esencial para el desarrollo responsable y la implementación ética de la IA.
Enlace al artículo, en inglés, para aquellos que quieran profundizar en el tema: "Whole-Person Education for AI Engineers", por Rubaina Khan y colegas. Publicado en Junio 10 del 2025.
El resumen, la transcripción, y la traducción fueron hechas usando herramientas de software de Inteligencia Artificial.
El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.
Resumen
Beto
Bien, vayamos directo al grano. Todos lo vemos, ¿no? La IA lo está transformando todo y está sucediendo muy rápido.
Alicia
Vamos a toda velocidad.
Beto
Está escribiendo nuestros correos, está en nuestros sistemas financieros, incluso está influyendo en las políticas. O sea, es increíblemente poderosa. Pero eso conduce a la gran pregunta que nos plantean nuestras fuentes: ¿a los ingenieros que están construyendo estos sistemas realmente se les está enseñando la parte humana?
Alicia
¿Las implicaciones sociales de su código?
Beto
Exacto. ¿O simplemente aprenden a construir las herramientas en el vacío?
Alicia
Ese es el conflicto. ¿En serio? Y de eso trata nuestro análisis de hoy. Estamos examinando este enorme cambio transformador en cómo se educa a los ingenieros de IA.
Beto
Un movimiento que se aleja solo del lado técnico puro.
Alicia
Hacia lo que las fuentes llaman "educación integral" ("whole-person education", WPE). Es la idea de que el código necesita conciencia. ¿Sabes?
Beto
El código necesita conciencia. Me gusta eso. Así que nuestra misión hoy es averiguar por qué esto es tan urgente y cómo es en realidad este nuevo tipo de ingeniero.
Alicia
Y tenemos material increíble para esto: un estudio que reunió a unas 20 personas de todo el mundo y a un grupo realmente diverso. Hablamos de educadores, CEOs tecnológicos, estudiantes, incluso dueños de fábricas e investigadores. Da una visión rica y multilateral de por qué este cambio tiene que ocurrir ahora.

Distribución geográfica de los autores del artículo
Beto
Así que definamos WPE desde el principio. ¿Qué es?
Alicia
Es un enfoque que realmente trata de desarrollar la persona en su totalidad. Significa que aún necesitas esa profunda habilidad técnica. Tienes que ser un gran programador.
Beto
Por supuesto.
Alicia
Pero tienes que conectar eso directamente con el pensamiento interdisciplinario, el razonamiento ético y la responsabilidad social. El objetivo es preparar a los ingenieros para que no sean solo, ya sabes, resolutores de problemas, sino agentes de transformación social.
Beto
Creo que eso lo resume todo: agentes de transformación social. Porque eso choca directamente con el viejo modelo, ¿verdad?
Alicia
Claramente, la manera tradicional de enseñar esto enfatiza el control, la utilidad, la precisión, la eficiencia. Y se enseña en silos muy rígidos. Las habilidades técnicas se mantienen totalmente separadas del contexto cultural o político donde la tecnología realmente se va a usar.
Beto
Y esa separación, ese aislamiento, es donde empiezan todos los problemas.
Alicia
Sí. Porque cuando enseñas tecnología como si fuera algo independiente, también estás, quizá sin darte cuenta, enseñando ideas muy específicas sobre lo que es la tecnología.
Beto
Lo que nos lleva a estas dos ideologías que, según las fuentes, están moldeando la IA ahora mismo.
Alicia
Y las dos son bastante peligrosas.
Beto
Vale, entremos en ellas.
Neutralidad tecnológica y tecno-salvacionismo. Suenan algo académicas, pero tienen enormes efectos en el mundo real.
Alicia
Seguro. Empecemos por la neutralidad.
Beto
La idea de que la tecnología es solo una herramienta.
Alicia
Exactamente. Es el principio de que la tecnología en sí es neutra en valores, como un martillo. Un martillo no es bueno ni malvado, ¿no? Todo depende de quién lo empuña.
Beto
Pero las fuentes que estamos viendo sostienen que esto es básicamente un mito.
Alicia
Un total mito.
Beto
Sí. La crítica es que la tecnología siempre, siempre encarna valores políticos. Piénsalo. Un sistema de IA codifica sesgos desde el principio.
Alicia
Desde los datos de entrenamiento. Desde los datos de entrenamiento, que a menudo son defectuosos o discriminatorios. Desde las decisiones de diseño — ¿qué problema decidiste resolver y para quién? — y codifica las prioridades de quien lo financia.
Beto
Así que un algoritmo que, digamos, refuerza jerarquías sociales no puede ser neutral. Los ingenieros están construyendo nuestra futura infraestructura política, aunque ellos no lo perciban así.
Alicia
Y eso nos lleva a la segunda gran idea peligrosa: el tecno-salvacionismo.
Beto
"La tecnología nos salvará a todos."
Alicia
Exacto. Es la creencia de que podemos resolver grandes problemas sociales — pobreza, desigualdad, cambio climático — solo con tecnología.
Beto
Y que las personas que construyen la tecnología, los ingenieros, saben qué es lo mejor para los demás.
Alicia
Es una forma increíblemente arrogante de ver el mundo. Desestima la necesidad de la participación pública, de la experiencia de las humanidades o las ciencias sociales. Si el tipo de la tecnología es el salvador, ¿para qué preguntar a los demás?
Beto
Sí. Y esa mentalidad crea un gran problema práctico que llaman "problema de visibilidad".
Alicia
Tiene que ver con la transparencia o la falta de ella. Porque los datos de entrenamiento y la lógica dentro de estos sistemas de IA son tan complejos, tan rígidos, que pueden ocultar toda clase de patrones discriminatorios; no puedes auditarlo bien.
Beto
Y en muchos programas tradicionales de ingeniería, ¿qué significa siquiera transparencia?
Alicia
Usualmente solo significa documentar tu código. ¿Escribiste comentarios? ¿Explicaste los pasos técnicos?
Beto
Es un ejercicio de marcar casillas.
Alicia
Como una casilla técnica que hay que rellenar. No se ve como un deber moral o cívico. Los defensores de la educación integral dicen: no, la transparencia tiene que ver con exponer sesgos y democratizar cómo funcionan estos sistemas.
Beto
Es la diferencia entre explicar cómo funciona el motor versus explicar por qué está llevando a la gente por un precipicio.
Alicia
Esa es una forma perfecta de decirlo. Y ese cambio es exactamente por lo que la gente en este estudio pide un cambio tan urgente. Sus motivaciones fueron realmente personales.
Beto
Bien, entremos en esas cinco motivaciones clave. La primera trata de hacer la educación global y culturalmente sensible.
Alicia
Sí, hay una enorme demanda de educación en IA que refleje experiencias diversas y que vaya más allá de un currículo puramente occidental.
Beto
Escuchamos a Joshua Owusu Ansah también sobre esto.
Alicia
Sí. Un estudiante africano que habló de cómo los programas de ingeniería actuales simplemente no tienen en cuenta la inclusividad racial o geográfica en sus asunciones más básicas.
Beto
Si tus herramientas están diseñadas para alguien con internet de alta velocidad en el norte global, son excluyentes por diseño.
Alicia
Absolutamente. Y Branislav Radeljić puso el ejemplo de la tecnología verde. Nos encanta hablar de ella, pero ¿los ingenieros que diseñan las baterías piensan en las prácticas laborales explotadoras usadas para extraer el litio?
Beto
Entonces la solución está construida sobre un problema moral.
Alicia
Exacto. Conecta con la segunda motivación: cerrar la brecha entre academia, industria y, bueno, la realidad.
Beto
Hay una gran desconexión ahí.
Alicia
Enorme. Una CEO tecnológica, Tammy Mackenzie, habló de su frustración porque los ingenieros nuevos a menudo carecen de habilidades interpersonales básicas: trabajo en equipo, comunicación, las habilidades blandas. Y también dijo que parecían muy reacios a tomar riesgos, tal vez porque su formación prioriza solo obtener la respuesta correcta.
Beto
Es tan interesante. Las habilidades técnicas están ahí, pero falta la capacidad de colaborar o innovar.
Alicia
Y vimos esto también en la fábrica. Yves Gaudet, un dueño de fábrica, habló de lo difícil que es lograr que los jóvenes ingenieros trabajen con sus operadores de máquina experimentados.
Beto
El choque cultural.
Alicia
Un choque total de cultura y clases. Los ingenieros luchan con la flexibilidad y las ideas se dividen según líneas educativas, no según lo que realmente es efectivo. El currículo está, sin querer, formando para que permanezcan en su silo social.
Beto
Vaya. Eso es una consecuencia no intencionada enorme, que va directo a la motivación tres: La ética y la responsabilidad social tienen que ser fundamentales.
Alicia
No solo una asignatura adicional que tomas en primer año.
Beto
Y aquí es donde llegamos a esa historia personal tan potente de Joshua Owusu Ansah otra vez.
Alicia
Es una historia que deja las apuestas clarísimas. Habló de que su madre falleció tras una lectura inexacta del oxímetro.
Beto
Y la inexactitud era un problema ya conocido.
Alicia
Ya conocido, sí. Según fallos de estos dispositivos al no haber sido probados en tonos de piel diversos, un completo fallo de inclusión en el proceso de diseño.
Beto
Es desgarrador. Y muestra que estas fallas de diseño no son solo un inconveniente. Tienen consecuencias fatales y perjudican de forma desproporcionada a comunidades marginadas.
Alicia
Como dijo otra contribuyente, Lilianny Virguez, "la educación tiene que enseñar a los ingenieros a construir no solo soluciones inteligentes, sino justas".
Beto
Y para construir soluciones justas se necesitan más perspectivas. Esa es la motivación cuatro: aprendizaje super-disciplinario y humildad.
Alicia
Todo esto trata de derribar esos silos de los que hablamos. Se trata de traer las ciencias sociales, las humanidades y la teoría crítica directamente al aula de ingeniería.
Beto
Sreyoshi Bhaduri y Animesh Paul lo expresaron muy bien: dijeron que la educación en IA necesita enseñar a los estudiantes no solo a programar, sino a importarles.
Alicia
Es una forma tan poderosa de enmarcarlo: pasar de la habilidad técnica pura al diseño compasivo.
Beto
Y Hayoung Shin hizo una analogía increíble comparando la educación en IA ahora con la educación en alfabetización en la era de Gutenberg.
Alicia
Sí, piensa en eso por un segundo. La imprenta no fue solo una nueva máquina. Fue una fuerza que cambió por completo la sociedad, el poder y el acceso al conocimiento.
Beto
Y la IA es ese mismo tipo de fuerza hoy.
Alicia
Exactamente. Puede empoderar a millones o excluirlos dependiendo totalmente de cómo enseñemos a quienes la construyen.
Beto
Lo cual es una transición perfecta a la quinta y última motivación. Esto es una conversación sobre la educación en IA.
Alicia
Se trata de hacerla accesible, especialmente para las comunidades desatendidas que suelen ser las más afectadas por estos sistemas.
Beto
Indrani Bhaduri y Rosa Paccotacya-Yanque hablaron sobre esto.
Alicia
Lo hicieron. Destacaron la necesidad de encontrar y nutrir talento en todas partes, especialmente por ejemplo una niña en una zona rural que de otra manera jamás tendría la oportunidad. Y hablaron de usar la propia IA, por ejemplo con evaluaciones basadas en IA, para ayudar a cerrar esas brechas de oportunidad.
Beto
Así que no se trata solo de cambiar lo que enseñas, sino de cambiar profundamente quién tiene la posibilidad de aprender en primer lugar.
Alicia
Exacto.
Beto
Todo esto parece apuntar hacia una nueva visión de lo que es un ingeniero, pasando de "solucionador" a "cuidador".
Alicia
Sí. De simplemente resolver un rompecabezas técnico a ser éticamente responsable por el resultado. Y para hacer eso, las fuentes dicen que hay que integrar marcos éticos específicos directamente en el proceso de diseño.
Beto
Hablemos de ellos. El primero es diseño sensible a los valores, o VSD ("Value Sensitive Design").
Alicia
VSD obliga al ingeniero desde el día uno a mapear y justificar a todos los interesados. No solo al usuario directo, sino a los usuarios indirectos. A la gente que podría resultar dañada, a todos.
Beto
Así que tienes que hacer preguntas como: ¿estamos priorizando la conveniencia para algunos, o la privacidad para todos?
Alicia
Precisamente. Es una auditoría moral antes de escribir una sola línea de código.
Beto
Luego está el diseño inclusivo.
Alicia
Que es la respuesta directa a ese problema del oxímetro. Se trata de desafiar la idea de talla única.
Beto
Diseñas para los márgenes, no solo para el usuario promedio en el centro de la campana de Gauss.
Alicia
Sí. Tienes que respetar la variabilidad humana y diseñar para los extremos, para la gente que usualmente se pasa por alto.
Beto
Y el tercero es el diseño participativo.
Alicia
Este es clave para combatir el tecno-salvacionismo. Se trata de poner a las personas que serán afectadas por la tecnología en el equipo de diseño.
Beto
No solo como sujetos de prueba al final.
Alicia
Para nada. Como co-diseñadores. Crea un proceso de aprendizaje mutuo y asegura que el conocimiento del mundo real esté incorporado desde el principio.
Beto
Los tres marcos apuntan a una mentalidad de ingeniería completamente nueva. Lilianny Virguez lo dijo muy bien: "quiero que la educación en IA vaya más allá del código y el cálculo para incluir cuidado, responsabilidad y propósito".
Alicia
Y eso requiere lo que Animesh Paul llama el "aula política". Los estudiantes tienen que aprender sobre responsabilidad algorítmica y la política de la predicción.
Beto
No solo sobre métricas de rendimiento como la velocidad.
Alicia
Correcto. Un cambio de enfoque de “¿funciona rápido?” a “¿funciona de manera justa y cuáles son las consecuencias políticas de esto?”
Beto
Y eso significa que hay que priorizar el elemento humano. El currículo necesita desarrollar cosas como discernimiento ético, empatía y alfabetización emocional.
Alicia
Ese es el núcleo de la WPE. Se trata de integrar la mente — lo que sabes — el corazón — lo que te importa — y la voluntad — las elecciones que realmente haces. Así es como se logra un diseño responsable.
Beto
Entonces la pregunta central para el estudiante deja de ser solo: "¿puedo construir esto?"
Alicia
No. La pregunta tiene que volverse: "¿deberíamos construir esto, para quién y a qué costo?"
Beto
Un conjunto de preguntas mucho más difícil de responder.
Alicia
Más difíciles, pero mucho más importantes.
Beto
Para cerrar, ¿qué significa esto para ti, oyente?
La gran conclusión del estudio es que la educación integral es lo que se necesita para crear el tipo de ingeniero que esta era de la IA exige.
Alicia
Alguien que sea consciente del contexto, socialmente consciente y listo para el liderazgo ético. Es un cambio de ser constructor a ser cuidador.
Beto
Y queremos dejarte con un último pensamiento para masticar:
Alicia
El material fuente señala que la influencia de la IA puede — y en muchos casos ya está — agravar la brecha entre el norte y el sur global.
Beto
Debido a cosas como el acceso desigual a internet y a recursos.
Alicia
Exacto. Puede reforzar estructuras de poder existentes.
Así que aquí está la pregunta: si ahora decimos que los ingenieros de IA deben ser cuidadores de estos sistemas globales, ...
Beto
¿Cuál es su responsabilidad directa ahora mismo para abordar las masivas inequidades globales que están integradas en el acceso y la implementación de la IA desde el principio?
Alicia
Ese es el desafío.
Beto
Ese es el desafío para esta nueva generación de constructores. Gracias por acompañarnos en este análisis profundo.