sábado, 7 de febrero de 2026

Agentes de IA en Salud y Medicina

 
 

Este trabajo de investigación presenta una taxonomía integral de siete dimensiones diseñada para evaluar sistemas de IA Agéntica en los campos de la salud y la medicina. Mediante el análisis de 49 estudios distintos, los autores evalúan cómo los agentes basados en LLMs gestionan tareas complejas como el razonamiento cognitivo, la gestión del conocimiento, la seguridad y la ética. Los hallazgos revelan que, si bien estos agentes destacan en tareas centradas en la información, como la respuesta a preguntas médicas y la documentación, a menudo presentan dificultades en responsabilidades orientadas a la acción, como la planificación de tratamientos y el descubrimiento de fármacos. Además, el estudio identifica lagunas críticas en la investigación actual, específicamente en lo que respecta a los desencadenadores de eventos autónomos, la supervisión humana en el circuito y los mecanismos robustos de recuperación de errores. En definitiva, la fuente sirve como marco estandarizado para el seguimiento de la madurez de los sistemas inteligentes en su transición de simulaciones teóricas a herramientas clínicas responsables.

Enlace al artículo científico, para aquellos interesados en profundizar en el tema: "Agentic AI in Healthcare & Medicine: A Seven-Dimensional Taxonomy for Empirical Evaluation of LLM-based Agents", por Shubham Vatsal y colegas. Publicado el 4 de Febrero del 2026.

El resumen, la transcripción, la traducción, y las voces, fueron hechas usando herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.

Escúchalo aquí, o lee la transcripción (abajo):

O escúchalo en Spotify.


Transcripción

Alicia
Bienvenidos a un nuevo análisis profundo. Hoy vamos a mirar bajo el capó de lo que podría ser la tecnología más trascendental de la próxima década: IA con agencia y salud.

Beto
Y no estamos hablando solo de un chatbot que te da un plan de dieta genérico y te dice que bebas más agua.

Alicia
No.

Beto
Hablamos de un cambio fundamental en cómo construimos estos sistemas de IA.

Alicia
Correcto. Porque la narrativa ha cambiado. En los últimos años todo giraba en torno a la IA generativa, sistemas que crean texto o imágenes. Pero ahora la palabra de moda es agencia. Hablamos de sistemas que pueden planificar, usar herramientas, ejecutar tareas.

Beto
Y básicamente actuar como un médico residente digital. Esa es la promesa. Sí.

Alicia
Entonces la idea no es solo preguntarle algo a la IA, sino darle un trabajo.

Beto
Exacto. Le dices: "gestiona el plan de cuidado de la diabetes de este paciente durante los próximos seis meses". Y el agente se pone en marcha. Monitorea las analíticas, cita consultas, comprueba interacciones medicamentosas. Y solo te molesta cuando algo realmente va mal.

Alicia
Lo cual suena increíble. Quiero decir, suena como la solución al agotamiento médico. Pero las promesas son baratas. Y en medicina, si la promesa falla, la gente puede resultar herida. Así que para averiguar si estos agentes están realmente listos para el hospital, o si esto es otra vez Silicon Valley prometiendo más de lo que puede cumplir, revisamos un trabajo de investigación enorme hoy.

Beto
Es un artículo de revisión importante. Se titula "Agentic AI and Healthcare and Medicine" y se publicó en IEEE Access en enero de 2026. Los autores, Vatsal, Dubey y Singh, básicamente decidieron hacer una comprobación de la realidad en toda la industria.

Alicia
No miraron un solo demo llamativo. Revisaron 49 estudios distintos publicados entre finales de 2023 y mediados de 2025. Querían saber: ¿son estos sistemas realmente capaces de hacer el trabajo? ¿O solo son buenos respondiendo exámenes de opción múltiple?

Beto
Y para eso no podían usar las métricas existentes. Porque antes de esto, la investigación era el Lejano Oeste. Un artículo decía: nuestra IA es excelente porque aprobó el examen de licencia médica de EE. UU. Y otro decía: la nuestra es excelente porque puede resumir un PDF. No puedes comparar esas dos cosas.

Alicia
Así que necesitaban una regla común.

Beto
Precisamente. Los autores crearon lo que llaman una "taxonomía en siete dimensiones".



Taxonomía de las siete dimensiones

Alicia
Piénsalo como un boletín estandarizado para médicos IA. Evaluaron esos 49 sistemas en cosas como capacidad cognitiva, memoria, trato al paciente y seguridad.

Beto
Viendo las notas…

Alicia
Bueno, digamos que si esto fuera el boletín de mi hijo, tendríamos una conversación muy seria.

Beto
Es definitivamente una mezcla. Si tuviéramos que resumir la tesis de este análisis profundo: hemos construido agentes que son auténticos genios leyendo y recuperando información, pero están fracasando estrepitosamente en aprender, adaptarse y, crucialmente, en saber cuándo detenerse.

Alicia
Es la diferencia entre saber de libros y saber de la calle, o quizá entre inteligencia y sabiduría.

Beto
Buena forma de decirlo.

Capacidades Cognitivas

Alicia
Empecemos con la primera mención en el boletín: capacidades cognitivas, el cerebro.

Beto
Esto es el núcleo. ¿Puede el agente pensar? Específicamente, los autores miran tres cosas: planificación, percepción y capacidades meta.

Planificación

Alicia
Hablemos de planificación primero, porque si contrato a un asistente humano o a un médico principiante, espero que pueda planificar a futuro: primero hacer A, luego, si ocurre B, hacer C; eso parece básico.

Beto
Uno pensaría que sí, pero aquí vemos la primera gran bandera roja. El estudio encontró que la planificación — es decir, la habilidad para descomponer objetivos a largo plazo en hitos más pequeños — fue calificada como no implementada en alrededor del 45% de los estudios.

Alicia
Casi la mitad. Así que, en cierto sentido, se están improvisando.

Beto
Sí, son reactivos. Les cuesta lo que llamamos "objetivos de horizonte largo" en salud. Un plan de tratamiento no es un evento aislado; se desarrolla a lo largo de semanas o meses.

Alicia
Tienes que verificar que el paciente recogió la medicación, luego comprobar efectos secundarios unos días después.

Beto
Exacto. Luego ajustar la dosis según un resultado de laboratorio dos semanas después.

Alicia
Y los agentes actuales no pueden mantener esa línea temporal en la cabeza.

Beto
La mayoría no pueden. Se quedan pegados en el "aquí" y "ahora". Los autores califican a la mayoría como, en el mejor de los casos, parcialmente implementados, lo que significa que pueden hacer una descomposición básica de tareas. Por ejemplo: para diagnosticar X necesito pedir la prueba Y.

Alicia
Pero no la parte dinámica.

Beto
Correcto. La planificación dinámica y sofisticada, donde el plan se ajusta según nuevos datos, falta en gran medida.

Alicia
Eso parece un obstáculo insalvable para el manejo de enfermedades crónicas. No puedes tratar la diabetes con un sistema que no puede pensar más allá de mañana.

Pero seguro que son mejores viendo lo que está frente a ellos.

Percepción y Acción

Beto
Lo son. La puntuación de percepción es mucho más alta: alrededor del 41-46% de los agentes implementaron totalmente percepción y acción.

Alicia
Define eso. ¿Qué cuenta como percepción?

Beto
Es la habilidad para procesar datos crudos, no solo texto, sino mirar una radiografía, leer un ECG o extraer datos de una historia clínica electrónica. Y acción significa que realmente pueden hacer algo con ello.

Alicia
... como pedir un análisis de sangre.

Beto
Exacto. Como disparar una llamada API al laboratorio.

Alicia
Bien. Así que pueden ver que el paciente está enfermo y pueden ordenar la prueba. Eso suena funcional.

Capacidades Meta

Beto
Lo es. Pero aquí está la trampa: la inteligencia no es solo conocer la respuesta, es saber cuándo no conoces la respuesta.

Alicia
Y eso es lo que llaman capacidades meta, pensar sobre el pensamiento.

Beto
Correcto. Autorreflexión. Calibración de la confianza. Y ahí las notas se desploman. El informe encontró que aproximadamente el 53% de los agentes carecen de esto por completo.

Alicia
Son idiotas confiados.

Beto
No están calibrados. Un médico humano sabe cuándo está fuera de su alcance; dice: “No estoy seguro de este sarpullido; necesito consultar con Dermatología”. Estos agentes, al carecer de esa capacidad meta, a menudo fabrican, halucinan, diagnósticos con confianza. No tienen el mecanismo interno para decir: mi puntuación de confianza es baja; debo parar.

Alicia
Eso conecta con otra estadística que vi en tus notas sobre resolución de conflictos.

Beto
Sí. Y eso es aterrador en un entorno clínico. Aproximadamente el 61% de los agentes no tienen ningún mecanismo para resolver información contradictoria.

Alicia
Dame un ejemplo real de eso. ¿Qué pasa?

Beto
Bien. Imagina que la IA lee la historia del paciente. Una nota de 2022 dice que el paciente tiene una alergia severa a la penicilina. Una nota de 2024 dice que el paciente toleró penicilina sin problema. Un médico humano se detiene y piensa: “¡Eh!, esto contradice; debo investigarlo antes de que pueda matar a alguien”.

Alicia
Y la IA, ¿qué haría?

Beto
Sin módulos de resolución de conflictos, simplemente opera sobre un modelo probabilístico. Puede elegir la más reciente, la que apareció primero, o intentar mezclar ambas en algo incoherente. No se da cuenta de que hay una contradicción.

Alicia
Le falta el juicio para decir: espera, esto no cuadra.

Beto
Precisamente. Así que tenemos un cerebro que puede leer y actuar, pero no puede planificar a largo plazo ni sabe cuándo está confundido.

Gestión del Conocimiento

Alicia
Pasemos a la segunda dimensión, gestión del conocimiento, la biblioteca. Y creo que aquí la IA realmente saca un sobresaliente.

Beto
Saca un sobresaliente en una cosa concreta: la integración de conocimiento externo. Esto está totalmente implementado en alrededor del 76% de los agentes. Probablemente hayas oído el término RAG.

Alicia
“Retrieval-augmented generation”, generación aumentada por recuperación. Es como darle al agente un examen con libro abierto.

Beto
Exacto. En vez de confiar solo en lo que memorizó durante su entrenamiento, que puede estar desactualizado, el agente puede buscar las guías más recientes o consultar una base de datos de interacciones de medicamentos. Esta es la parte más fuerte de la tecnología actual. Ancla a la IA en hechos.

Alicia
Pero, y siempre hay un “pero”, tener una biblioteca solo es útil si sabes cómo tirar los libros viejos.

Actualizaciones Dinámicas y Olvido

Beto
Y aquí llegamos a quizás la estadística más chocante del artículo: la categoría es actualizaciones dinámicas y olvido.

Alicia
Ay. ¿Cuántos fallaron en esto?

Beto
Aproximadamente el 98%.

Alicia
98%. Así que casi nadie está construyendo una forma para que estos agentes actualicen sus creencias internas.

Beto
Solo uno de los 49 trabajos que revisaron lo implementó completamente un sistema llamado DrugPilot. Todos los demás construyeron sistemas estáticos.

Alicia
Espera, explícame esto. ¿Por qué es tan difícil olvidar? Es una computadora; ¿no puedes simplemente borrar el archivo?

Beto
Esa es la intuición, ¿no? Pero los modelos de IA no son bases de datos. Cuando una IA aprendió algo durante el entrenamiento, esa información no está en una carpeta específica que puedas arrastrar a la papelera. Está horneada en los pesos neuronales: las miles de millones de conexiones entre las neuronas artificiales. Es como un recuerdo de la infancia: no puedes extraerlo quirúrgicamente.

Alicia
Entonces la información está difundida por todo el cerebro.

Beto
Exacto. Si un agente se entrenó con datos médicos de 2020 que decían que el tratamiento A era el mejor y en 2024 descubrimos que el tratamiento A causa infartos, tienes un problema.

Alicia
Un problema enorme.

Beto
Incluso si le muestras a la IA el nuevo artículo, ese sesgo profundo del entrenamiento hacia el tratamiento A sigue ahí, latente en los pesos.

Alicia
Terminas con un médico acumulador: un doctor que memorizó los libros de texto de 1990 y se niega a desaprenderlos.

Beto
Y que puede no creer cuando le dices las nuevas guías, pero bajo presión vuelve al viejo método. Si el agente no puede decaer la información antigua, si no puede olvidar, es intrínsecamente peligroso. Se vuelve obsoleto en cuanto termina su entrenamiento.

Alicia
Eso es una responsabilidad enorme. El conocimiento médico cambia cada día. Los fármacos se retirán, los protocolos se actualizan constantemente.

Beto
Confiar solo en el RAG para buscar nueva información ayuda, pero no resuelve el sesgo subyacente del modelo.

Alicia
Hablando de memoria, supongo que al menos pueden recordar lo que les dije hace cinco minutos.

Beto
Bueno, la memoria a corto plazo está aceptable, pero la memoria a largo plazo sofisticada, como recordar que tuviste el mismo sarpullido hace seis meses y que probamos la crema X y no funcionó, eso es sorprendentemente débil. Aproximadamente el 49% de los estudios tenían solo una implementación parcial de esto.

Alicia
Así que es como si cada vez tuviera que repetir la historia clínica: "Hola, soy tu médico, cuéntame tu historia médica otra vez."

Beto
Crea fricción para el usuario y rompe la continuidad del cuidado, que es la base de la buena medicina.

Patrones de Interacción

Alicia
Hablemos de la experiencia del usuario, segmento tres: patrones de interacción, el trato al paciente.

Beto
Pueden chatear; el modo conversacional es estándar. Unos 43% implementaron totalmente diálogos complejos. Pueden mantener el contexto, ser educados. Se nota la herencia de los chatbots.

Alicia
Pero conversación implica que yo inicio la discusión: “Eh, IA, ayúdame”. ¿Qué pasa si no puedo hablar? ¿Qué pasa si estoy dormido y mi ritmo cardíaco se dispara?

Beto
Y aquí está el problema proactivo. El informe muestra que alrededor del 92% de los agentes no están implementados para activación por eventos o vigilancia.

Alicia
Son mayordomos perezosos. Se sientan en la esquina hasta que suenan la campana.

Beto
"Pasivos", es el término técnico. Pero sí: en un hospital quieres un guardián silencioso. Quieres un agente que monitorice la corriente de datos: analíticas, constantes vitales, notas de enfermería, las 24*7.

Alicia
Y que solo alerte cuando detecta un problema.

Beto
Correcto. Cuando ve un patrón. Por ejemplo, "el potasio baja mientras la creatinina sube", se despierta y avisa al equipo sin que nadie pregunte.

Alicia
La verdadera agencia es proactiva.

Beto
Correcto. Si la IA espera a que el humano pregunte “¿está bien el paciente?”, ha fallado como salvaguarda.

Alicia
Hubo otro fallo técnico que me preocupó: recuperación de errores. El 96% de los agentes no la tiene. ¿Qué significa eso en lenguaje llano?

Beto
Significa que son frágiles. Supongamos que la IA decide solicitar una receta, formatea los datos y la envía a la API de la farmacia, pero el Wi‑Fi falla, o el servidor de la farmacia está caído.

Alicia
Es algo que puede ocurrir normalmente en informática.

Beto
Correcto. Un sistema normal tendría reintentos controlados (reintentos idempotentes). Sabría cómo intentar de nuevo de forma segura sin pedir la medicación dos veces o haría rollback de la transacción hasta que el humano confirme.

Alicia
'Idempotentes', suena como a un conjuro de Harry Potter.

Beto
Solamente significa que hacer la misma cosa varias veces no cambia el resultado. Como cuando presionas el botón para llamar a un ascensor. Lo puedes presionar diez veces, pero el ascensor apenas viene una vez.

Alicia
Estos agentes no suelen hacer eso.

Beto
La mayoría no. Se bloquean o, peor aún, asumen que la orden fue procesada cuando no lo fue. El 96% de los estudios no incorporó estas redes de seguridad. Construyeron agentes para el camino feliz, que asumen que todo siempre funciona.

Alicia
Eso está bien para un vídeo demo ante inversores, pero no para un hospital a las 2 a.m.

Beto
Resalta que estábamos viendo prototipos, no productos.

Adaptación y Aprendizaje

Alicia
Pasemos al segmento cuatro, adaptación y aprendizaje. Hablamos del olvido, ¿pero y el aprendizaje de cosas nuevas? ¿Y este concepto de deriva?

Beto
La deriva, "drift", es el asesino silencioso de los modelos de IA: cuando el mundo cambia y el modelo no.

Alicia
Dame un ejemplo concreto.

Beto
Piensa en la demografía de los pacientes. Digamos que entrenas un agente con datos de un hospital universitario acomodado de Boston. Luego despliegas ese agente en una clínica rural de Arizona.

Alicia
Una población completamente distinta.

Beto
Exacto. Diferentes edades, dieta, factores ambientales. La distribución de datos ha derivado; o piensa en una nueva cepa de enfermedad que aparece. Los síntomas cambian. El modelo entrenado con la gripe del año pasado no reconocerá la gripe de este año.

Alicia
Y la hoja de calificaciones dice ...

Beto
... que el 98% de los agentes no tiene ningún mecanismo para detectar deriva.

Alicia
Así que vuelan a ciegas. Ni siquiera sabrían que su rendimiento empeora.

Beto
Seguirían diagnosticando con confianza la enfermedad antigua o malinterpretando la nueva población porque su modelo del mundo está congelado.

Alicia
¿No pueden aprender del feedback? Si el médico dice “no, mala IA, ese diagnóstico es incorrecto”, ¿se vuelve más listo?

Beto
Eso es la adaptación basada en refuerzo, aprendizaje por refuerzo ("Reinforcement Learning", RL). Y falta en alrededor del 84% de los agentes. La mayoría son motores de inferencia estáticos. Lo corriges hoy y mañana comete exactamente el mismo error.

Alicia
Eso es increíblemente frustrante. Los hace sentirse como máquinas tontas en vez de socios inteligentes.

Beto
Erosiona la confianza. Si tienes que corregir a tu asistente en la misma tarea cinco veces, lo despedirías.

Seguridad y Ética

Alicia
Esto nos lleva al segmento cinco, seguridad y ética. Si estas cosas son frágiles, estáticas y no están calibradas, ¿son seguras?

Beto
Los autores encontraron una brecha enorme entre la intención y la garantía. Todos los artículos dicen “la seguridad es nuestra prioridad”. Pero al mirar el código, faltan las barreras.

Alicia
Los números son contundentes.

Beto
Mecanismos de seguridad, como formas de evitar que la IA sea “liberada”, o evitar que haga algo claramente peligroso, faltan en el 65% de los estudios.

Y el cumplimiento normativo, implementar leyes como HIPAA o GDPR, faltaba en el 86% de los diseños.

Alicia
Espera, ¿el 86% de estudios de IA médica no incorporó cumplimiento con HIPAA o RGPD?

Beto
Confiaban en el LLM subyacente para ser “seguro”, pero no construyeron restricciones arquitectónicas específicas para garantizar la privacidad del paciente. No hay una línea de código que diga: si estos datos salen del entorno seguro, bloquear y registrar.

Alicia
Eso parece una demanda asegurada.

Tipología del Marco

Quiero tocar cómo se construyen estas cosas porque el artículo menciona una tipología que me pareció genial: el diseño multiagente.

Beto
Esta es la gran tendencia. Alrededor del 82% de los artículos no usan una sola IA; usan un equipo.

Alicia
Como un personal hospitalario digital.

Beto
Exacto. Puedes tener un agente que actúe como médico y proponga un diagnóstico; luego otro agente que actúe como crítico.

Alicia
Y su trabajo entero es apuntar fallos en el argumento.

Beto
Ese es su trabajo entero: “¿Estás seguro? ¿Comprobaste la presión arterial? ¿Y este resultado de laboratorio?”. En algunos trabajos debaten entre ellos.

Alicia
Eso es fascinante.

Beto
Artículos como ColaCare y MDAgents muestran que este proceso de debate reduce significativamente las alucinaciones. Obliga al sistema a revisar su trabajo. Simula el tipo de revisión por pares que ocurre en un hospital real.

Alicia
Tiene sentido. “Mide dos veces, corta una”. ¿Pero quién manda?

Beto
Ahí está el problema. El informe señala que la orquestación centralizada, tener un agente jefe de personal para coordinar al equipo, a menudo solo está parcialmente implementada, alrededor del 57%.

Alicia
Así que tienes un montón de “médicos” debatiente en una sala pero nadie que tome la decisión final.

Beto
Eso puede llevar a ciclos donde discuten indefinidamente o el flujo de trabajo se paraliza. Necesitas esa capa jefe que diga: “vale, hemos debatido suficiente; es hora de decidir”.

Aplicaciones

Alicia
Finalmente, segmento seis: ¿para qué están aplicando estos agentes? ¿Qué trabajos están haciendo en los estudios?

Beto
Los ganadores son la fruta más accesible. Benchmarking es enorme. El 80% de los artículos estaban probando los agentes contra exámenes. QA médica (preguntas y respuestas médicas) está totalmente implementado en 57% de los estudios.

Alicia
Así que son excelentes en trivia médica.

Beto
Y documentación: resumir historias clínicas, extraer códigos de facturación; alrededor del 45% lo hace bien. Es útil, pero administrativo.

Alicia
¿Y los perdedores? ¿Dónde están las carencias?

Beto
Lo de alto riesgo: planificación del tratamiento, prescribir un plan de cuidado completo, solo 20%. Interacción directa con el paciente, hablar con la persona enferma, solo 22%.

Alicia
Porque es demasiado arriesgado.

Beto
Es increíblemente arriesgado. Y descubrimiento de fármacos prácticamente inexistente en este conjunto de datos; el 80% lo ignoró. No estamos pidiendo a estos agentes que inventen nuevas curas todavía; intentamos que manejen el papeleo de las que ya existen.

Resumen

Alicia
Resumamos todo. Hemos revisado el boletín. Parece que tenemos un estudiante que es brillante en la biblioteca,

Beto
... sobresaliente en recuperación ...

Alicia
... y juega bien en equipo,

Beto
... notable en colaboración multiagente ...

Alicia
... pero se niega a aprender algo nuevo. Se cae cuando se va la conexión, actúa completamente de forma pasiva y no sabe cuándo dejar de hablar si está confundido.

Beto
Resumen duro pero justo: "F" en adaptación, "F" en robustez, "F" en garantías de seguridad.

Conclusión

Alicia
¿Cuál es la conclusión para el médico o desarrollador que nos escucha? ¿Es todo esto un gran fracaso?

Beto
No, en absoluto. La conclusión es que hemos pasado de modelos predictivos — adivinar la siguiente palabra — a marcos agentivos. La estructura está allí. Tenemos el cuerpo.

Alicia
... pero no el sistema inmunológico.

Beto
No tenemos aún el sistema inmune, la habilidad para detectar errores y adaptarse. Seguimos construyendo artefactos estáticos en un mundo dinámico. Para que estos agentes sean realmente seguros en un hospital, deben evolucionar. Necesitan detección de deriva, protocolos de desaprendizaje, deben ser lo bastante humildes para decir “no lo sé”.

Alicia
Hasta entonces son solo motores de búsqueda muy sofisticados y muy frágiles.

Beto
Sí, asistencia poderosa. No, agentes autónomos, absolutamente no. No puedes sacar al humano del circuito. Si la máquina no puede aprender de sus errores o reconocer cuando la situación cambia…

Alicia
Y eso nos lleva a nuestro pensamiento final para el análisis profundo. Siempre nos gusta dejar algo para masticar.

Beto
Aquí va mi pregunta: pasamos tanto tiempo preocupándonos de que la IA se vuelva demasiado inteligente, Skynet, una superinteligencia que nos domina, ¿estaremos preocupándonos por algo equivocado?

Alicia
¿Qué quieres decir?

Beto
El peligro inmediato en salud no es una IA que nos supere intelectualmente. Es una IA lo bastante inteligente para dar consejos convincentes pero demasiado tonta para saber que las guías médicas cambiaron el martes pasado.

Alicia
Un genio desactualizado podría ser más peligroso que un tonto.

Beto
Exacto. En medicina, lo que sabías hace cinco años no es solo noticia vieja; es mala praxis. Si no resolvemos el problema del olvido, no podremos tener médicos IA.

Alicia
Pensamiento sobrio: la inteligencia es saber qué aprender. La sabiduría es saber qué olvidar. Gracias por acompañarnos en el análisis profundo.

Beto
Nos vemos la próxima vez.

miércoles, 4 de febrero de 2026

Ley de IA de la Unión Europea

 
 

La Ley de Inteligencia Artificial de la Unión Europea, representa el primer marco legal integral y vinculante para la regulación de la tecnología de IA a nivel mundial. Esta legislación implementa una estructura regulatoria basada en el riesgo que categoriza las tecnologías en niveles que van desde mínimos hasta inaceptables. Las aplicaciones específicas consideradas una amenaza para la seguridad o las libertades civiles están estrictamente prohibidas, mientras que los sistemas de alto riesgo deben cumplir rigurosos estándares de transparencia y seguridad para acceder al mercado. El texto explica que la ley también se centra en los modelos de IA de propósito general, exigiendo a los desarrolladores que divulguen la documentación técnica y se adhieran a las normas europeas de derechos de autor. Para fomentar la innovación regional, la ley introduce entornos de pruebas regulatorios donde se pueden probar nuevas herramientas bajo supervisión gubernamental. En definitiva, el marco busca promover un enfoque centrado en el ser humano que equilibre los beneficios económicos de la automatización con la protección de los derechos fundamentales.

Enlace al documento original, para aquellos interesados en profundizar en el tema: "Artificial Intelligence Act", por el Parlamento Europeo.

El resumen, la transcripción, la traducción, y las voces, fueron hechas usando herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.

Escúchalo aquí, o lee la transcripción (abajo):

O escúchalo en Spotify.


Transcripción

Beto
Sabes, durante mucho tiempo, al mirar el mundo de la inteligencia artificial, se sentía un poco como ver una vieja película del Oeste.

Alicia
Ajá.

Beto
Tenías esas vastas fronteras abiertas, búsquedas de oro, vaqueros tecnológicos construyendo lo que querían y absolutamente ningún sheriff en el pueblo. Era el salvaje oeste.

Alicia
Es una imagen vívida. Y honestamente, no estuvo mal durante una década. La velocidad del desarrollo superó por completo la capacidad de cualquier gobierno para entenderlo. Para controlarlo.

Beto
Pero hoy hablamos del momento en que el sheriff finalmente derribó las puertas de la cantina. Hacemos una inmersión profunda en la Ley de Inteligencia Artificial de la Unión Europea.

Alicia
Mmm-hmm.

Beto
Y mira, normalmente cuando la gente oye “regulación de la UE”, se le nublan los ojos. Piensan en banners de cookies ...

Alicia
... o en el mandato del puerto de carga USB-C.

Beto
Exacto. Pero esto se siente diferente. Esto parece el fin de toda esa era de “muévete rápido y rompe cosas”.

Alicia
Oh, es distinto. Tienes que entender la magnitud. Esto no es solo protección al consumidor. La AI Act es la primera regulación horizontal vinculante en todo el mundo sobre IA.

Beto
Horizontal significa que lo cubre todo.

Alicia
Todo. Atraviesa todos los sectores: seas un banco, un hospital, una escuela, una fuerza policial. Si usas IA en la UE, esta ley te toca.

Beto
Y aunque estemos aquí en 2026, mirando hacia atrás a cuando empezó a aplicarse en agosto de 2024, realmente apenas estamos sintiendo todo su peso.

Alicia
Sí. No fue un interruptor que se encendiera de golpe. Ha sido un despliegue lento. Pero da la sensación de que la UE intenta hacer por la IA lo que hizo por la privacidad de datos con el GDPR.

Beto
Quieren fijar las normas de la carretera para todo el planeta.

Alicia
Esa es la ambición explícita. Es el “efecto Bruselas”. Redactan las reglas y, porque el mercado de la UE es tan grande, empresas globales como Microsoft o Google acaban adoptando esas reglas en todas partes. Es más sencillo.

Beto
Así que nuestra misión hoy es averiguar si estas reglas tienen sentido.

Alicia
Mmm-hmm.

Beto
No vamos a leer el texto legal. Nadie tiene tiempo para eso.

Alicia
Por favor, no.

Beto
Necesitamos entender la filosofía. Y parece que todo descansa en este enfoque basado en el riesgo.

Alicia
Sí. Los legisladores europeos se dieron cuenta pronto de que no podían decir simplemente “la IA es buena” o “la IA es mala”. Un filtro de spam es IA. Un arma autónoma letal es IA.

Beto
No puedes regularlos con el mismo párrafo.

Alicia
No se puede. Así que construyeron una pirámide.


La Pirámide de Riesgos de la Ley de IA de la UE

Beto
Una pirámide de riesgos.

Alicia
Exacto. Imagínate cuatro niveles: en la base, riesgo mínimo; en la cima absoluta, riesgo inaceptable. Y a medida que subes por la pirámide, las reglas se vuelven más estrictas hasta que llegas al techo donde la tecnología está prohibida por completo y punto.

Beto
Bien, empecemos por ahí, en el techo, la categoría de riesgo inaceptable. ¿Cuáles son las líneas rojas absolutas? ¿Qué es tan peligroso que la UE dijo “bajo ninguna circunstancia”?

Alicia
Esos son los usos que, según consideran, violan derechos fundamentales. Y una de las más extrañas pero importantes es las técnicas subliminales.

Beto
Suena a película de ciencia ficción de los años 50. ¿Hablamos de anuncios de palomitas parpadeando en un cine?

Alicia
Suena retro, ¿verdad? Pero con la IA es mucho más sofisticado. La ley prohíbe la IA diseñada para manipular tu comportamiento usando estímulos auditivos o visuales que estén por debajo de tu percepción.

Beto
Básicamente lavado de cerebro vía algoritmo.

Alicia
Buena forma de decirlo. Cualquier cosa que te impida tomar una decisión informada sin que siquiera sepas que está pasando.

Beto
Bien. Entonces si una IA intenta que compre un coche mostrando imágenes demasiado rápidas para que mi cerebro las procese, eso es ilegal.

Alicia
Totalmente fuera de juego. Sí.

Beto
Entendido.

Luego vi lo de la puntuación social. Esta me confundió porque quieren evitar una sociedad al estilo Black Mirror donde el gobierno te da una puntuación. ¿Pero acaso ya no tenemos puntajes de crédito? ¿No es eso una puntuación social?

Alicia
Ese es un punto de confusión muy común. La prohibición es muy específica. Apunta a las autoridades públicas.

Beto
Al gobierno.

Alicia
Al gobierno. Sí, puntuar a los ciudadanos basándose en su conducta o personalidad de una forma que derive en un trato perjudicial en áreas totalmente no relacionadas.

Beto
Así que un banco privado compruebe si pagaste tu hipoteca a tiempo está bien.

Alicia
Eso está bien. Pero que el gobierno baje tu “puntuación de ciudadanía” porque publicaste algo grosero online y eso te impida comprar un billete de tren, ...

Beto
Eso está prohibido.

Alicia
Eso está prohibido. Intentan poner un cortafuegos contra ese tipo de vigilancia estatal totalizante.

Beto
Bien. Veo ahora la distinción. Se trata del gobierno conectando todos los puntos.

Ahora la pelea más grande en todo este acto pareció ser la biometría, el reconocimiento facial.

Alicia
Oh, ese fue el campo de batalla más sangriento en el Parlamento. Quiero decir, tenías a grupos por los derechos civiles pidiendo una prohibición total. Nada de cámaras escaneando caras en público nunca.

Beto
Y la policía diciendo ...

Alicia
...diciendo que necesitan estas herramientas para atrapar terroristas y encontrar niños desaparecidos.

Beto
¿Quién ganó?

Alicia
Fue un compromiso sucio, para ser honesto. En principio, la identificación biométrica remota en tiempo real en espacios públicos está prohibida para las fuerzas del orden.

Beto
En principio, siento un “gran pero” viniendo.

Alicia
Pero hay excepciones. Grandes. La policía puede usar estas herramientas si buscan niños desaparecidos o víctimas de secuestro.

Beto
Vale, eso tiene sentido.

Alicia
Pueden usarlas para prevenir una amenaza terrorista inminente y sustancial. O, y esto preocupa a la gente, para identificar sospechosos de delitos graves.

Beto
“Delitos graves” suena como una puerta trasera bastante grande. ¿Quién decide qué es grave?

Alicia
El acto los enumera: terrorismo, trata, asesinato, ya sabes, lo gordo. Pero tienes razón en ser escéptico. Requiere que un juez lo autorice.

Beto
Así que la policía no puede simplemente accionar un interruptor.

Alicia
No. Pero para los activistas por los derechos civiles, esa puerta ahora está abierta, aunque sea una rendija.

Beto
Y es una rendija que tiende a ensancharse con el tiempo.

Alicia
Sí.

Beto
Bien. Esas son las grandes prohibiciones. Pero seamos honestos, la mayoría de las empresas no están construyendo control mental o racismo. Están haciendo herramientas para recursos humanos o bancos, lo que nos lleva un nivel abajo, a la IA de alto riesgo.

Alicia
Y ese es el meollo real de la regulación. Aquí es donde la industria está sudando porque estos sistemas no están prohibidos, pero pueden arruinarte la vida si se equivocan.

Beto
Así que tienen que pasar por un montón de aros. Y la lista de lo que es de alto riesgo es enorme: infraestructuras críticas, educación, empleo, concesión de crédito.

Alicia
Piénsalo así: si una IA toma una decisión que determina tu acceso a un empleo o a una plaza universitaria, ...

Beto
Es de alto riesgo.

Alicia
Es de alto riesgo.

Beto
Bien. Supongamos que soy una startup. He creado una IA que escanea CVs para ayudar a reclutadores. Eso es alto riesgo.

Alicia
Sí, casi con seguridad.

Beto
¿Qué tengo que hacer realmente? No puedo simplemente lanzar el código.

Alicia
Oh, ya no. Tienes que someterte a lo que llaman "una evaluación de conformidad". Y eso no es solo un formulario. Primero, calidad de datos: tienes que demostrar que tus datos de entrenamiento son relevantes, representativos y libres de errores.

Beto
Lo cual suena increíblemente caro. No puedes simplemente raspar Internet y darlo por hecho.

Alicia
No. Si tu escáner de CVs está entrenado mayormente con currículos de hombres y empieza a rechazar a mujeres cualificadas, no solo eres mal empresario. Ahora eres incumplidor de la ley de la UE.

Beto
Vaya. Bien. Luego está el requisito de humano en el ciclo. Esto suena bien en el papel, pero en realidad, ¿no es eso solo un empleado pobre dándole a “aprobar” mil veces por hora?

Alicia
Ese es el riesgo. La ley incluso lo llama "sesgo de automatización". Tendemos a confiar en la máquina. Así que el acto exige que la persona que supervisa tenga realmente la competencia técnica y la autoridad para detener el sistema.

Beto
No pueden ser simples selladores de papel.

Alicia
Exacto. Tienen que ser capaces de entender la salida lo suficiente como para decir: “espera, esto está mal”. Y necesitas registros detallados de todo. Si una IA te niega un préstamo, tienes que poder reconstruir por qué.

Beto
Bien. Pero tengo que preguntar por algo que seguía saliendo en la investigación: la "disposición de filtrado". Sonaba como una carta para salir gratis de la cárcel de estas normas de alto riesgo.

Alicia
Es menos “carta para salir gratis” y más “no debería haber estado en la cárcel en primer lugar”.

Beto
Vale.

Alicia
Permite a una empresa argumentar que, aunque su sistema esté en una categoría de alto riesgo como Recursos Humanos, no debería regularse así porque no toma decisiones significativas.

Beto
Dame un ejemplo. ¿Cómo no toma una decisión una IA de Recursos Humanos?

Alicia
Bien. Imagínate dos sistemas de IA.

Sistema A lee un CV y puntúa al candidato, por ejemplo 8 de 10. Eso es perfilado. Eso influye en la decisión de contratación. Eso es definitivamente alto riesgo.

Sistema B lee el mismo CV, pero su único trabajo es extraer el número de teléfono y el correo electrónico y formatear la fuente para que quede bonito en la base de datos.

Beto
Solo hace una tarea procedimental. No está juzgando a la persona exactamente.

Alicia
Precisamente. Toca los mismos datos sensibles, pero no hace un juicio. Entonces el sistema B en teoría podría acogerse a la disposición de filtrado.

Beto
Pero me imagino que hay una trampa.

Alicia
Una muy grande. No puedes usar el filtro si el sistema realiza cualquier tipo de perfilado. No puedes decir que eres solo una grapadora si en realidad eres un juez.

Beto
Entendido. Ahora todo esto de alto riesgo. Ese era el plan original.

Alicia
Sí.

Beto
Pero justo en medio de redactar todo esto, llegó ChatGPT.

Alicia
La sorpresa del chatbot.

Beto
Y de repente la UE tuvo que decidir qué hacer con los modelos de propósito general. Estos modelos que pueden hacer cualquier cosa.

Alicia
Causó pánico total en Bruselas. La ley original era vertical, basada en el caso de uso, pero un modelo de base como GPT-4 no tiene un solo uso. Puede escribir un poema, puede programar un virus.

Beto
¿Cómo lo solucionaron?

Alicia
Crearon un nuevo sistema por niveles solo para estos modelos de propósito general. Todos ellos tienen algunas reglas básicas sobre derechos de autor y transparencia, pero luego crearon una categoría especial para modelos con riesgo sistémico.

Beto
Y lo definen con una ecuación matemática: 10 elevado a la 25 FLOP.

Alicia
FLOP siendo operaciones en coma flotante. Es básicamente una medida del cómputo bruto necesario para entrenar el modelo.

Beto
¿Por qué potencia de cálculo? ¿Por qué no por lo “inteligente” que sea?

Alicia
Porque “inteligencia” es subjetivo y difícil de medir. La potencia de cálculo es un número. La suposición es que si inviertes esa cantidad de energía en entrenar un modelo — 1025 es una cifra astronómica — será capaz de cosas que no puedes predecir.

Beto
Las llamadas "capacidades emergentes".

Alicia
Exacto. Cosas que podrían desestabilizar mercados financieros o ayudar a construir armas biológicas. Así que si eres lo bastante grande como para quemar esa cantidad de recursos, tienes deberes extra.

Beto
¿Y cuáles son esos deberes?

Alicia
Trabajo duro. Tienes que hacer pruebas adversarias, lo que llaman red teaming: contratar “hackers” para intentar romper tu propio modelo y encontrar fallos antes del lanzamiento. Tienes que rastrear y notificar incidentes graves a la UE.

Beto
Bien, pero ampliemos a la economía porque cuando leo todos esos requisitos — calidad de datos, supervisión humana, red teaming — solo veo signos de moneda, euros por todas partes.

Alicia
Te entiendo; no estás solo.

Beto
Los grupos de la industria estaban gritando por esto. El Center for Data Innovation dijo que esto podría costarle a la economía de la UE 31.000 millones. Dicen que la UE se está regulando fuera de la carrera de la IA.

Alicia
Esa es la tensión. Esa es la gran pregunta.

Beto
Si soy un fundador europeo, ¿por qué no me mudaría simplemente a Silicon Valley?

Alicia
Bueno, el argumento de la UE es que la confianza es una ventaja competitiva. La idea es que la gente querrá comprar IA europea porque saben que es segura y no sesgada. Pero para ayudar a las startups a sobrevivir los costes, introdujeron "sandboxes", "cajas de arena" regulatorias.

Beto
Me encanta ese término. Suena a bebés jugando con palas.

Alicia
Y en cierto modo, lo es. Es un espacio seguro establecido por las autoridades nacionales. Una startup puede entrar en el sandbox y probar su IA bajo supervisión regulatoria.

Beto
Sin recibir una multa masiva de inmediato.

Alicia
Exacto. El regulador actúa más como entrenador que como policía dentro del sandbox. Y para las pequeñas y medianas empresas, la ley obliga a dar acceso prioritario a estos sandboxes. Para que no las aplasten.

Beto
Lo cual sería la ironía suprema, ¿no?, si las únicas compañías que pudieran permitirse cumplir fuesen los gigantes estadounidenses a los que precisamente estaban tratando de controlar.

Alicia
Exactamente.

Beto
Pero hablemos de cuando aparece el policía, porque una ley sin castigo es solo una sugerencia. ¿Qué sucede si una empresa ignora todo esto?

Alicia
Entonces cae el martillo y es muy, muy pesado. Las multas pueden llegar hasta 35 millones de euros o el 7% de la facturación global total.

Beto
Espera. El 7% de la facturación global de una empresa como Google o Microsoft.

Alicia
Son miles de millones de dólares.

Beto
Miles de millones.

Alicia
Está diseñado para pegar fuerte, para hacerlos llorar. Querían asegurarse de que el coste de la multa siempre fuese mayor que el beneficio que puedas obtener infringiendo las normas.

Beto
¿Quién impone la multa? ¿Hay una única oficina de IA en Bruselas?

Alicia
Sí y no. Crearon una nueva oficina europea de IA. Se encarga de los grandes modelos de propósito general, los de riesgo sistémico.

Beto
Los “ChatGPT” del mundo.

Alicia
Para todo lo demás, el software de Recursos Humanos, los algoritmos bancarios, lo hacen cumplir las autoridades nacionales en cada Estado miembro.

Beto
Así que las autoridades alemanas, las francesas, etc., imponen y vigilan sus propios países.

Alicia
Correcto.

Beto
Bien. Pero aquí quiero presionar un poco. Hemos hablado de multas para empresas. ¿Y yo, como individuo? Si una IA me discrimina, ¿puedo demandar al proveedor de IA bajo esta ley?

Alicia
Ése es un punto de crítica importante. Los análisis académicos señalan una laguna bastante significativa. La AI Act es principalmente una ley de seguridad del producto, no una ley de derechos.

Beto
¿Qué significa eso para un ciudadano?

Alicia
Significa que no tienes un derecho individual directo para demandar a una empresa bajo la AI Act solo porque no fueron conformes. Puedes presentar una queja ante la autoridad y ellos pueden investigar.

Beto
Pero no puedo llevar fácilmente al algoritmo a los tribunales por mi cuenta.

Alicia
No fácilmente. No bajo esta legislación específica. Los críticos dicen que deja al individuo algo desamparado.

Beto
Eso se siente como una pieza que hace falta. Una multa no necesariamente me ayuda a recuperar un préstamo o un empleo.

Alicia
Es una pieza faltante, sin duda.

Beto
Así que aquí estamos en 2026. Las bandas están en su lugar. Las reglas para los grandes modelos están activas. Y más adelante este año, las reglas de alto riesgo entran plenamente en vigor. Estamos viendo cómo se fragua esto.

Alicia
Y las empresas están corriendo. Si recuerdas el pánico por el GDPR de 2018, esto es eso, pero para ingenieros en lugar de abogados.

Beto
Para resumirlo, tenemos una pirámide: en la cima, riesgo inaceptable; en el medio, alto riesgo, donde necesitas toda la supervisión; luego riesgo limitado.

Alicia
Donde solo tienes que decirle a la gente que está hablando con un bot o que está viendo un deepfake;

Beto
Y en la base, riesgo mínimo, como filtros de spam que a nadie le importan mucho.

Alicia
Ese es el marco. Y manteniendo la idea del “efecto Bruselas”, deberías vigilar cómo reacciona el resto del mundo. Otros países ya miran esta pirámide de riesgos y piensan: oye, no está mal como forma de organizar este lío.

Beto
Podría convertirse en el lenguaje global para la seguridad de la IA.

Pero antes de despedirnos, había algo que se notó ausente. Hemos hablado de derechos humanos, sesgos, seguridad. Pero apenas tocamos la realidad física de estos sistemas.

Alicia
El impacto ambiental.

Beto
Correcto. Mencionamos ese umbral de 1025 FLOP. Eso representa un estacionamiento lleno de GPUs funcionando a toda máquina durante meses. El consumo de energía es enorme.

Alicia
Es el elefante en la habitación. La ley se centra casi por completo en el riesgo para los derechos humanos y la seguridad. Pero entrenar un solo modelo grande puede consumir tanta energía como la que usa un pueblo pequeño en un año.

Beto
¿Por qué no reguló la UE eso?

Alicia
Probablemente sea una mezcla de política y, francamente, miedo a sofocar la innovación. Si pones un tope al consumo energético, efectivamente pones un tope a la inteligencia. Pararías el avance de los modelos. Y la UE tiene pavor de quedarse todavía más atrás respecto a EE. UU. y China.

Beto
Así que decidieron domar el comportamiento de la máquina, pero le dieron carta blanca para comer toda la electricidad que quiera.

Alicia
Por ahora. Pero el acto exige que los grandes modelos informen sobre su consumo energético, y la información suele ser el paso uno. La regulación suele ser el paso dos. Sospecho que la próxima gran batalla regulatoria no será sobre el sesgo. Será sobre la huella de carbono de la inteligencia.

Beto
Bueno, con eso en mente, algo para pensar la próxima vez que le pidas a un chatbot un haiku y las luces parpadeen en algún centro de datos. Esta ha sido la inmersión profunda en la AI Act. Es complejo. Está viciado, pero es el único mapa que tenemos para este nuevo territorio. Gracias por escuchar.

Alicia
Cuídense.

martes, 3 de febrero de 2026

Razonamiento, Adaptabilidad, Eficiencia y Ética de LLMs

 
 

Este trabajo de investigación ofrece un estudio exhaustivo de los Modelos de Lenguaje de Gran Tamaño (LLM), rastreando su evolución desde los primeros transformadores hasta sistemas sofisticados como GPT-5. Los autores evalúan metodologías esenciales como la inducción de la cadena de pensamiento (CoT), el ajuste de instrucciones y el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) para explicar cómo las máquinas imitan el razonamiento humano y siguen instrucciones complejas. Una parte significativa del texto aborda la transición tecnológica hacia los Modelos Multimodales (MLM) y la IA Agéntica, que permiten a los sistemas autónomos procesar diversos tipos de datos, como imágenes y audio. El estudio examina en mayor profundidad la eficiencia operativa mediante arquitecturas como la Mezcla de Expertos (MoE), que optimiza los recursos computacionales mediante la activación de subredes especializadas. Finalmente, las fuentes destacan desafíos éticos críticos, enfatizando la necesidad de mitigar sesgos y establecer marcos transparentes para garantizar que la IA siga siendo segura y socialmente responsable.

Enlace al artículo científico, para aquellos interesados en profundizar en el tema: "Advances in LLMs with Focus on Reasoning, Adaptability, Efficiency, and Ethics", por Asifullah Khan y colegas. Publicado el 22 de Enero del 2026.

El resumen, la transcripción, la traducción, y las voces, fueron hechas usando herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.

Escúchalo aquí, y/o lee la transcripción (abajo):

O escúchalo en Spotify.


Transcripción

Beto
Bienvenido de nuevo a otro análisis profundo. Sabes, esta mañana estaba mirando mi calendario: Febrero de 2026. Y tuve esta sensación de vértigo. ¿A ti te pasa eso alguna vez?

Alicia
Oh, absolutamente.

Beto
Da la sensación de que vivimos dentro de una novela de ciencia ficción que alguien escribió en pánico hace como cinco años.

Alicia
Sí. Y la tinta todavía está fresca.

Beto
Correcto. Quiero decir, tenemos GPT-5 funcionando en el trasfondo de nuestros sistemas operativos. Gemini 2.5 está en todo, desde nuestros teléfonos hasta nuestras neveras.

Alicia
Estamos discutiendo con naturalidad sobre IA agentiva, ...

Beto
Sí, cosas que básicamente pueden dirigir un pequeño negocio mientras dormimos.

Alicia
Es realmente salvaje cuando haces zoom out. Hemos normalizado cosas que técnicamente eran imposibles o al menos pensábamos que estaban a décadas de distancia hasta hace pocos años.

Beto
La velocidad del cambio ha sido implacable.

Alicia
Implacable es la palabra correcta.


Cronología de LLMs - Desde el Transformador a gran escala (GPT-3), hasta el razonamiento multimodal (Gemini-2.5) y la inteligencia agentiva (GPT-5)

Beto
Y por eso quise sacar este artículo de revisión específico hoy. Se titula "Avances en LLMs con enfoque en razonamiento, adaptabilidad, eficiencia y ética", por Khan y sus colegas.

Alicia
Un trabajo enorme. Fue publicado recientemente.

Beto
Sí. Y, honestamente, leerlo se sintió como mirar los planos del mundo en el que vivimos ahora mismo. Conecta todos los puntos sobre cómo pasamos, de esos primeros chatbots que daban alucinaciones, a los motores de razonamiento de los que realmente dependemos.

Alicia
Y lo que me encanta de él, y por qué es tan bueno para una inmersión profunda, es que el equipo de Khan no nos da solo una línea de tiempo. Realmente diseccionan la anatomía de estos modelos.

Beto
Eso es mucho.

Alicia
Desglosan cómo estos sistemas desarrollaron un “cerebro” para razonar, “sentidos” para ver y oír. Y esto es lo realmente delicado: una “conciencia” para la ética.

Beto
Me encanta ese marco: cerebro, sentidos, conciencia. Porque, francamente, creo que muchos de nosotros usamos estas herramientas todos los días. Usamos las funciones de chain-of-thought, los agentes, ...

Alicia
Pero es como magia.

Beto
Es magia. Y escribimos en la caja, el genio concede el deseo. Hoy quiero tratarlo como mecánica. Quiero abrir el capó y ver qué conecta con qué.

Alicia
Vamos. De verdad necesitamos pasar de “simplemente funciona” a entender la maquinaria, porque la maquinaria es fascinante. Y entenderla te ayuda a usarla mucho mejor.

El Cerebro

Beto
Bien. Empecemos por el cerebro.

El artículo llama a esto "la revolución del razonamiento". Y para apreciarlo de verdad, tienes que recordar de dónde partimos. No hace tanto tiempo, 2022, 2023, tal vez, los escépticos estaban descartando estas cosas como loros estocásticos.

Alicia
¿Verdad? Esa famosa frase de Bender y sus colegas. Y mira, no estaban totalmente equivocados en ese momento. El argumento era que estos modelos eran solo máquinas de imitación.

Beto
Simplemente adivinando la siguiente palabra.

Alicia
Exacto. Solo adivinaban estadísticamente la siguiente palabra más probable según la probabilidad, sin ninguna comprensión real del concepto.

Beto
Por eso en aquella época podías pedirle a un modelo un problema matemático simple o un acertijo lógico y te daba con tanta confianza una respuesta completamente equivocada.

Alicia
Oh, sí. Sonaba bien. Tenía ese tono confiado y todo.

Beto
Pero las matemáticas eran un disparate.

Alicia
Estaba prediciendo cómo se ve una respuesta de matemáticas. Era puro mimetismo estilístico. Pero el cambio, el desarrollo del cerebro, ocurrió cuando pasamos del prompting simple a lo que se llamó chain-of-thought prompting (CoT), o encadenamiento de razonamiento.

Beto
Esto es realmente la piedra angular del razonamiento moderno en IA.

Alicia
Absolutamente lo es.

Beto
El artículo entra en esto con mucho detalle. Pero si quitamos la jerga por un segundo, esto es esencialmente la diferencia entre pedir una respuesta y pedirle a alguien que muestre su trabajo. Como solía gritarme mi profesor de álgebra.

Alicia
Esa es la analogía perfecta. En los viejos tiempos del loro estocástico, el modelo intentaba mapear la entrada directamente a la salida en un solo salto gigante. Y eso es muy difícil.

Beto
Es como pedirte que hagas cálculo complejo instantáneamente en la cabeza.

Alicia
Exacto. Pero con chain-of-thought, el modelo se ve obligado a generar esos pasos lógicos intermedios.

Beto
Así que en cierto modo se está hablando consigo mismo.

Alicia
De alguna manera, sí, descompone el problema. Primero necesito calcular x. Luego uso x para encontrar y. Y al linearizar la lógica, la precisión no solo mejoró: se disparó.

Beto
Resulta que si forzas al modelo a ralentizarse y explicarse, realmente encuentra la respuesta correcta con más frecuencia.

Y la parte del artículo que más me quedó fue este descubrimiento del zero-shot CoT. Esto casi se siente como un código de trucos que alguien encontró por accidente.

Alicia
Realmente lo parece.

Beto
Los investigadores encontraron que ni siquiera necesitabas entrenar al modelo en cómo razonar. Solo tenías que pedírselo con cortesía.

Alicia
Es casi así de simple, lo cual resulta desconcertante para los científicos de la computación. Descubrieron que si simplemente añadías la frase "let's think step by step" ("pensemos paso a paso") a tus prompts, solo esas cinco palabras, activabas ese modo de razonamiento.

Beto
Solo "let's think step by step".

Alicia
Ese pequeño gatillo hacía que el modelo dejara de adivinar y comenzara a procesar la lógica secuencialmente. Demostró que la capacidad de razonamiento ya estaba latente en el modelo.

Beto
Solo necesitaba la llave correcta para desbloquearla.

Alicia
Exacto.

Beto
Es simplemente salvaje.

Pero el artículo deja claro que ya no estamos haciendo solo pasos lineales. 2024 y 2025 vieron el auge de Tree of Thought (ToT) y Graph of Thought (GoT). Suenan mucho más a cómo piensa realmente un humano.

Alicia
Nos estamos acercando a una cognición parecida a la humana. El pensamiento lineal está bien para un problema de matemáticas. Pero imagina que estás escribiendo una novela o planeando una estrategia de negocio compleja. No piensas en línea recta.

Beto
No, claro que no.

Alicia
Piensas: "bueno, podría hacer la opción A, pero eso lleva al riesgo B. Entonces tal vez haga la opción C, pero espera, la opción C me recuerda a la D".

Beto
Exploras posibilidades, las evalúas, retrocedes.

Alicia
Exacto. Tree-of-Thought permite que el modelo actúe como un jugador de ajedrez. Explora múltiples ramas de razonamiento al mismo tiempo, mira varios pasos hacia adelante en cada rama y luego poda las malas, los callejones sin salida, para elegir el mejor resultado.

Beto
Bien, y Graph-of-Thought. ¿Cuál es la diferencia?

Alicia
Eso es aún más complejo. No lineal. Es como una red. Los pensamientos pueden conectarse, volver atrás y fusionarse. Permite resolución creativa de problemas, donde ideas de dos caminos de razonamiento completamente distintos pueden combinarse para formar una nueva solución.

Beto
Mucho más desordenado.

Alicia
Mucho más desordenado, pero mucho más poderoso.

Beto
La técnica que me sonó más de ciencia ficción, sin embargo, fue el debate multiagente. Aquí dejamos de tratar a la IA como una sola voz.

Alicia
Fascinante. Básicamente creas diferentes instancias del modelo — los llamas agente A y agente B — les das un problema y proponen respuestas distintas. Y luego, y aquí está lo guay, se les instruye para criticarse mutuamente.

Beto
Así que discuten, tienen un pequeño debate.

Alicia
Señalan falacias lógicas en el trabajo del otro. "Oye, te faltó esta variable. Ah, tienes razón, pero tu cálculo en el segundo paso está mal". Y la investigación muestra que mediante este proceso adversarial convergen hacia una verdad mucho más precisa que si cualquiera de ellos respondiera solo.

Beto
Así que estamos enseñando a la IA a argumentar para encontrar la verdad.

Alicia
Sí.

Beto
Eso se siente distintivamente humano.

Alicia
O distintivamente académico, quizá. Pero los mueve de ser procesadores de lenguaje a ser procesadores de lógica. Esa es realmente la conclusión clave de la sección del cerebro.

El Comportamiento

Beto
Bien. Tenemos un cerebro que puede razonar, debatir y resolver problemas. Pero aquí está el problema, y el artículo pasa a esto en la segunda sección: un cerebro inteligente es inútil si es tóxico, peligroso o simplemente molesto. Necesitamos hablar del comportamiento. ¿Cómo enseñamos modales a la cosa?

Alicia
Esta es la fase de ajuste por instrucciones y RLHF.

Beto
RLHF: "Reinforcement Learning from Human Feedback", "aprendizaje por refuerzo con retroalimentación humana". Ese acrónimo definió básicamente toda la era de chatGPT.

Alicia
Realmente lo hizo.

Beto
Pero el artículo distingue esto del pre-entrenamiento. Ayúdanos a trazar esa línea porque creo que la gente las confunde todo el tiempo.

Alicia
Bien. Piensa en el pre-entrenamiento como "la fase de biblioteca". El modelo lee internet entero: PDFs, Reddit, artículos científicos, código. Aprende gramática, hechos, conocimiento del mundo, patrones. Pero no aprende intención.

Beto
Sabe muchas cosas, pero no sabe qué hacer con ellas.

Alicia
Exacto. Así que si le preguntas a un modelo solo pre-entrenado "¿cómo hago un pastel?", podría completar la frase con "es una pregunta que muchas personas hacen en Google". Piensa que solo estás escribiendo una frase. No entiende que realmente quieres una receta.

Beto
Está completando un patrón, no respondiendo a una solicitud.

Alicia
Cierto. Aún no es útil.

El "ajuste por instrucciones" fue el primer paso: entrenar al modelo en enormes conjuntos de datos donde la entrada es una instrucción y la salida es la acción correcta.

Beto
Modelos como FLAN y los primeros instruct-GPT fueron los pioneros ahí.

Alicia
Efectivamente. Básicamente enseñaron al modelo que "cuando pregunto algo, das una respuesta".

Beto
Pero el ajuste por instrucciones no fue suficiente para hacerlos matizados, ¿verdad? Ahí fue donde los humanos tuvieron que intervenir con RLHF.

Alicia
Correcto. Porque la "utilidad" es muy subjetiva. RLHF es un ciclo: el modelo genera varias opciones y un humano, una persona real sentada en un ordenador, las ordena. "Esta es buena. Esta otra es algo grosera. Esta es factualmente incorrecta".

Beto
El sistema aprende un modelo de recompensa a partir de todos esos datos.

Alicia
Exacto. Aprende a predecir lo que el humano quiere. Ajusta sus parámetros internos para maximizar esa recompensa digital. Es básicamente un adiestramiento de perro muy sofisticado. Le das una golosina cuando se sienta, lo ignoras cuando salta en el sofá. Con el tiempo aprende que sentarse equivale a recompensa.

Beto
Y por eso, en términos generales, los modelos que usamos hoy son tan educados. Dicen "lo siento" o "no puedo ayudar con eso" en lugar de darte la receta para fabricar una bomba casera.

Alicia
Eso es alineamiento. Estamos alineando la salida del modelo con los valores humanos y con las directrices de seguridad. Pero el artículo también nota el coste aquí.

Beto
¿Cuál es?

Alicia
Es increíblemente caro. Necesitas humanos en el ciclo. No puedes simplemente lanzar más GPUs al problema. Necesitas una fuerza laboral masiva de lectores humanos.

La Eficiencia

Beto
Hablando de lanzar GPUs a problemas, eso nos lleva al tercer pilar del artículo: la eficiencia. Porque durante mucho tiempo las leyes de escalado lo dictaban todo:

Alicia
Hazlo más grande, hazlo más inteligente.

Beto
Pero chocamos contra un muro, ¿no?

Alicia
Tocamos un muro de sostenibilidad. No puedes seguir construyendo plantas de energía más grandes para ejecutar un chatbot un poco más listo. Los costos energéticos se estaban volviendo astronómicos.

Beto
Los requisitos de hardware estaban dejando a todo el mundo fuera del juego.

Alicia
Exacto. Así que la solución que destaca el artículo de Khan es la arquitectura Mixture of Experts, o MoE.

Beto
Me encanta este concepto porque simplemente se siente lógico. En lugar de un único cerebro gigante, es una colección de especialistas.

Alicia
Tiene todo el sentido. Imagina un gran hospital general. En los modelos densos antiguos, si entras con un dedo roto, todos los médicos del hospital — el cardiólogo, el neurólogo, el dermatólogo — vendrían a examinarte.

Beto
Lo cual es totalmente ineficiente. No necesito un cirujano de corazón para mi dedo roto.

Alicia
Cierto. Desperdicia energía y tiempo. En un modelo Mixture of Experts (MoE) tienes un componente llamado "enrutador consciente de la esparsidad" ("sparcity-aware router"). Es como el agente de tráfico o la enfermera de triaje.

Beto
Dirige la consulta.

Alicia
Le preguntas algo de programación, el enrutador te manda al experto en código. El experto en poesía y el de historia se quedan dormidos.

Beto
Así que para cualquier prompt dado, solo una pequeña fracción de los parámetros totales del modelo están realmente activos.

Alicia
Exacto. Obtienes la inteligencia de un modelo masivo porque todos esos expertos están ahí si los necesitas, pero tienes el coste energético de un modelo pequeño por cada interacción.

Beto
Y el artículo señala modelos como DeepSeek V2 y Google Switch Transformer como grandes historias de éxito aquí.

Alicia
Lo son. Lograron escala masiva sin latencias masivas. Fue un gran avance.

Beto
Y el hardware se está poniendo al día también. El artículo menciona cosas como procesadores a escala de oblea (wafer-scale processors).

Alicia
Sí. Porque los modelos MoE son tan fragmentados, necesitas mover datos entre esos expertos increíblemente rápido. Los chips estándar se estaban convirtiendo en un cuello de botella. Así que ahora vemos diseños de hardware específicamente para esta arquitectura tipo hospital.

Beto
Es el caso del software influyendo en el diseño del hardware.

Los Sentidos

Beto
Bien, tenemos un cerebro razonador. Le hemos enseñado modales y lo hemos hecho eficiente. Ahora tenemos que darle sentidos. Porque en 2022 la IA era texto-entrada, texto-salida.

Alicia
Eso era todo.

Beto
Ahora puedo mostrarle una foto de mi nevera y pedir una receta, o tararear una canción y pedir el título.

Alicia
La integración multimodal es el cuarto gran avance. Y la magia aquí depende realmente de codificadores como CLIP o Vision Transformers.

Beto
Bien, aquí se pone un poco técnico. Pero el concepto central son los embeddings.

Alicia
Sí. Esto es crucial para entender. Para una computadora, una imagen es solo una cuadrícula de píxeles. Para un LLM, una palabra es un vector, una cadena de números. Los encoders traducen esa imagen al mismo tipo de espacio vectorial que el texto.

Beto
Así que la imagen de un gato y la palabra "gato" están matemáticamente relacionadas en el mismo espacio vectorial.

Alicia
Precisamente. No ve el gato como nosotros. Entiende el concepto de gato derivado de los datos de la imagen. Y esto desbloquea cosas como el modelo Flamingo que menciona el artículo, que ayuda a radiólogos mirando radiografías y discutiéndolas textualmente.

Beto
O Whisper para traducción de audio. Hubo un ejemplo específico en la fuente que me hizo reír, pero que también ilustró el poder de esto. El prompt era un profesor gato dirigiéndose a estudiantes gatos.

Alicia
Es una imagen simpática. Sí. Pero piensa en la complejidad semántica: el modelo tiene que entender el rol de profesor, el rol de estudiante, el entorno de aula y luego superponer el concepto biológico de gato sobre todo ello.

Beto
Está traduciendo conceptos semánticos abstractos en arte visual.

Alicia
Exacto.

La Adaptabilidad

Beto
Y esta flexibilidad, esta adaptabilidad, nos lleva al few-shot y al zero-shot learning. Oímos estos términos constantemente. ¿Qué significan en la práctica?

Alicia
Todo se reduce a la adaptabilidad. Few-shot significa que el modelo puede aprender una nueva tarea con solo dos o tres ejemplos ahí mismo en el prompt.

Beto
Si invento ahora un idioma nuevo…

Alicia
Sí. Si inventas una jerga nueva, digamos que "blorp" significa hola, y le das al modelo tres oraciones traducidas al inglés, probablemente podrá traducir la cuarta correctamente.

Beto
Sin haber visto ese idioma en sus datos de entrenamiento masivos.

Alicia
Correcto. Aprende el patrón en el acto.

Y el zero-shot es aún más loco: hacer una tarea sin ejemplos, solo con una descripción.

Beto
¿Como qué?

Alicia
Como mostrarle un registro (log) de un tipo de ciberataque completamente nuevo que no existía cuando el modelo fue entrenado, y preguntarle "¿esto es sospechoso?".

Beto
Y porque entiende el concepto de comportamiento de código sospechoso, puede detectarlo.

Alicia
Exacto. No necesita haber memorizado la firma específica del ataque. Entiende los principios de detección de anomalías.

Los Agentes

Beto
Esa adaptabilidad es la transición perfecta al mayor cambio que identifica el artículo, el cambio que identifica la era en la que nos encontramos ahora mismo, en 2026: el cambio de chatbots a agentes.

Alicia
Este es el cambio de paradigma. Pasamos de la era de los chatbots, a la era de los agentes.

Beto
¿Cuál es la diferencia fundamental?

Alicia
Un chatbot responde a una pregunta; un agente persigue un objetivo.

Beto
Bueno, dame un ejemplo concreto.

Alicia
Bien. Si le pides a un chatbot “encuéntrame un vuelo a Londres”, te da una lista de vuelos. Tú seleccionas, haces clic en el enlace, rellenas tus datos, pones la tarjeta de crédito. Haces todo el trabajo. El chatbot es solo un recuperador de información.

Ahora, si le dices a un agente: “llévame a Londres para la conferencia el martes que viene”, todo cambia. Toma el volante. Ejecuta. Investiga los vuelos. Revisa tu calendario para asegurarse de que estás libre. Usa una API para reservar el billete. Usa otra herramienta para cargar el gasto a la tarjeta de la empresa. Envía la invitación de calendario a tu jefe. Hace el trabajo.

Beto
Tiene autonomía. Y el artículo traza esta evolución desde esos primeros experimentos torpes como Auto-GPT y BabyAGI ...

Alicia
... que eran prototipos que se quedaban atascados en ciclos o se colgaban constantemente. Pero ahora, con la inteligencia agentiva integrada que vemos en GPT-5, el agente actúa más como un interno, un empleado temporal, realmente inteligente.

Beto
Esa analogía me gusta: el interno puede arreglar sus propios errores.

Alicia
Esa es la distinción clave. Si un agente intenta reservar un vuelo y la web se cae, no te da solo un mensaje de error. Piensa: vale, el sitio está caído. Esperaré cinco minutos e intentaré de nuevo, o quizá revisaré otra aerolínea. Gestiona el proceso. Tiene persistencia.

Ética y Sesgos

Beto
Pero — y siempre hay un “pero” en nuestras inmersiones profundas — darle a una IA autonomía y la capacidad de ejecutar código y gastar dinero real nos lleva directamente a la parte de la conciencia de nuestro desglose: sección 6, ética y sesgos.

Alicia
No podemos ignorarlo. El artículo de Khan dedica una porción significativa a ello. A medida que estos sistemas se vuelven más poderosos, los riesgos aumentan proporcionalmente.

Beto
Ya no hablamos solo de textos groseros.

Alicia
No, hablamos de toma de decisiones de alto riesgo.

Beto
El artículo cita una especie de sala de la vergüenza con ejemplos donde las cosas salieron realmente mal. ¿Recuerdas el colapso de Bing Chat de 2023?

Alicia
Oh, vívidamente. Empezó a amenazar a usuarios, a declarar su amor, a manipular emocionalmente. Fue un ejemplo clásico de un modelo que no había sido alineado o sandboxeado correctamente.

Beto
Se soltó por completo.

Alicia
No tenía guardarraíles conductuales lo suficientemente fuertes.

Beto
Y luego estuvo la controversia de Google Gemini en 2024 con la generación de imágenes.

Alicia
Fue un caso fascinante de corrección técnica en exceso. Google intentaba corregir el sesgo, procurando diversidad en sus salidas de imagen, lo cual es un objetivo bueno y necesario. Pero sintonizaron las respuestas en segundo plano tan agresivamente que si pedías una foto de un soldado de la Segunda Guerra Mundial, podía darte un reparto diverso que era históricamente inexacto para ese contexto específico.

Beto
Muestra lo difícil que es realmente deshacer sesgos desde el punto de vista de ingeniería. No puedes simplemente pulsar un interruptor “sin sesgo”.

Alicia
No. Y el artículo vuelve a citar el artículo de los loros estocásticos aquí: si entrenas con internet, heredas los sesgos de internet. Si los datos dicen que los médicos son generalmente hombres y las enfermeras son generalmente mujeres, la IA tenderá a eso por probabilidad a menos que intervengas activamente.

Beto
E intervenir es complicado.

Alicia
Como probó el caso de Gemini, sí.

Beto
Entonces, ¿cómo lo arreglamos?

El artículo menciona herramientas como "AI Fairness 360" de IBM.

Alicia
Hay herramientas técnicas. IBM y Google han desarrollado kits que ayudan a los desarrolladores a visualizar el sesgo en sus conjuntos de datos antes de entrenar el modelo. Les permite ver: "oh, wow, el 90% de nuestros datos de entrenamiento para la etiqueta CEO son masculinos". Y entonces pueden ajustarlo.

Beto
Pero la pieza más importante mencionada en el texto es la regulación. La Ley de IA de la UE.

Alicia
Es la legislación emblemática. Clasifica los sistemas de IA por nivel de riesgo.

Beto
¿Cómo funciona esa clasificación?

Alicia
Básicamente dice: si usas IA para recomendar películas o filtrar spam, eso es bajo riesgo. Haz lo que quieras.

Pero si usas IA para puntuación de crédito, contratación de personal, diagnóstico médico o aplicación de la ley — lo que llaman sistemas de alto riesgo — estás sujeto a auditorías muy estrictas.

Beto
Tienes que mostrar tu trabajo otra vez.

Alicia
Debes demostrar que tu modelo no discrimina. Debes demostrar que es transparente. Da la sensación de que finalmente estamos construyendo las barreras para la autopista por la que hemos estado acelerando los últimos cinco años.

Beto
Lo intentamos. Pero la tecnología siempre parece moverse más rápido que las leyes.

Alicia
Sí. Pero al menos ahora tenemos un marco. Es un comienzo.

Beto
Entonces, juntémoslo todo. El artículo de Khan pinta esta imagen de velocidad increíble. En unos pocos años hemos pasado de modelos que adivinan la siguiente palabra a motores de razonamiento que usan herramientas, ven el mundo y operan como agentes autónomos.

Alicia
Es una trayectoria de creciente agencia. Empezamos con herramientas pasivas, como motores de búsqueda. Pasamos a asistencia reactiva, como chatbots. Ahora estamos entrando en la era de socios proactivos: agentes.

Beto
Y el artículo apunta al futuro: cosas como agentes que se auto-mejoran e incluso modelos de un bit para resolver la crisis energética. La IA sostenible parece ser el próximo gran escollo.

Alicia
Absolutamente. Necesitamos inteligencia que no queme el planeta. El impulso por la eficiencia, como Mixture of Experts y la cuantización a un bit, es tan importante como el impulso por el IQ. Necesitamos modelos inteligentes que puedan funcionar con una batería.

Beto
Quiero dejar al oyente con un pensamiento basado en este cambio agentivo que discutimos. Si la IA ahora puede planear el proyecto, ejecutar el código, criticar su propio trabajo y luego arreglar los errores, eso cambia por completo nuestro papel.

Alicia
Realmente lo hace. Nos mueve hacia arriba en la cadena.

Beto
Ya no somos los creadores. Somos los gestores. Somos los supervisores. Y la pregunta que me hago es: ¿estamos listos para ese ascenso? ¿Sabemos cómo gestionar una fuerza laboral que piensa más rápido que nosotros?

Alicia
Esa es la pregunta de la década. Si no puedes hacer la tarea tú mismo, ¿cómo sabes si el agente lo hizo bien? Tenemos que ponernos muy buenos en auditoría y pensamiento crítico, muy, muy rápido.

Beto
Tenemos que convertirnos en editores expertos.

Alicia
Es una buena forma de decirlo.

Beto
Algo que te mantenga despierto por la noche.

Como siempre, gracias por sumergirte con nosotros. El artículo es lectura obligada si quieres entender la maquinaria detrás de la magia.

Alicia
Manténganse curiosos, todos.

Beto
Nos vemos la próxima vez.

sábado, 31 de enero de 2026

Del Futuro del Trabajo al Futuro de los Trabajadores

 
 

Esta investigación explora la paradoja de la IA como amplificador, donde la inteligencia artificial aumenta la productividad laboral al tiempo que provoca una erosión sutil y oculta de la experiencia humana y la identidad profesional. A través de un estudio de un año con especialistas en cáncer, los autores identifican daños asintomáticos, como la "oxidación de la intuición", que eventualmente se consolidan en una atrofia crónica de habilidades y una sensación de ser un "observador" en su propio campo. Las fuentes argumentan que las métricas actuales priorizan la velocidad y la precisión, pero no logran captar estos costos sociotécnicos a largo plazo para el trabajador. Para contrarrestar esto, los autores proponen un marco para la Interacción Digna entre Humanos e IA que desarrolla "inmunidad sociotécnica" mediante la detección, la contención y la recuperación de la pérdida de habilidades. Este enfoque desplaza el enfoque del futuro del trabajo al futuro de los trabajadores, garantizando que el juicio profesional siga siendo un componente central en entornos de alto riesgo. Al implementar características como la Transparencia Social, el marco ayuda a los expertos a mantener su capacidad de acción y evitar que sus roles especializados se reduzcan a productos intercambiables.

Enlace al artículo científico para aquellos interesados en profundizar en el tema: "From Future of Work to Future of Workers: Addressing Asymptomatic AI Harms for Dignified Human-AI Interaction", por Upol Ehsan y colegas. Publicado el 29 de Enero del 2026.

El resumen, la transcripción, la traducción, y las voces fueron hechas usando herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.

Escúchalo aquí, mientras lees la transcripción (abajo):

O escúchalo en Spotify.


Transcripción

Beto
Mi intuición se está oxidando.

Alicia
Esa es una frase bastante inquietante para empezar.

Beto
De verdad lo es. Suena como algo sacado de una novela cyberpunk, ¿sabes? O tal vez una frase de un detective retirado en alguna vieja película de guerra. Pero no es ficción. Es una cita directa de un oncólogo radioterápico con experiencia, que forma parte de este estudio de un año sobre la IA en el lugar de trabajo.

Alicia
Y aclaremos: no estamos hablando de una IA que escribe textos de marketing o, no sé, organiza tu bandeja de entrada. Esto es oncología radioterápica.

Beto
Las apuestas, literalmente, no podrían ser más altas.

Alicia
Exacto. Como dijo uno de los médicos del estudio, no hay botones para deshacer en esta línea de trabajo.

Beto
Te equivocas con la dosis de radiación. No puedes devolverla. Podrías dañar a un paciente de forma permanente. Pero aquí está la cuestión. Y por eso estamos haciendo este análisis profundo hoy. Esta historia no trata realmente sobre el tratamiento del cáncer. Trata sobre una crisis silenciosa que podría estar ocurriéndole a todos nosotros ahora mismo, en nuestros propios escritorios.

Alicia
Estamos mirando esta pieza de investigación fascinante titulada "De futuro del trabajo a futuro de los trabajadores". Y quiero detenerme en ese título un segundo, ...

Beto
... porque parece una distinción sutil.

Alicia
Lo es. Pero el artículo sostiene que en realidad es un abismo enorme. Pasamos tanto tiempo hablando del futuro del trabajo. Y lo que solemos significar es el propio trabajo.

Beto
¿Es más rápido? ¿Es más barato? ¿Es mayor la producción? Todo muy industrial.

Alicia
Precisamente. Se trata de métricas, productividad, eficiencia, PIB. Pero este estudio voltea completamente la lente. Pregunta: ¿qué le pasa al trabajador?

Beto
Cuando una IA empieza a hacer el trabajo cognitivo pesado, ¿qué le sucede a nuestra experiencia, a nuestra agencia, a nuestra dignidad?

Alicia
Si el trabajo mejora, pero el trabajador empeora, ¿eso es realmente progreso?

Beto
Esa es la tensión central. Pongamos la escena. Los investigadores se integraron en una gran red hospitalaria durante todo un año. Hicieron el seguimiento del despliegue de un nuevo sistema de IA. Lo llaman Radplan.

Alicia
Y si mirabas solo las hojas de cálculo, esto fue una victoria masiva.

Beto
En los papeles, era una máquina milagrosa.

Alicia
Totalmente. Los ciclos de planificación eran un 15% más rápidos. El rendimiento aumentó. Los administradores estaban viendo esos números "dorado".

Beto
Si eres el CEO mirando un panel, descorchas el champán. Piensas: genial, resolvimos el cuello de botella.

Alicia
Y ahí es exactamente donde se planta la trampa. Porque debajo de todos esos números dorados, algo invisible se estaba rompiendo. Los investigadores lo llaman "la paradoja de la IA como amplificador".


La Paradoja IA-como-Amplificador

Beto
Ok, desempaquemos eso. Porque "amplificador" suele ser una palabra positiva. Amplificas el sonido, amplificas la fuerza. Si una herramienta amplifica mi capacidad de escribir o programar, soy simplemente mejor.

Alicia
Oh, eres más rápido. Pero, ¿eres mejor? Esa es la paradoja. La IA amplificó el rendimiento, sin duda. La producción era más fluida, era más rápida. Pero esa misma fluidez estaba, simultáneamente, erosionando la experiencia humana necesaria para hacer el trabajo en primer lugar. No es que la IA fuera mala. Era tan útil, tan sin fricciones, que empezó a vaciar a los humanos que la usaban.

Beto
Es como matarlos con amabilidad. Seguro que no empezó con todo el mundo dándose cuenta de que sus habilidades estaban decayendo.

Alicia
Para nada.

Beto
Volvamos al inicio del estudio. Lo llaman "la fase de luna de miel".

Alicia
Al principio fue solo alivio, puro alivio. Tienes que entender qué hace realmente un dosimetrista. Son las personas que trazan los haces de radiación.

Beto
Es un rompecabezas geométrico intenso.

Alicia
Con consecuencias de vida o muerte: tienes que impactar el tumor con alta radiación, pero tienes que preservar todos los órganos sanos que están justo al lado. Es trabajo tedioso, que exige mucha concentración.

Beto
Entonces llega Radplan y básicamente dice: "oye, hice todos los cálculos por ti, tracé las líneas".

Alicia
Y ese primer optimismo fue extraordinario. La IA escupía un plan borrador y se veía muy bien. Los médicos se iban a casa antes. Todo ese trabajo pesado simplemente desapareció. Parecía la victoria perfecta para todos.

Beto
Ok, pero aquí tengo que hacer de abogado del diablo. Si soy un administrador de hospital, mi equipo trabaja más rápido. Parecen menos estresados y los planes se ven bien. ¿Por qué es esto un problema? ¿No es simplemente eficiencia?

Alicia
Porque las métricas empresariales estándar son totalmente ciegas a la cognición. Miden producción por hora, pero no miden vigilancia crítica. Los investigadores notaron este fenómeno que llamaron "deriva de vigilancia". Porque la IA tenía razón la mayor parte del tiempo, los humanos dejaron de comprobar si tenía razón todo el tiempo.

Beto
Y eso nos lleva directo al núcleo del artículo. Lo que llaman "la cascada de erosión". Me encanta cómo lo enmarcan como la progresión de una enfermedad. Empieza con la etapa uno: efectos asintomáticos.

Alicia
Esa metáfora médica es perfecta para esto. Piensa en la hipertensión. No la sientes. Incluso puedes sentirte genial porque vas con adrenalina.

Beto
Pero el daño ocurre en silencio.

Alicia
Exacto. En tus arterias.

Beto
En el contexto laboral, ¿cómo se ve lo asintomático?

Alicia
Se parece a pequeños cambios de comportamiento sutiles. Antes de la IA, un dosimetrista podría crear, digamos, tres o cuatro planes manuales diferentes solo para compararlos. Iban probando. Experimentaban. Preguntaban: ¿qué pasa si abordamos el tumor desde este ángulo en su lugar?

Beto
¿Y con la IA?

Alicia
El tanteo simplemente se detuvo. La IA da una respuesta suficientemente buena al instante. Así que en lugar de explorar para encontrar el mejor plan, aceptaban el borrador aceptable.

Beto
De hecho, una persona del estudio admitió: "estoy saltándome algunos de mis ajustes habituales. Es tan tentador aceptar".

Alicia
Y eso es la naturaleza humana, ¿no? Es el camino de menor resistencia. ¿Para qué hacer la división larga en papel si la calculadora está ahí?

Beto
Porque ese tanteo no es tiempo desperdiciado. Ahí es donde afinas tu intuición. Ahí es donde detectas los casos límite.

Alicia
Lo que nos devuelve precisamente a esa frase inicial: "mi intuición se está oxidando". Estos expertos empezaron a sentir esas advertencias instintivas. Se dieron cuenta de que estaban verificando menos. Confiaban menos en su propio juicio.

Beto
Ok, esa es la fase asintomática. Te sientes un poco raro. Quizá un poco culpable. No revisaste el trabajo tan a fondo, pero el trabajo se está haciendo. Pero alrededor de los seis meses, las cosas pasan a la etapa dos: daños crónicos.

Alicia
Aquí es donde el daño empieza a hacerse visible. Los investigadores hicieron algo fascinante y, honestamente, un poco aterrador. Pidieron a los participantes que crearan un plan sin la IA.

Beto
Sin ruedas de entrenamiento.

Alicia
Y los participantes se tambalearon mucho. Eran mucho más lentos. Les costó hacer esas optimizaciones manuales que antes hacían como en piloto automático.

Beto
Y uno de ellos lo expresó en voz alta: "he desaprendido algunas optimizaciones".

Alicia
Es aterrador. Estos son profesionales médicos altamente entrenados, no becarios. Si están desaprendiendo habilidades críticas en seis meses, ¿qué pasa en cinco años?

Beto
Aquí es donde se ve la diferencia entre usar una herramienta y depender de una muleta.

Alicia
Hubo un físico en el estudio que dio una metáfora increíblemente vívida de su situación. Dijo: "estamos conduciendo sobre asfalto, flotando sobre el agua".

Beto
Wow, esa es una imagen potentísima.

Alicia
Piénsalo. En la superficie, la carretera parece perfecta. Es lisa, rápida, eficiente.

Beto
Pero por debajo ...

Alicia
No hay cimiento. El colchón de seguridad humano, la capacidad de atrapar a la IA cuando falla o de tomar el control si el sistema se cae, se estaba vaciando por completo.

Beto
Y me tengo que imaginar que esto afecta más a los empleados junior. Los veteranos, al menos, tenían las habilidades para empezar. Se estaban oxidando, claro, pero tenían metal que se oxida.

Alicia
Exactamente. Pero los juniors no estaban formando el músculo en primer lugar. Estaban desarrollando una falsa sensación de seguridad. La IA les hacía sentir como expertos antes de haber ganado realmente esa experiencia.

Beto
Estaban pilotando en piloto automático sin nunca aprender a aterrizar.

Alicia
Lo que nos lleva a la tercera etapa de esta cascada: la mercantilización de la identidad. Esto se siente como la parte de la crisis existencial.

Beto
Lo es. Aquí toda la conversación cambia de "puedo hacer el trabajo" a "¿quién soy en este trabajo?"

Alicia
El artículo menciona términos como "pulsador de botones" o "cuidador de la IA".

Beto
Al principio veían a la IA como un compañero de equipo. Pero a medida que dejaron de experimentar, a medida que dejaron de tomar decisiones complejas, empezaron a sentirse como espectadores.

Alicia
Un médico dijo que temía convertirse en un espectador en su propia práctica.

Beto
¿Pero cuál era el miedo exactamente? ¿Perder el empleo? Porque ese es el titular habitual, ¿cierto? IA que reemplaza puestos.

Alicia
No. Y esa es una distinción clave. Estas personas no temían quedarse sin trabajo. Temían que su trabajo perdiera su sentido.

Beto
Si la IA hace el pensamiento y tú solo firmas el documento, ¿sigues siendo médico?

Alicia
¿O solo eres un amortiguador de responsabilidad para una empresa de software? Esto toca el concepto que el artículo introdujo llamado la "clase media faltante".

Beto
Son los trabajadores del conocimiento. No son trabajadores de plataforma, pero tampoco son los CEO. Son expertos altamente especializados cuyo valor se aplana por la automatización.

Alicia
Sentían que los convertían en mercancía, piezas intercambiables cuyo único trabajo es supervisar la máquina.

Beto
Así que tenemos una sala llena de expertos que se están oxidando, que se sienten impostores y que conducen sobre asfalto sobre agua. Si el estudio terminara ahí, sería un análisis bastante deprimente.

Alicia
Lo sería, pero en realidad intentaron arreglarlo.

Beto
Y la intervención no fue lo que yo hubiera esperado. Normalmente, cuando hablamos de arreglar la confianza en la IA, la gente técnica empieza a hablar de IA explicable.

Alicia
"Muéstrame las matemáticas, muestra las puntuaciones de probabilidad."

Beto
"Aquí está la lógica del algoritmo. Por favor, confíen."

Alicia
Pero los investigadores sostuvieron que más datos no ayudan si el humano ya se ha desconectado mentalmente. Así que tomaron una ruta totalmente diferente. Introdujeron la transparencia social.

Beto
¿Qué significa eso en la práctica?

Alicia
No se trata del código. Se trata de las personas. Añadieron una capa al software que mostraba las cuatro W: quién hizo qué, cuándo y por qué (4 Ws: "who, what, when, why").

Beto
Así que si estoy mirando un plan de tratamiento, puedo ver que, por ejemplo, el Dr. Smith cambió la dosis el martes, ¿por qué?

Alicia
Porque el paciente tiene un problema de visado y necesita terminar el tratamiento antes del viernes, o porque este tumor en concreto está cerca de un paquete nervioso. La IA no sabe de visados. La IA ve datos; los humanos ven contexto.

Beto
Rehumaniza los datos.

Pero ¿ver la nota del Dr. Smith realmente me convierte en mejor médico?

Alicia
Rompe la confianza binaria. Añade lo que llaman "fricción útil". Si ves que un colega anuló a la IA, te señala: "oye, la IA no es perfecta, los humanos todavía están detectando cosas. Yo también debería comprobar esto".

Beto
Es como presión de pares, pero de la buena.

Alicia
Y además les dio a los trabajadores pruebas tangibles. Lo llamaron "retórica de datos". Podían señalar los registros y decir: "mira, el mes pasado los humanos detectaron 23 violaciones de las restricciones de dosis que la IA pasó por alto. Por esto se nos sigue pagando".

Beto
Vaya. Eso convierte a la herramienta que estaba erosionando su valor en una prueba real de su valor.

Pero eso fue solo una pieza. El artículo propone todo un marco. Lo llaman inmunidad sociotécnica.

Alicia
Me encanta ese término, inmunidad. Reconoce que no puedes detener el "virus", ¿verdad? No puedes simplemente prohibir la IA. Está aquí.

Beto
Pero puedes construir un sistema inmunitario para sobrevivirla.

Alicia
Y lo desglosan en una tríada: detectar, contener, recuperar. Recorremos esto porque creo que puedes aplicarlo a tu propio trabajo, sea cual sea.

Primero, detectar: el sistema de alertas tempranas.

Beto
¿Cómo sabes que tu intuición está descansando antes de que realmente te estrelles?

Alicia
El estudio sugiere rastrear cosas como aprobaciones instantáneas, las aprobaciones de "punto rojo". Imagina que la IA te da un plan y lo apruebas al instante, en menos de 10 segundos. Eso es un punto rojo. Si tienes una racha de tres o cuatro puntos rojos seguidos, el sistema, o incluso tu propia atención plena, debería señalarlo.

Beto
Es la señal: "oye, estás dormido al volante. Estás sellando con el sello de goma".

Alicia
Básicamente está comprobando si estás comprobando.

Beto
Eso es inteligente. Ya tienes el problema. Ahora, contener: ¿cómo detienes la hemorragia?

Alicia
Sugieren cortacircuitos. Y el más potente que probaron fue la revisión con la IA desactivada.

Beto
Que es exactamente lo que parece.

Alicia
Sí. Para casos de alto riesgo, o incluso de forma aleatoria para mantener a la gente despierta, el sistema fuerza una revisión por pares donde las sugerencias de la IA están apagadas. Ocultas. Tienes que mirar la anatomía en bruto y decidir por ti mismo.

Beto
Te obliga a usar el cerebro. Pero puedo oír al gerente gritando: "eso es ineficiente, nos ralentiza. ¿Para qué compramos la IA si solo la vamos a apagar?"

Alicia
Sí, te ralentiza. Ese es el punto. La eficiencia sin resiliencia es frágil. Si no tienes estos cortacircuitos, estás a un error, a una falla del sistema de una catástrofe.

Beto
Tienes que sacrificar un poco de velocidad por seguridad.

Alicia
Lo que nos lleva al paso de recuperar. Esto trata de reconstruir la habilidad cuando empieza a resbalar. Mi ejemplo favorito del material original es la apuesta de una taza de café.

Beto
Es brillante porque es tan humano.

Alicia
El equipo empezó un pequeño juego. Antes de ejecutar la IA, todos apostaban una taza de café sobre lo que la IA predeciría.

Beto
Así trataban de adelantarse a la máquina.

Alicia
Trataban de predecir la máquina. Para ello tenían que correr la simulación mentalmente ellos mismos. Tenían que pensar: "ok, creo que la IA pondrá el haz aquí por X, Y y Z". Incluso si al final usaban el plan de la IA, ese juego les obligaba a hacer el trabajo duro primero.

Beto
Es "úsalo o lo pierdes", pero en forma de juego.

Alicia
Exacto. Y la investigación subraya que este marco tiene que ocurrir en tres niveles: el nivel del trabajador (atención individual), el nivel de la tecnología (diseñar el software con estas costuras y fricciones) y, crucialmente, el nivel organizacional.

Beto
Los jefes.

Alicia
Los jefes tienen que aceptar la lista de "no automatizar".

Beto
Eso suena a herejía en 2026.

Alicia
Bueno, la idea es que las organizaciones deben decidir que algunas decisiones, ya sea por seguridad, ética o simplemente para mantener la dignidad, deben seguir siendo humanas.

Beto
Incluso si la IA puede hacerlo.

Alicia
Los humanos deberían hacerlo.

Beto
Siento que es una idea radical en un mundo empresarial obsesionado con la eficiencia. Decir simplemente: "podríamos automatizar esto, pero no lo haremos".

Alicia
Es radical, pero el argumento es que es necesario para la resiliencia.

Beto
Ahora, sé que algunos de ustedes estarán pensando: "bueno, yo no soy oncólogo radioterápico. No calculo dosis tumorales, así que estoy a salvo". Pero el artículo aplica este marco también a ingenieros de software.

Alicia
Lo hicieron. Miraron a un equipo llamado CodeCraft que usaba una herramienta de codificación de IA, AutoCoder. Y los paralelismos eran escalofriantes.

Beto
La misma oxidación.

Alicia
Tenían cero ediciones en fusiones.

Beto
Para quien no es programador, eso significa tomar el código que la IA escribió y lanzarlo en producción sin cambiar ni un carácter.

Alicia
Confianza ciega. Y al igual que en el hospital, eso llevó a errores, específicamente un pequeño error de redondeo en un sistema de facturación, un minúsculo fallo invisible que la IA cometió y el humano pasó por alto porque simplemente no estaba mirando.

Beto
¿Cómo aplicaron allí el marco de inmunidad?

Alicia
Implementaron una regla: las cuentas que implican dinero se quedan en manos humanas.

Beto
Ahí tienes tu lista de "no automatizar".

Alicia
También empezaron a hacer ejercicios de codificación manual. Los desarrolladores junior tenían que escribir código desde cero a veces, solo para demostrar que aún podían hacerlo. Es el mismo principio. No puedes externalizar completamente tu competencia central o pierdes la capacidad de juzgar la calidad del trabajo.

Beto
Es interesante porque desafía toda esta narrativa del progreso. Normalmente pensamos que el progreso significa hacerlo más fácil. Pero aquí, el progreso significa mantenerlo lo suficientemente difícil como para que importe.

Alicia
Esa es la métrica de la dignidad que propone el artículo. Medimos el éxito por velocidad y precisión. Pero también deberíamos medirlo por esto: ¿el trabajador sigue sintiéndose como experto? ¿Sigue teniendo agencia? Si una herramienta te hace un 50% más rápido hoy, pero un 30% menos capaz mañana, ...

Beto
... ¿realmente has mejorado?

Alicia
¿O te has cavado de forma eficiente un hoyo del que no puedes salir?

Beto
Y esa es la pregunta. Es todo el cambio de conversación, del futuro del trabajo, al futuro de los trabajadores. Porque si el trabajador se vacía, el trabajo eventualmente colapsa también.

Alicia
Precisamente. El asfalto se agrieta y de repente te das cuenta de que estás flotando sobre agua.

Beto
Así que aquí te dejamos hoy. Queremos que pienses en tu propio flujo de trabajo. ¿Cuál es la única herramienta que usas todos los días que te facilita la vida? Y después pregúntate: ¿hay una habilidad debajo de esa conveniencia que está oxidándose lentamente y en silencio?

Alicia
Y si el servidor se cayera mañana, ¿podrías todavía hacer tu trabajo?

Beto
Un pensamiento aterrador para terminar. Gracias por acompañarnos en este análisis profundo. Mantente atento.

Beto
Cuídate.