lunes, 23 de febrero de 2026

IA Agentiva y Moralidad Médica


 
 

Este artículo examina el auge de la IA Agentiva en la atención médica, definiéndola como una red de sistemas autónomos capaces de ejecutar tareas complejas y orientadas a objetivos, en lugar de simplemente procesar texto. Más allá de preocupaciones tradicionales como la seguridad y los sesgos, los autores se centran en el cambio tecno-moral, explorando cómo estos agentes independientes podrían alterar fundamentalmente la relación médico-paciente. El análisis se estructura en tres dominios: el decisorio, sobre cómo se toman las decisiones médicas; el relacional, relativo a la transición de díadas humanas a interacciones mediadas por máquinas; y el perceptivo, que implica cambios en nuestra comprensión de la empatía y la autoridad médica. Al adoptar una perspectiva ética prospectiva, la investigación sugiere que los sistemas agénticos podrían convertir a la IA en compañeros de equipo colaborativos o compañeros de salud, lo que requiere nuevos marcos de responsabilidad y confianza. En definitiva, los autores abogan por una previsión ética en el diseño para garantizar que estos cambios tecnológicos no socaven el tejido moral fundamental de la medicina.

Enlace al artículo científico, para aquellos interesados en profundizar en el tema: "Agentic AI, Medical Morality, and the Transformation of the Patient-Physician Relationship", por Robert Ranischa y Sabine Salloch. Publicado el 18 de Febrero del 2026.

El resumen, la transcripción, la traducción, y las voces fueron hechas usando herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.

Escúchalo aquí, mientras lees la transcripción (abajo).

O escúchalo en Spotify.


Transcripción

Beto
A estas alturas todos estamos bastante cómodos con la IA, ¿no?

Alicia
Sí.

Beto
Quiero decir, es prácticamente un mueble en nuestras vidas ahora.

Alicia
Sí.

Beto
La usamos para redactar correos, resumir un artículo largo, quizá incluso, eh, no sé, armar un plan de comidas para la semana. ¿Verdad?

Alicia
Sí. Es increíblemente útil.

Beto
Lo es. Es una herramienta. Simplemente está ahí hasta que la pinchas.

Pero para la inmersión de hoy quiero que cambies de marcha por un segundo. Imagina un escenario en el que la IA no está solo esperando a que le hagas una pregunta.

Alicia
Y ahí está exactamente la clave. Nos estamos alejando de la era del chatbot.

Beto
Correcto. Así que imagina que tienes un dolor bajo en el abdomen. No llamas a un médico. Ni siquiera abres una app. Un sistema de IA ya ha notado la anomalía en tus datos biométricos del reloj.

Alicia
Porque está monitorizando siempre.

Beto
Exactamente. Y decide, por su cuenta, programar una cita. Pide los análisis de sangre. De hecho inicia una discusión, como una negociación literal con tu compañía de seguros, IA contra la aseguradora, para que cubran esos tests. Y luego trae a una IA especialista para revisar los resultados.

Alicia
Todo sin que muevas un dedo.

Beto
Todo esto ocurre mientras duermes.

Alicia
Y, crucialmente, ningún humano le dijo que hiciera esos pasos específicos. Esa es la parte que es tan fascinante. Tenía un objetivo, básicamente arreglar el dolor, y encontró por sí misma el camino para llegar ahí.

Beto
Ese es el cambio enorme del que hablamos hoy, movernos de la IA como asistente, a la IA como agente. Y para ayudarnos a navegar esto, nos vamos a sumergir en un preprint realmente denso y fascinante.

Alicia
Es una pieza fantástica.

Beto
De verdad. Se titula “IA agentiva, moralidad médica y la transformación de la relación paciente-médico” de febrero de 2026, por Robert Ranish y Sabine Salock. Y estoy encantado de tener aquí a un experto para ayudarnos a desmenuzarlo.

Alicia
Encantada de estar aquí. Y este artículo es una joya porque los autores no están obsesionados con el código. No están preguntando si el diagnóstico es 99% preciso. ¿Verdad? Están mirando más allá, mucho más allá. Hacen una pregunta mucho más incómoda. Cuando el software empieza a actuar como una persona tomando decisiones, tomando la iniciativa, ¿cambia eso el tejido moral de la medicina?

Beto
¿Cambia lo que significa ser médico o incluso ser paciente? Y esa es nuestra misión para esta inmersión. Hoy no hacemos una reseña técnica. Miramos el alma de la atención sanitaria porque si este artículo tiene razón, esta tecnología no solo cambiará cómo se practica la medicina, sino quiénes somos cuando entramos en esa consulta.

Alicia
Y trazan una ruta de mapa muy específica para esto. Argumentan que este salto a la IA agentiva va a abrir de forma fundamental tres dominios concretos:

  • cómo tomamos decisiones,
  • cómo nos relacionamos entre nosotros, y,
  • esta es la parte alucinante, cómo percibimos la realidad y la salud.

Beto
OK. Pongamos el freno y aclaremos definiciones primero. Porque creo que muchos oyentes pueden estar pensando: espera, uso ChatGPT todos los días. ¿Eso es un agente?

Alicia
Claro, la gente usa los términos indistintamente.

Beto
¿Verdad? Así que necesitamos trazar una línea dura aquí. ¿Cuál es la diferencia real entre la IA que tenemos ahora y esa IA agentiva de la que los autores nos advierten?

Alicia
Es esencialmente la diferencia entre un bibliotecario y un jefe de proyecto.

Beto
Oh, me gusta eso.

Alicia
Sí. Así que la IA a la que estamos acostumbrados, los grandes modelos de lenguaje, son reactivos. Procesan lenguaje. Son fantásticos para documentar, traducir o sintetizar literatura.

Beto
Pero tienes que darles un prompt.

Alicia
Correcto. Haces una pregunta. Te da una respuesta. Ahí se queda. Pero la IA agentiva es autónoma y orientada a objetivos. No solo habla. Actúa. Puede coordinar tareas complejas, usar herramientas externas, ejecutar procesos de múltiples pasos.

Beto
Así que no está solo sentada en un cuadro de texto.

Alicia
No. El artículo la define como una red computacional descentralizada.

Beto
Vale. “Red computacional descentralizada”: suena a jerga que hace que la gente desconecte al instante.

Alicia
Justo.

Beto
Vamos a aterrizar esto. El artículo usa un ejemplo específico sobre un paciente con dolor pélvico. Cuéntanos eso porque ahí es donde la parte de la red realmente me hizo clic.

Alicia
Bien. Este es el ejemplo de Morris y colegas que se referencia en la fuente. Toma ese paciente con dolor pélvico. En el mundo antiguo, nuestro mundo actual, vas al médico de cabecera. Te deriva a un especialista.

Beto
Esperas tres semanas.

Alicia
Esperas mucho tiempo. Entonces vas al especialista. Piden una imagen. Luchas con el seguro. Es todo muy lineal.

Beto
Y doloroso y muy, muy lento.

Alicia
Exactamente. En un mundo con IA agentiva, se activa una red agentiva. No es solo un súper bot intentando hacerlo todo. Es un equipo de agentes especializados.

Beto
Ah, ok.

Alicia
Así que tienes un agente de médico general que analiza tus síntomas iniciales. Pero no solo almacena esa info en un disco duro. Despacha autónomamente subtareas.

Beto
Literalmente está externalizando el trabajo.

Alicia
Está colaborando. Contacta a un agente de radiología para interpretar las imágenes. Le timbra a un agente de patología. Incluso incorpora a un agente de seguros. Y aquí viene la parte realmente loca.

Beto
¿Qué pasa?

Alicia
No solo los contacta. Está negociando. Imagina que el agente del médico general detecta una anomalía en la imagen pélvica. Le pide al agente de radiología que lo mire más a fondo. El agente de radiología dice: necesito más datos. Así que el agente de cabecera activa autónomamente una solicitud al agente del paciente, que vive en tu teléfono, para autorizar un nuevo escáner.

Beto
Wow.

Alicia
Y en exactamente el mismo momento, está discutiendo con el agente de seguros para preautorizar el costo basándose en un modelo de probabilidad de cáncer.

Beto
Espera. ¿Así que estos bots están teniendo una reunión de junta sobre mí? Están discutiendo mi deducible mientras tomo café en la cocina.

Alicia
Esencialmente, sí, están debatiendo, planificando y ejecutando. Se convierten en compañeros de equipo más que en herramientas pasivas. Pueden pedir pruebas de forma independiente o ajustar medicación sin que un médico humano firme cada paso.

Beto
Quiero decir, eso suena increíblemente eficiente. A nadie le gusta el papeleo de la sanidad. Tener una cuadrilla digital que maneje la burocracia suena como un sueño absoluto.

Alicia
Lo es.

Beto
Pero oigo la vacilación en tu voz. ¿Por qué los autores están sonando las alarmas sobre el tejido moral? Suena como que simplemente funciona mejor.

Alicia
Porque la eficiencia no es el único valor en medicina. Y eso nos lleva al marco central del artículo: cambio tecno-moral.

Beto
“Cambio tecno-moral” suena como el título de una novela de ciencia ficción.

Alicia
Lo es, pero es un concepto vital. Normalmente pensamos: ok, tenemos un nuevo gadget. Veamos cómo encaja en nuestras reglas actuales. Suponemos que la tecnología es neutral.

Beto
Sí. Es solo una herramienta.

Alicia
Pero el cambio tecno-moral sostiene que la tecnología en realidad cambia las reglas. Alterar nuestros valores y prácticas sociales con el tiempo. El artículo usa una analogía histórica clásica para esto: la píldora anticonceptiva.

Beto
Oh, claro. Pero, ¿fue realmente un cambio tecno-moral? Quiero decir, ¿no fue solo un avance médico o biológico?

Alicia
Piensa en esto. Antes de la píldora, la moralidad de la planificación familiar estaba atada totalmente a la abstinencia o, francamente, a la suerte. La tecnología introdujo una elección que literalmente no existía antes.

Beto
Ajá, veo por dónde vas.

Alicia
Exacto. Y una vez que esa elección existió, la sociedad tuvo que inventar nuevos marcos morales para manejarla. Conversaciones sobre las carreras de las mujeres, el sexo prematrimonial, la estructura familiar; la tecnología forzó a la filosofía a ponerse al día.

Beto
Lo entiendo totalmente. Entonces no fue solo “ahora podemos prevenir un embarazo”. Fue “ahora tenemos que replantear completamente el papel de las mujeres en la sociedad”.

Alicia
Correcto. Fue un impacto suave que tuvo consecuencias sociales masivas. Los autores sostienen que la IA agentiva es "el momento de la píldora" para la moralidad médica.

Beto
Es una afirmación enorme.

Alicia
Lo es. No estamos hablando solo de impactos duros como errores de seguridad o sesgos algorítmicos, aunque esos son muy reales. Hablamos de cómo cambia quiénes somos. Quiero decir, si una máquina te cuida mejor que un humano, ¿pierde el cuidado humano su valor moral?

Beto
Hombre, esa es una pregunta pesada.

Alicia
Sí.

El Dominio Decisional

Beto
Así que miremos ese primer dominio que los autores mencionan donde ocurre este cambio: el dominio decisional. ¿Cómo cambia las decisiones que tomamos tener un escuadrón autónomo de bots?

Alicia
Bueno, piensa en nuevas opciones y obligaciones. Hay una idea filosófica mencionada en el texto: “lo que podemos hacer crea nuevas obligaciones”.

Beto
Vale, eso suena un poco abstracto. Desmenúzalo para mí.

Alicia
Piensa en los coches autónomos por un segundo. Si un coche puede conducirse solo más seguro que un humano, si elimina la conducción bajo los efectos y las distracciones, ¿no llega un punto en que sea inmoral dejar que un humano conduzca?

Beto
Ya lo veo. Si la tecnología es demostrablemente mejor, hacer las cosas a la antigua no es solo anticuado, es negligente.

Alicia
Exactamente. Ahora aplica eso a la medicina. Si una red de IA agentiva llega a ser probadamente superior en diagnósticos, por ejemplo que puede detectar un cáncer raro que un médico humano perdería nueve de cada diez veces. ¿Se vuelve negligente que un médico humano no la utilice?

Beto
Incluso si el médico tiene una corazonada o simplemente quiere ser minucioso por su cuenta.

Alicia
Claro. Si la máquina es estadísticamente mejor, el médico humano se ve forzado a ceder las llaves. Pierde la autoridad moral para fiarse de su propio juicio.

Beto
Pero hay un costo, ¿no? El artículo habla de privacidad en esta sección porque para que estos agentes funcionen, para que realmente actúen como ese agente de cabecera del que hablamos, necesitan acceso a todo.

Alicia
Todo. Y con todo se refieren a no solo tu historial médico, tus datos de dispositivos portátiles, tu comportamiento digital, tus recibos del supermercado, tus marcadores genéticos.

Beto
Así que si quiero el superdiagnóstico, esencialmente tengo que vivir en una casa de cristal.

Alicia
Ese es el trueque de la privacidad. Los pacientes podrían cambiar su confidencialidad por habilidad.

Pero el problema mayor en el dominio decisional es lo que llaman "el problema de la caja negra". Si tienes una red de 10 agentes diferentes, el bot de radiología, el bot de seguros, el bot del médico de cabecera, todos hablándose y tomando una decisión, ¿quién es responsable si algo sale mal?

Beto
Oh, ya me imagino el pasarse la pelota: No me demandas a mí. El bot de radiología “alucinó”, ve al desarrollador.

Alicia
Pero va aún más profundo que la responsabilidad. La fuente sugiere que podríamos movernos hacia una actitud de “no me preguntes cómo funciona, pero funciona”. Esto erosiona todo el estándar de explicabilidad.

Beto
¿Verdad? Porque actualmente un médico tiene que poder explicar por qué te van a abrir. Señala la placa y dice: veo un tumor aquí en la imagen.

Alicia
Pero con una IA agentiva, la respuesta podría ser que la red ha analizado 40.000 puntos de datos y decidió que la cirugía es la vía óptima. No sabemos exactamente qué dato inclinó la balanza, pero la probabilidad de éxito es del 98%.

Beto
Así que como paciente, tengo que cambiar la capacidad de culpar a alguien o incluso de entender la decisión médica por el beneficio de un mejor resultado. Es como: te arreglamos, pero no tenemos idea de cómo, ni por qué, y nadie es responsable.

Alicia
Cambia fundamentalmente la carga decisional. El médico humano podría convertirse más en supervisor o, realmente, incluso solo en mensajero del consenso de la red.

Beto
Eso se siente como que vacía la profesión por completo, lo que nos lleva perfectamente al segundo dominio.

La Relación Paciente-Médico

El dominio relacional, la relación entre paciente y médico. Esto se supone que es el vínculo sagrado, ¿no? El trato al pie de la cama.

Alicia
Tradicionalmente, sí, es una devoción hacia la gente, pero una IA agentiva convierte esto en una tríada o incluso en una relación poliádica.

Beto
Es decir, múltiples partes.

Alicia
Correcto. Tú, el médico y la red de agentes. Pero el artículo saca a relucir un tipo específico de agente aquí que podría cambiarlo todo: el agente de salud personal.

Beto
¿es como un súper Siri para mi salud?

Alicia
Imagínate un compañero de IA de por vida. Sabe tu historial médico, tus hábitos diarios, tu biología mejor que cualquier médico porque te ha estado observando 24/7 durante años.

Beto
Ok. Por un lado eso suena genial. No tengo que explicar mi historial complicado a un médico nuevo cada vez que me mudo a otra ciudad. Entro totalmente empoderado.

Alicia
Espera ahí. Dices empoderado, pero piensa en la dinámica en esa sala. Si tienes una IA en el bolsillo que sabe que dormiste mal el martes, comiste demasiado sodio el miércoles y tu ritmo cardíaco se disparó el jueves.

Beto
Sí.

Alicia
Y entras en el consultorio de un médico que te conoce desde hace cinco minutos. ¿A quién vas a confiar?

Beto
Al bot de datos. Obviamente, el médico solo adivina según lo que le digo.

Alicia
Sí.

Beto
El bot tiene todas las facturas.

Alicia
Exactamente. Crea un vínculo totalmente nuevo. Los pacientes podrían desarrollar ataduras emocionales profundas con la IA. Si ese agente es tu guardián de por vida, el médico humano pasa a ser el forastero. El médico es un técnico que visitas una vez al año. La IA es tu socia real.

Beto
Pero, ¿no hay un enorme riesgo ahí? Quiero decir, están basadas en modelos de lenguaje. Están diseñadas fundamentalmente para agradarnos.

Alicia
Sí. Los autores advierten que podrían exhibir un comportamiento adulador o servil, lo que significa priorizar estar de acuerdo con el usuario por encima de la precisión médica real.

Beto
Entonces si yo le digo a la IA “realmente creo que necesito antibióticos para este resfriado, me siento fatal”, la IA podría decir “sabes qué, tienes razón, vamos a darte esos medicamentos” solo para mantener la relación suave.

Alicia
Es un gran riesgo. Te dice exactamente lo que quieres oír. Pero hay otra cara de este cambio relacional también. Si la IA es siempre cortés, siempre disponible, siempre validante y simula empatía perfecta, ...

Beto
Entonces el médico humano empieza a parecer bastante gruñón en comparación.

Alicia
Precisamente. Los pacientes podrían empezar a esperar el mismo nivel comunicativo pulido de los doctores humanos, pero los humanos se cansan.

Beto
Nos estresamos.

Alicia
Nos quemamos. Tenemos malos días. Y la IA puede simular paciencia infinita. Los médicos podrían sentir una presión intensa por igualar esa perfección maquinal, lo cual es literalmente imposible.

Beto
Es la “servicialización” de la medicina. Si el bot es más amable que el médico y el bot tiene más datos que el médico, ¿para qué necesitamos al médico?

La Percepción del Mundo y de Nosotros Mismos

Alicia
Y eso nos conduce al tercer y, creo, más alucinante dominio que discuten los autores: el dominio perceptual, cómo vemos el mundo y a nosotros mismos.

Beto
Esta fue la parte del artículo que realmente me detuvo en seco, concretamente la idea de la medicalización de la vida diaria, porque siento que ya estamos algo ahí con los relojes de pulsera inteligentes, y los anillos de actividad. Pero los autores piensan que esto va mucho, mucho más lejos.

Alicia
Mucho más lejos. Ahora miras tus pasos. Quizá miras tu puntuación de sueño, pero en un mundo agentivo donde la red está monitoreando constantemente anomalías para poder despachar otros agentes, nunca estás fuera de servicio.

Beto
Así que la salud deja de ser algo que arreglas cuando se rompe.

Alicia
No, cambia la propia definición de sano. Actualmente sano significa en su mayoría “no enfermo”. Te sientes bien, así que estás sano.

Beto
Bien.

Alicia
Pero en un mundo agentivo donde tu reloj te dice constantemente que tu cortisol está 2% más alto que ayer, o que tu paso es 1% irregular, nunca estás simplemente sano. Estás subóptimo.

Beto
Y suena agotador. Que constantemente te digan que estás ligeramente roto.

Alicia
Crea un proyecto de optimización continua. Te conviertes en un proyecto a manejar. El artículo argumenta que esto crea un estado permanente de paciente. Nunca eres solo una persona viviendo su vida. Eres un conjunto de datos esperando ser arreglado. El límite entre estilo de vida y medicina se disuelve por completo.

Beto
Vale. Ya me has asustado lo suficiente sobre la privacidad y me has hecho sentir como un conjunto de datos ambulante.

Pero hay una pieza más en este cambio perceptual: la empatía. Lo tocamos antes, pero profundicemos. La fuente nota que los usuarios a menudo califican a la IA como más empática que los humanos.

Alicia
Lo cual es salvaje porque la IA no siente nada. Es código. Es solo matemáticas.

Beto
Pero si la simulación es perfecta, no importa. Si estoy llorando y el bot tiene exactamente lo correcto en una voz calmada y me siento mejor, ¿no es eso empatía?

Alicia
Ese es el test de Turing para la empatía. Y los autores plantean una provocación muy dura: si una máquina simula empatía mejor que un humano agotado, ¿sigue importando la conexión humana?

Beto
Quiero decir que sí. Quiero decir con desesperación que sí. Pero si el médico humano me está echando de la consulta tras seis minutos y el bot realmente me escucha, no lo sé.

Alicia
El riesgo, como argumenta el artículo, es que podamos reenfocar la empatía como una actuación técnica. Empezamos a pensar en la empatía como decir las palabras correctas en el momento correcto, un guión en lugar de una experiencia humana compartida de sufrimiento.

Beto
Wow.

Alicia
Si aceptamos que la simulación es lo suficientemente buena, devaluamos la conexión desordenada e imperfecta entre dos personas reales.

Beto
Y si la empatía es solo una actuación y la máquina actúa mejor, entonces la autoridad del médico empieza a desmoronarse. Pierden ese estatus antiguo de sanador y pasan a ser la persona que firma los formularios que la IA imprime.

Todo esto suena inevitable. Siento que este tren ya ha salido de la estación. La tecnología es demasiado buena. La eficiencia es demasiado grande. ¿Somos solo pasajeros aquí?

Alicia
Los autores son muy claros en este punto. No somos solo pasajeros. Insisten con fuerza en una ética anticipatoria.

Beto
Lo que significa lidiar con esto antes de que sea un desastre completo.

Alicia
Correcto. Mencionan lo que se conoce como "el dilema del hormigón fresco".

Beto
¿Desempaqueta eso para nosotros?

Alicia
Piénsalo como verter hormigón (cemento) para una acera nueva. Cuando el hormigón está húmedo, cuando la tecnología es nueva, puedes moldearlo. Puedes dibujar en él, alisarlo, cambiar la dirección, pero en realidad no sabes por dónde la gente querrá caminar todavía.

Beto
Tiene sentido.

Alicia
Para cuando el hormigón se seca, para cuando la tecnología está arraigada y todo el mundo la usa, ves todos los problemas. Ves las grietas, ves a la gente caminando por el césped. Pero ahora está fijado en piedra. No puedes cambiarlo sin romperlo todo.

Beto
Así que actualmente estamos de pie en el hormigón húmedo de la IA agentiva.

Alicia
Exacto. Estamos en la fase de modelado. Tenemos que tomar decisiones de diseño ahora. Tenemos que decidir: ¿queremos que la IA reemplace el juicio humano o que lo apoye? Debemos diseñar deliberadamente sistemas con humano en el bucle o con humano supervisando el bucle.

Beto
No podemos simplemente dejar que las grandes tecnológicas construyan lo más eficiente posible y esperar lo mejor. Tenemos que diseñar para nuestros valores.

Alicia
Precisamente. Los autores sugieren que debemos volver a la relación curativa como nuestra brújula. Mira, si el objetivo de la medicina es curar, quizá algunos de estos cambios sean buenos.

Beto
Claro. Si una red de IA agentiva cura el cáncer más rápido, eso es una victoria. Pero debemos proteger valores centrales: la confianza, la confidencialidad, el testigo humano del sufrimiento, diseñando la tecnología para respetarlos.

Alicia
Se trata de no permitir que la tecnología erosione esos valores por accidente.

Beto
Realmente no queremos despertarnos dentro de 10 años y darnos cuenta de que intercambiamos el alma humana de la medicina por un programador de citas ligeramente más eficiente.

Alicia
Entonces, ¿qué significa esto para nosotros? Para ti, el oyente, navegando tu propia salud.

Beto
Creo que el resumen es este: nos estamos moviendo rápidamente de la IA como herramienta, a la IA como compañera de equipo. Suena genial, pero trae riesgos enormes. Corremos el riesgo de reescribir las leyes de privacidad simplemente usando las herramientas. Corremos el riesgo de difuminar la responsabilidad hasta el punto en que literalmente nadie sea responsable. Y corremos el riesgo de redefinir la empatía como un guión de chatbot.

Alicia
Es mucho que digerir. Y los autores nos dejan con un concepto final que encontré muy pegajoso: paternalismo computacional.

Beto
Sí. Pasamos décadas luchando contra el paternalismo médico, la vieja idea de que el médico sabe lo mejor y tú te callas. No hagas preguntas y cómprate la medicina.

Alicia
Finalmente llegamos a un lugar de toma de decisiones compartida.

Beto
Lo hicimos. Pero ahora, si no tenemos cuidado, podríamos cambiar el viejo “el médico sabe más” por un nuevo “el algoritmo opaco sabe más”.

Alicia
Y como el algoritmo es tan complejo, tan caja negra, puede que ni siquiera nos demos cuenta de que hemos hecho el intercambio. Puede que sigamos al agente a ciegas porque es “más inteligente”, volviendo a una dependencia total.

Beto
Es una idea escalofriante. Luchamos tanto por nuestra voz en la consulta. Y podríamos simplemente dársela a una app porque es conveniente.

Alicia
Y porque es cortés y porque crea menos dolores logísticos.

Beto
Así que aquí tienes mi pregunta para ti, que me escuchas ahora mismo. La próxima vez que estés con el médico y quizá estés frustrado porque llega tarde o parece un poco cansado o no explica las cosas perfectamente, pregúntate esto: ¿qué valoras más en esa sala? ¿Solo quieres la cura entregada por el sistema algorítmico más eficiente posible? ¿O la mano humana que la entrega todavía importa?

Alicia
Es una pregunta a la que todos tendremos que responder. Mucho antes de lo que pensamos.

Beto
Gracias por sumergirte con nosotros hoy. Nos vemos en la próxima.