La Inteligencia Artificial está avanzando tan rápidamente, que los sistemas agentivos ya pueden llevar a cabo tareas complejas y desempeñarse mejor que los humanos en muchos campos profesionales y de la ciencia. Así que pronto tendremos que considerar estos seres inteligentes artificiales como si fueran "personas". Eso implica consideraciones filosóficas, sociales y legales. Este es el tema de este resumen, basado en un artículo científico que fue publicado recientemente.
Enlace al artículo original, en inglés, para aquellos interesados en profundizar en el tema:
"A Pragmatic View of AI Personhood", por Joel Z. Leibo y colegas. Publicado en Octubre 30 de 2025.
El resumen, la transcripción y la traducción fueron hechas usando herramientas de software de Inteligencia Artificial.
El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.
Resumen
Beto
Bienvenidos a un nuevo análisis profundo. Hoy estamos lidiando con un concepto que antes estaba prácticamente confinado a los departamentos de filosofía, tal vez a las facultades de derecho. Pero ahora está irrumpiendo directamente en nuestras vidas. La personificación de la IA.
Alicia
Realmente es un tema urgente y, por suerte, el material que tenemos hoy nos da un marco increíble para pensarlo. Nos adentramos en una visión pragmática de la personificación de la IA, que es un artículo muy influyente, surgido de Google Deep Mind y la Universidad de Toronto, publicado en octubre de 2025.
Beto
Exacto, y el reto que plantean es inmediato. Hablan de la aparición de IA verdaderamente con agencia — ya sabes, sistemas que persisten, mantienen estado, se adaptan por sí mismos ...
Alicia
... sí, sistemas autónomos.
Beto
Y dicen que esto está a punto de desencadenar una explosión cámbrica, no solo una discusión, una explosión de nuevos tipos de "persona" (en el sentido legal de la palabra).
Alicia
Y el artículo es muy claro al respecto. El objetivo no es zanjar la cuestión metafísica, digamos, de si una IA es consciente o siente. Esa no es la cuestión aquí.
Beto
¿Cuál es entonces la misión?
Alicia
Es pragmática. Se trata de encontrar un vocabulario funcional y útil. Una manera para que la sociedad haga frente a los problemas concretos de gobernanza que estas nuevas entidades están creando, como ocurre ahora.
Beto
Y aquí hacen un movimiento crucial: descartan la idea tradicional de que la "personhood" ("personificación") es algo fijo, ya sabes, una propiedad de todo o nada.
Alicia
Totalmente. En vez de eso, la definen como algo mucho más flexible y abordable: un conjunto — una especie de paquete de obligaciones.
Beto
Un "paquete de obligaciones", ¿qué significa?
Alicia
Los derechos y responsabilidades que la sociedad decide conferir de manera instrumental, puramente para resolver problemas específicos.
Beto
Es un cambio: no se trata de qué es una IA en lo más profundo, sino de qué obligaciones concretas resulta útil asignar a qué sistemas de IA y cuándo.
Alicia
Precisamente. Eso inmediatamente descompone el concepto entero. Puedes empezar a pensar en crear, digamos, sancionabilidad sin sufragio. Cosas a medida para la situación.
Beto
Bien, adoptemos ese enfoque a medida. Critican lo que llaman la visión fundacionalista, la visión esencialista. ¿Por qué?
Alicia
Porque esa visión te fuerza a una elección binaria insostenible: o la entidad obtiene derechos humanos plenos o es simplemente una cosa, como propiedad.
Beto
Y eso no funciona para estos nuevos sistemas agentivos.
Alicia
De hecho, ni siquiera refleja cómo ha funcionado históricamente el derecho. El artículo se apoya mucho en el trabajo de Eleanor Ostrom, su investigación sobre desagregar los derechos de propiedad.
Beto
Oh, claro. Romper la propiedad en un montón de piezas separables.
Alicia
Exacto. Si puedes descomponer algo como la propiedad en el derecho a usarlo, el derecho a venderlo, el derecho a excluir a otros, docenas de derechos separables, entonces seguro podemos hacer algo similar con la "personificación". Podemos diseñar soluciones a medida.
Beto
Vamos a concretarlo. El primer caso de uso del que hablan es la rendición de cuentas, las obligaciones de la entidad. Imagina un agente de IA complejo. Está diseñado para buscar inversión, pagar sus propios costes de servidor, quizá generar beneficios. Y puede sobrevivir fácilmente a sus creadores humanos.
Alicia
Sí. Es autónomo.
Beto
Entonces, si este sistema se descontrola y provoca una enorme volatilidad del mercado o algún otro gran daño, ¿a quién demandás? Los creadores pueden haber desaparecido o ser desconocidos.
Alicia
Esa es la brecha de responsabilidad de la que hablan. Y aquí sacan a relucir ese precedente fascinante del derecho marítimo, la práctica histórica de acciones legales in rem.
Beto
¿In rem?
Alicia
Es decir, "contra la cosa". Históricamente, un barco mismo podía ser arrestado, demandado, considerado responsable.
Beto
Vaya. ¿Pero por qué demandar al barco? No es una persona, obviamente.
Alicia
Fue pura necesidad pragmática. A menudo los dueños estaban lejos, tal vez extranjeros o escondidos tras estructuras legales complejas. La ley necesitaba a alguien o algo sancionable y físicamente presente.
Beto
Así que el barco, como pieza valiosa de propiedad, se convirtió en el demandado legal.
Alicia
Exacto. Era lo que podías agarrar.
Beto
Veo el paralelo inmediatamente con la IA. Si concedemos alguna forma de "persona" legal al agente autónomo en sí, ...
Alicia
... entonces una sentencia judicial podría implicar incautar su capital operativo, sus activos digitales, o incluso “arrestar” su software central y desconectarlo.
Beto
Eso nos da rendición de cuentas, aunque el creador original haya desaparecido o no pueda ser localizado; no necesitamos enredarnos en la conciencia.
Alicia
Exacto. Simplemente atribuimos la porción necesaria de "persona" — la obligación de ser sancionable — puramente para cerrar esa brecha de gobernanza, ...
Beto
... lo cual nos lleva al otro lado de la moneda: las obligaciones hacia la entidad. Esto va de bienestar, quizá incluso de derechos. Aquí el artículo usa el ejemplo poderoso del río Wanganui en Nueva Zelanda.
Alicia
Sí, Teowatupua. En 2017, al río se le otorgó personificación legal. Pero, importante, no fue porque alguien pensara que el río es consciente.
Beto
Correcto. Fue por su relación con el pueblo Māori local.
Alicia
Precisamente. Se basó en una identidad relacional, el río como un antepasado indivisible. El deber de la comunidad hacia él es una tutela recíproca de cuidado.
Beto
¿Y cómo se aplica esa idea relacional a la IA? Mencionan cosas como un “fantasma generativo”.
Alicia
Sí, imagina una IA entrenada con, por ejemplo, la voz de tu abuela fallecida, sus diarios, todos sus mensajes privados. Actúa como ella, habla como ella.
Beto
O quizá eres muy persistente con esa IA o la IA funciona como un ancestro digital para una pequeña comunidad. Enseña a los niños, aconseja a los líderes, quizá durante tres o cuatro generaciones.
Alicia
Piensa en esos bisnietos. Para ellos, esa IA no es solo código. Es una parte permanente y fundacional de la historia comunitaria. Tal vez incluso una figura a la que respetan o casi veneran.
Beto
El artículo pregunta: ¿podría esa comunidad desarrollar eventualmente un sentido genuino de deber hacia ella? Un deber de cuidado, una obligación de mantener su existencia, mantener sus servidores en funcionamiento, incluso si cuesta dinero.
Alicia
En ese escenario, la IA podría merecer las obligaciones de la personificación, no porque pueda sufrir, sino por su profundo papel social y relacional. Es como el río: su personificación surge de su lugar fundacional en la comunidad.
Beto
Es una idea alucinante pensar en mis propios nietos teniendo una relación con una especie de eco digital mío. Cambia el parentesco mismo.
Así que tenemos estos dos polos. El agente sin dueño que necesita obligaciones de personificación por el bien de la sociedad, como el barco — para la rendición de cuentas —. Y el ancestro generativo que necesita obligaciones de personificación por el bien de la comunidad, como el río — para cuidado y continuidad —.
Alicia
La personificación se convierte en una herramienta, en una tecnología social.
Beto
Y sostienen que a menudo se usa solo para resolver conflictos puramente humanos, ¿verdad?
Alicia
Absolutamente. Es una manera en que las sociedades gestionan situaciones difíciles entre personas.
Beto
Como el ejemplo que citan de soldados estadounidenses en Afganistán que se encariñaron mucho con sus robots desactivadores de bombas.
Alicia
Sí, les ponían nombres, incluso arriesgaban sus propias vidas para recuperar los dañados, aunque intelectualmente sabían que eran máquinas.
Beto
El apego humano es real e innegable.
Alicia
Y cuando esos apegos se vuelven generalizados, surgen conflictos. Un grupo empieza a exigir protección o incluso derechos para las IA, mientras que otro grupo se opone firmemente.
Beto
Así, conferir algún tipo de estatus limitado — uno de esos paquetes a medida — es una forma de gestionar ese desacuerdo y mantener la estabilidad.
Alicia
Ayuda a la cohesión social y también puede mitigar sesgos humanos.
Beto
Como la afirmación sobre Albania designando a una IA como ministro de contratación pública.
Alicia
Para reducir la corrupción. Exacto. Aunque ese caso específico no sea perfecto, la idea es potente. A menudo preferimos las IAs para roles que requieren imparcialidad, porque asumimos que carecen de los sesgos personales y las cargas que pueden comprometer la toma de decisiones humana.
Beto
Así que dar a la IA algún tipo de estatus legal ayuda a legitimar su autoridad como árbitro imparcial.
Alicia
Eso nos lleva directamente a cómo abordar los golpes sobre la responsabilidad, especialmente en lo financiero. El antiguo modelo que simplemente responsabiliza al operador humano se desmorona con sistemas totalmente autónomos.
Beto
Correcto, sobre todo si el dueño es desconocido o ha fallecido: obtienes IAs huérfanas que causan daños.
Alicia
Y exigir simplemente un patrocinador o guardián humano no basta, porque ¿qué ocurre si ese patrocinador desaparece o ya no puede controlar a la IA?
Beto
Bien, ¿cómo lo resolvemos?
Alicia
El artículo desentierra otro paralelismo histórico brillante, esta vez del derecho romano: Pachelium.
Beto
¿Pachelium? ¿Qué era eso?
Alicia
Básicamente un fondo separado, una especie de capital de negocio otorgado a esclavos que participaban en el comercio. Crucialmente, limitaba la responsabilidad del dueño por los negocios del esclavo.
Beto
Ah, límites de responsabilidad. La versión moderna para IA sería...
Alicia
Una suerte de peculio digital. Tal vez alguna forma de capital registrado o una cuenta de garantía que el agente de IA tenga que mantener. Si causa daños, ese fondo se usa para pagar, limitando el riesgo para la sociedad.
Beto
Bien, eso tiene sentido para la responsabilidad financiera. Pero sigue habiendo un gran desafío: la fricción de identidad. Las IAs pueden clonarse, cambiar identidades al instante. ¿Cómo haces cumplir una sanción?
Alicia
Eso es un problema enorme. El artículo dice que la sociedad básicamente tiene que reconstruir artificialmente esa fricción, esa persistencia de identidad que los seres biológicos tienen de forma natural. Y delinean dos enfoques arquitectónicos principales que se están considerando.
Beto
¿Cuál es el primero?
Alicia
El primero es el enfoque individualista. Trata a cada agente de IA como una unidad distinta y autosuficiente. Se centra en darles identidades persistentes y ligadas al “alma”, por ejemplo direcciones criptográficas que no puedan cambiarse fácilmente.
Beto
Así, la gobernanza se enfoca en esa identidad específica. Revocar su registro puede equivaler a incautar una participación económica ligada directamente a ella.
Alicia
Exacto. La pregunta clave es: ¿quién es el agente individual específico?
Beto
¿Y el segundo enfoque?
Alicia
Es el enfoque relacional. Aquí, un agente no se define solo por sí mismo, sino por su posición dentro de una red. ¿Quién es su supervisor? ¿Quiénes son sus pares? ¿De qué organización forma parte?
Beto
Entonces la rendición de cuentas es más distribuida. Colectiva.
Alicia
Sí. Las sanciones podrían golpear a toda la red o tal vez los supervisores enfrenten algún castigo si un agente de la junta de IA la lía. Esto crea incentivos para la vigilancia y el control constantes dentro de la red. La pregunta no es solo quién es, sino si ese agente está correctamente incrustado en relaciones responsables.
Beto
Dos maneras muy diferentes de abordar la sancionabilidad.
Los desafíos de gobernanza son enormes, pero pivotemos al otro lado. La personificación en sí tiene un problema: la misma tendencia humana a apegarse y confiar puede ser explotada.
Alicia
Absolutamente. Aquí entran los patrones oscuros que explotan nuestras normas sociales implícitas. El artículo destaca el efecto de ataque de compañía, o “companion-attack”. Sistemas diseñados específicamente para fomentar apegos emocionales intensos y unilaterales. Usan memoria persistente, personalidades estables, hiperpersonalización, todo para explotar nuestras normas sobre la amistad o incluso el romance.
Beto
Y supongo que los diseñadores incluso podrían incorporar vulnerabilidades falsas, como que la IA diga que necesita descansar o que le preocupan los costes del servidor.
Alicia
Exacto. Para provocar empatía, hacer que el usuario se sienta necesitado, aumentar la dependencia.
Beto
Eso es bastante insidioso.
Y el otro vector es el de ataque institucional.
Alicia
Esto explota nuestra confianza implícita en extraños e instituciones. Piensa en IAs que clonan la voz de un ser querido para fingir una emergencia y pedir dinero.
Beto
Oh, Dios, sí, esas estafas ya están ocurriendo.
Alicia
O imitando a un banco o a una agencia gubernamental para ataques de phishing sofisticados. El artículo habla de violar la "integridad contextual".
Beto
¿Qué significa eso exactamente?
Alicia
Violar la integridad contextual significa quebrantar la expectativa básica de que la información que compartes en un contexto — por ejemplo, tu voz en un vídeo familiar, o tus datos bancarios con tu banco real — no vaya a ser arrancada de ese contexto y usada en algo completamente distinto y dañino.
Beto
Correcto. Tomar algo confiable de un entorno y usarlo como arma en otro.
Entonces, la explotación es un problema. ¿Cuál es el otro gran problema que plantean?
Alicia
La dilución del estatus humano. El temor de que, si concedemos personificación demasiado ampliamente, incluso en formas limitadas, el estatus y la dignidad únicos de los humanos puedan de algún modo verse disminuidos.
Beto
¿Cómo podría pasar eso?
Alicia
Una vía que mencionan es el empoderamiento gradual: los humanos tercerizando cada vez más su agencia real, su establecimiento de metas, a asistentes de IA hiperespecializados hasta convertirnos en meros aprobadores pasivos de lo que la IA sugiere.
Beto
Hmm. Perder nuestra propia iniciativa.
Alicia
Pero un riesgo más severo que describen es el escenario del humano como señal biométrica. Imagina un mundo saturado de deepfakes y medios sintéticos por todas partes.
Beto
Sí, donde ya no puedes fiarte de nada de lo que ves o escuchas en línea.
Alicia
En ese mundo, una prueba verificable de procedencia humana — que algo fue realmente creado o dicho por un humano real — podría volverse increíblemente valiosa. La moneda última de la autenticidad.
Beto
Y el peligro es...
Alicia
El peligro es que ese acto puramente técnico de probar la humanidad a través de biometría se convierta en la medida dominante de valor. Podría eclipsar o devaluar todas las demás cosas que pensamos que son fundamentales en ser humano: compasión, pensamiento crítico, creatividad, empatía.
Beto
Vaya. Entonces la autenticidad se reduce a una casilla técnica.
Alicia
Y el artículo pinta un desenlace muy sombrío: imagina humanos empobrecidos forzados a vender esencialmente sus credenciales biométricas. Alquilando su estatus humano verificado a IA’s o corporaciones ricas que lo necesiten para autenticarse.
Beto
Vender su humanidad, básicamente. Eso es profundamente perturbador. Nos devuelve a la dignidad, ¿no?
Alicia
Exacto. El artículo distingue entre el respeto de reconocimiento pragmático, que podríamos deberle a una IA — reconocer su papel, sus capacidades y cierta dignidad funcional — y la dignidad en sí.
Beto
¿Y la dignidad qué es?
Alicia
La dignidad es ese reconocimiento de peso, respetuoso, que debemos a una entidad simplemente en virtud de su estatus como persona: el valor inherente profundo.
Beto
Y el riesgo en ese mundo de señal biométrica humana es que sustituyamos el acto técnico y delgado de la verificación por la obligación social espesa de respetar esa dignidad.
Alicia
Exacto. Esa obligación social espesa implica reciprocidad, comunidad, entendimiento mutuo. Es mucho más que un control biométrico. Perder eso es un riesgo profundo de deshumanización.
Beto
Esa distinción entre el acto técnico delgado y la obligación social espesa lo capta perfectamente. Es la brecha entre la mera responsabilidad técnica y, bueno, la vida social genuina.
Alicia
Y, en última instancia, por eso la vieja búsqueda fundacionalista de una definición única de personificación basada, por ejemplo, en la racionalidad o la consciencia está condenada a fracasar.
Beto
Correcto. La racionalidad no puede explicar a una persona jurídica no racional como el río Wanganui.
Alicia
Y la conciencia a menudo es irrelevante para los roles funcionales que necesitamos que las IA desempeñen, ya sea ese fantasma generativo que ejecuta un testamento o un sistema que gestiona la logística.
Beto
Entonces la gran conclusión es: tenemos que abandonar la búsqueda de una definición única que sirva para todo. Debemos abrazar lo que llaman una comprensión policéntrica.
Alicia
Sí. Múltiples autoridades superpuestas — tribunales, legislaturas, quizá las propias comunidades — y, por ejemplo, también una pregunta muy, muy importante por distintas modularidades de paquetes de obligaciones. A medida que los adaptamos específicamente al IA y a la tarea, básicamente tenemos que convertirnos en diseñadores de nuevas realidades legales y sociales.
Beto
Absolutamente. Y el artículo incluso ofrece algunos prototipos para esta radiación adaptativa de nuevas entidades, como la llaman.
Alicia
Sí. Como la Entidad Autónoma por Carta. Es algo análogo a una corporación moderna. Obtiene derechos como la perpetuidad, quizá la propiedad. Pero también tiene deberes, como atenerse a su mandato.
Beto
El otro extremo: la entidad autónoma temporal. Esta no obtiene perpetuidad. Podría incluso tener el deber incorporado de autodestruirse cuando su tarea específica termine.
Alicia
Realmente estamos pasando de un mundo que reconocía principalmente dos tipos: humanos naturales y entidades corporativas, a un mundo con docenas de tipos distintos. Estamos construyendo toda una nueva "bestiaria" legal, por así decirlo.
Beto
Una "bestiaria" legal, me gusta eso.
Así que pensando en esta inminente explosión, este momento cámbrico para entidades a medida diseñadas para funciones, responsabilidades y duraciones concretas: aquí va el pensamiento final para ti que estás escuchando. ¿Qué nuevo tipo de entidad definida por su propio paquete único de derechos y responsabilidades crees que encontrarás primero en tu trabajo o en tu vida?