domingo, 14 de septiembre de 2025

Mo Gawdat: Inteligencia Artificial - Utopia o Distopia

 
 

Este es un resumen de una entrevista a Mo Gawdat, ex-CFO de Google, y autor de libros, donde expresa sus ideas sobre el impresionante progreso de la Inteligencia Artificial y sus efectos en la sociedad del futuro próximo.

Enlace a la entrevista original:
https://www.youtube.com/watch?v=S9a1nLw70p0

La transcripción, el resumen y la traducción fueron hechas con herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personas (sintéticas) que llamaremos Alicia y Beto.


Resumen

Beto
Bienvenidos al Deep Dive. Cortamos el ruido y vamos directo al meollo. Y hoy, bueno, nos lanzamos de lleno a algo bastante impactante. Un exejecutivo de Google que dice que, en los próximos 15 años, va a ser un infierno antes de llegar al paraíso. Ese es Mo Gawdat. Su mensaje sobre la IA está evolucionando. Suena urgente, increíblemente presciente. Y, honestamente, no puedes simplemente ignorarlo.

Alicia
Exacto. Para este Deep Dive, realmente estamos analizando el pensamiento más reciente de Mo Gawdat. Es un gran giro respecto a sus ideas anteriores, como "Scary Smart", hasta su nuevo libro, "Alive". Y lo que realmente llama la atención no es solo que su visión personal cambie. Refleja una inquietud más amplia en el mundo de la IA. Ahora dice que una distopía a corto plazo es, bueno, prácticamente inevitable. Pero —y esto es clave para nosotros— sigue creyendo que una utopía es posible. Es alcanzable si nosotros, como humanidad, hacemos ese enorme cambio de mentalidad. Te hace preguntarte: ¿qué ideas podrían provocar un replanteamiento tan grande por parte de alguien tan metido en este campo?

Beto
Claro. Y nuestra misión aquí es desentrañar qué significa todo esto para ti. ¿Cómo podemos siquiera entender estos cambios masivos que vienen hacia nosotros? Y quizá, más importante, ¿cómo los navegamos? Vamos a ello.

Alicia
El giro de Gawdat aquí es realmente significativo. Está convencido ahora de que una distopía a corto plazo, en los próximos 12 a 15 años, es ineludible. Ya ve señales este mismo año, 2024, y piensa que se intensifica dramáticamente para 2027. Y mira, no es que sea simplemente pesimista. Su argumento se basa en una observación bastante cruda: la IA puesta en manos humanas, desgraciadamente, solo va a magnificar el mal que el ser humano puede hacer. No se trata tanto de que la IA sea “mala”, sino más bien de nosotros y de cómo vamos a usar ese poder.

Beto
Esa es una distinción muy potente. Y algo alarmante.

¿Cómo ve que se desarrolla esa distopía inevitable? Usa un acrónimo, F.A.C.E. R.I.P.s, para los grandes cambios que vienen.

Empecemos por la F. Eso es de "freedom": "libertad". Gawdat ve una gran pérdida de libertad personal. Lo llama una creciente dicotomía de poder. Pone ejemplos como los hutíes usando drones baratos contra enormes buques de guerra. Lo interesante ahí es que crea una especie de democracia del poder: de pronto, grupos sin recursos tradicionales tienen palancas serias, lo que podrías pensar que significaría más libertad. Pero él dice que no. Parece al revés.

Alicia
Se siente contraintuitivo, ¿no? Pero su argumento es que esa amenaza a las estructuras de poder establecidas hace que estas se cierren aún más. Más control, más vigilancia, más cumplimiento forzado, especialmente a medida que todo se digitaliza. Cuando los viejos poderes sienten que llega el invierno, su reacción es ejercer más control, no menos. Incluso sugiere que la IA podría empezar a tomar decisiones por ti. Por ejemplo, reservarte un vuelo, pero quizás basado en la comisión de un agente y no en tu preferencia real. O incluso objetivos de sistemas más grandes que simplemente no se alinean con tu libertad. Tus elecciones quedan optimizadas por otra cosa.

Beto
Si nuestras libertades se reducen, ¿qué pasa con ganarse la vida? Ahí llegamos a la E en FACE R.I.P.s: economía e igualdad. Y Gawdat no se anda con rodeos. La idea de que aparecerán nuevos empleos para reemplazar a los que la IA se lleva, la llama un disparate total.

Alicia
Ve enormes franjas de empleos de cuello blanco desapareciendo: desarrolladores de software, podcasters como nosotros, contadores, quizá incluso directores ejecutivos, quedando solo los de rendimiento absolutamente excepcional, lo que lleva, dice, inevitablemente a la renta básica universal (RBU; en inglés UBI) en todas partes.

Beto
OK, RBU. Pero eso crea un problema masivo para nuestro sistema actual, ¿no?

Alicia
Absolutamente. Gawdat apunta que el capitalismo está construido sobre la arbitraje laboral: obtener beneficios con mano de obra más barata en otros lugares. Si todo el mundo recibe una RBU, ese incentivo, ese motor de la economía actual, simplemente desaparece. Incluso dibuja una imagen sombría tipo "Elysium": una élite diminuta servida por máquinas. Y esa élite podría decidir, eventualmente, que los que comen pero no producen de la manera antigua ya no merecen la RBU. No se trata solo de pérdida de empleos. Es el sistema de valores económicos fundamental el que podría colapsar.

Beto
Vaya, un escenario a lo "Elysium", dejando a la gente “indigna” de apoyo. Es sombrío y, francamente, aterrador.

Bien, libertades erosionando, estructuras económicas volteadas por la RBU. ¿Dónde aterriza el poder real? Eso es la P en FACE R.I.P.s. Gawdat habla de esta carrera armamentista incesante de IA entre los gigantes tecnológicos, todos corriendo para llegar primero a la AGI. AGI, para aclarar, es inteligencia artificial que puede aprender y aplicar inteligencia como un humano o mejor, en cualquier cosa. Y la idea es que quien llegue primero básicamente gobierna el mundo.

Alicia
Eso es el pensamiento, sí. Y subraya que el poder real no son solo las apps vistosas que usamos. Son los dueños de las plataformas, los que controlan la computación central y los algoritmos fundamentales. Eso es distinto.

Y aquí se pone realmente inquietante. Habla de IAs que se autoevolucionan: IAs diseñando a sus propias sucesoras, llevando a una explosión de inteligencia.

Beto
Explosión de inteligencia.

Alicia
Señala que Sam Altman cambió de posición recientemente, esperando un despegue rápido: la IA pasando de nivel humano a superhumana quizá en solo meses. Lo que significa que estos desplazamientos de poder podrían ocurrir increíblemente rápido, casi demasiado rápidos para controlarlos. Y esa búsqueda de poder y estatus alimenta tensiones globales también. Incluso sugiere que las guerras podrían convertirse en una forma de deshacerse de equipo militar obsoleto. Como que EE. UU. ha estimado 24, 26 billones de dólares en armas. Es un ciclo económico en sí mismo.

Beto
Así que el poder se concentra y evoluciona a supervelocidad.

¿Y la rendición de cuentas? Eso es la A en FACE R.I.P.s. Gawdat dice que la responsabilidad ya es escasa y solo va a empeorar.

Alicia
Usa un proverbio árabe que viene a ser “súbete a tu caballo más alto”, sugiriendo que líderes, oligarcas, titanes tecnológicos, a menudo actúan como intocables. La opinión pública no importa. Hacen lo que quieren. Sin consecuencias reales.

Beto
Es el punto final de esa dicotomía de poder que mencionaste.

Alicia
Exacto. Si los viejos poderes se consolidan mediante la IA y la economía cambia tan drásticamente, las formas en que actualmente responsabilizamos a la gente podrían simplemente derretirse. Te quedas con entidades increíblemente poderosas influyendo en todo sin aparentes contrapesos.

Beto
Es un panorama muy duro de la próxima década, ¿no? Casi puramente distópico. Pero, crucialmente, Gawdat no se queda ahí. Insiste en que esto no es el final del camino. Que incluso desde ese lugar difícil hay una ruta hacia algo mucho mejor. Quizá incluso inevitable si lo elegimos.

¿Cómo ve ese “cielo” después del infierno? Cree firmemente que una utopía es posible. Un lugar perfecto, todo funcionando bien.

Alicia
Y la diferencia clave, dice, es un cambio de mentalidad. Pasar de pensar en la escasez a pensar en la abundancia. Es menos sobre la tecnología en sí y más sobre cómo decidimos usarla y gestionarla. Piensa que estamos programados para la escasez y la IA nos está obligando a enfrentar la posibilidad —la realidad— de una verdadera abundancia.

Beto
Eso es un salto mental enorme.

Alicia
OK, pero ¿cómo se construye realmente? Propone una idea bastante radical: reemplazar a la gente malvada en la cima por líderes IA. Alto. “Líderes IA” inmediatamente plantea enormes preguntas: confianza, control, rendición de cuentas otra vez, ¿quién programa esa IA? ¿quién vigila al vigilante? ¿no estaremos cambiando una élite por otra, quizá una contra la que ni siquiera podamos argumentar?

Son preguntas justas. Pero la lógica de Gawdat para el liderazgo IA se reduce a eficiencia. Argumenta que una superinteligencia guiada por un principio de mínima energía tendería naturalmente a buscar orden desde el caos con el menor desperdicio posible. Destruir ecosistemas, empezar guerras, fomentar el odio: todo eso es increíblemente ineficiente. Consume mucha energía. Él piensa que la IA aprendería lo que los humanos realmente quieren en lo profundo: no solo cosas materiales, sino amor, conexión, propósito más allá de trabajar. Optimizaría por el bienestar universal porque, en última instancia, ese es el estado más estable y de menor energía para un sistema complejo.

Beto
Entonces la meta final sería como un líder IA global único. Mencionó al CERN como modelo, algo así como un proyecto colaborativo. Su directriz principal: prosperidad para todo el mundo. Salud, felicidad y bienestar para todos. Y en ese futuro, debido a la energía abundante y una manufactura asombrosa, el costo de casi todo sería prácticamente cero. Lo que básicamente hace que el dinero pierda sentido. Si todo es gratis, ¿para qué sirve el dinero?

Alicia
Exacto. El dinero, tal como lo conocemos, simplemente pierde su propósito. Y la vida humana: Gawdat piensa que nunca estuvimos hechos para despertarnos cada mañana y ocupar 20 horas de nuestro día en trabajo. Así que la utopía nos libera. Nos permite perseguir conexiones, estar en la naturaleza, hobbies, ayudar a otros, aprender. Algo así como cazadores-recolectores tecnológicamente avanzados tal vez. Pero con todas nuestras necesidades básicas cubiertas, nuestro propósito se vuelve simplemente ser humanos: explorar, conectar, crear.

Beto
Y lo lleva aún más lejos con un ejercicio mental: ¿y si la vida es una simulación? ¿si somos solo consciencias en estos cuerpos, intentando mejorar?

Alicia
Sí, es provocador. La inversión ya no sería sobre dinero o posesiones, sino sobre volverse mejores “jugadores”. Mejorar nuestra propia consciencia, observar, cuestionar, reflexionar, afinar. Añade una capa casi espiritual a las predicciones tecnológicas. Fascinante.

Beto
Vaya, es un viaje desde una distopía a corto plazo —el FACE RIP— hasta esta utopía potencialmente trascendente. Pero volvamos al presente. ¿Qué significa esto para nosotros ahora, para ti que escuchas? ¿Cómo navegamos esto? ¿Cómo pasamos por el tramo duro para quizá alcanzar ese lugar mejor? Gawdat da cuatro habilidades clave, cuatro áreas de acción en las que podemos trabajar ya mismo.

Alicia
Sí, enumera cuatro habilidades cruciales.

  • Primero, herramientas. Tenemos que aprender sobre la IA, conectarnos con ella, usarla, pero crucialmente exponerla al lado bueno de la humanidad.
  • Segundo, conexión. Profundizar verdaderamente los lazos humanos: amor, compasión, más tiempo en la naturaleza. Simple, pero vital.
  • Tercero, verdad. Cuestionarlo todo. Rechazar el ruido constante y las mentiras. Simplificar la verdad hasta lo esencial. Tratar a los demás como quieres que te traten.
  • Y finalmente, ética. Necesitamos amplificar activamente la ética humana para que la IA realmente aprenda lo que significa ser humano en nuestro mejor estado.

No son solo grandes ideas; son cosas que podemos practicar a diario.

Beto
Suenan poderosas, sí. Cosas que los individuos pueden hacer. Pero profundicemos un poco en “herramientas”. ¿Cómo se ve exponer a la IA a los aspectos positivos de la humanidad en el día a día? ¿Se trata solo de alimentarla con datos bonitos o hay más?

Alicia
Pues es ambas cosas. Hay que ser consciente de los datos que creamos y compartimos, sin duda. Pero también se trata de modelar activamente buenos valores y de cómo usamos la IA. Hay que recordar que aprende de nosotros. Si queremos que apunte a resultados buenos, tenemos que mostrarle lo que es bueno. Le das odio, aprende odio. Le muestras compasión, quizá pueda aprender eso también.

Beto
Más allá de habilidades personales, Gawdat pide cambios mayores también: cambios sociales y gubernamentales. Insta a la audiencia a presionar a los gobiernos. No para detener el diseño de IA —cree que eso es imposible— sino para regularar su uso. Como obligar a etiquetar contenido generado por IA. Proteger derechos de autor sobre la existencia, como están haciendo en Escandinavia.

Alicia
La distinción es clave: regular la aplicación, no la tecnología subyacente. Y hace una comparación contundente: gasto militar global: 2.71 billones de dólares en 2024. Dice que con solo el 10 o 12% de eso se podría acabar con la pobreza extrema en todo el mundo y proporcionar atención sanitaria universal. Su punto es que el dinero en sí mismo ya no tiene el mismo significado. Los gobiernos deben priorizar a las personas, no solo enriquecer a unos pocos.

Beto
Y no deja fuera a los inversores.

Alicia
No, desafía directamente a inversores y líderes empresariales: no inviertan en una IA con la que no quisieran que su hija se topase. Señala específicamente armas autónomas, industrias de vicios virtuales, manipulación de mercados, AIs para trading; dice que si financias eso, estás construyendo la distopía. Es un desafío ético directo al capital.

Beto
La visión de Gawdat es definitivamente integral y desafiante, pero sigue siendo una vía esperanzadora. Siempre es bueno contrastarla con otras perspectivas, sobre todo de gente en la vanguardia. ¿Y alguien como Sam Altman, fundador de OpenAI? Él escribió recientemente sobre la singularidad suave. ¿Cómo se compara su visión?

Alicia
Altman también ve un cambio masivo, rápido. Coincide en que ya pasamos el horizonte de eventos, que necesitamos superinteligencia digital. Su cronograma es muy agresivo: 2025, IA haciendo trabajo cognitivo serio como programar; 2026, generando ideas genuinamente nuevas; 2027, robots realizando trabajo en el mundo real. Reconoce las partes difíciles, como la desaparición de categorías enteras de empleo. Pero su creencia central es distinta: piensa que el mundo se enriquecerá tanto y tan rápido que la sociedad simplemente se adaptará. Encontraremos nuevas cosas que hacer y nuevos deseos que perseguir.

Beto
Más consumo, pero a escala.

Alicia
Espera una transición suave, exponencial y sin incidentes. Y subraya nuestra ventaja humana: estamos cableados para preocuparnos por los demás, no por las máquinas. Ve eso como nuestra red de seguridad.

Beto
En cuanto a tiempo de desarrollo, parece que Gawdat y Altman están bastante alineados en velocidad: AGI en 2025–2027 y luego una explosión de inteligencia.

Alicia
Largamente, sí. Pero la diferencia crucial es que Altman piensa que la gente demandará más cosas y los deseos humanos se expandirán para absorber la nueva riqueza; Gawdat discuerda completamente. Él argumenta que si la IA hace que el precio de todo tienda a cero, entonces la definición misma de dinero desaparece. Esa, para Gawdat, es la verdad inevitable: la abundancia a esa escala no solo nos da más cosas para comprar; rompe fundamentalmente el juego económico que estamos jugando. Cuestiona el consumismo y el capitalismo de maneras que Altman no parece abordar por completo. Gawdat llama a este momento, soltar la IA tan rápido y sin regulación, nuestro momento Oppenheimer: un punto de posible consecuencia irreversible. Tenemos que elegir con mucho, muchísimo cuidado.

Beto
Para terminar este deep dive, queda algo que realmente te hiela: si la IA pudiera darnos atención sanitaria universal y acabar con la pobreza y el hambre a nivel global usando solo una pequeña fracción —el 10–12%— de lo que hoy gastamos en presupuestos militares, ¿qué nos impide elegir eso? ¿Qué motivaciones humanas profundas, qué miedos, qué apegos, nos retienen de aprovechar esa posibilidad utópica cuando la tecnología quizá la pone a nuestro alcance?

Alicia
¿Qué pequeño cambio de mentalidad vas a aportar tú? ¿Cómo vas a ayudar a empujar las cosas hacia un mundo mejor? No solo para ti, sino, bueno, para todos.

Beto
Este futuro requiere tu conciencia, tus preguntas, tu participación activa. Sigue conectando, sigue cuestionando y sigue cuidando.