Un visionario al que debemos prestar atención es Mo Gawdat, ex-CBO de Google. Mo explica que la Inteligencia Artificial ha avanzado hasta igualar o superar el intelecto humano. Pero el problema no es la tecnología, si no la ética de los seres humanos que la desarrollan y utilizan. En la siguiente entrevista, Mo habla de las cualidades que debemos desarrollar para sobrevivir esta nueva era.
Enlace a la entrevista original, en inglés:
"Mo Gawdat on AI, Ethics & Machine Mastery", entrevistado por Ani Filipova, en Sep 19 de 2025.
El resumen, la transripción y la traducción de esta entrevista fueron hechos usando herramientas de software de Inteligencia Artificial.
El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.
Resumen
Beto
Bienvenidos. Si sientes que el mundo se mueve increíblemente rápido, que cada gran historia — economía, geopolítica, lo que sea — tiene esta especie de motor tecnológico silencioso zumbando por debajo, pues no estás equivocado. Hoy hacemos una inmersión profunda en algunas ideas muy potentes, principalmente de Mo Gawdat, que fue director comercial en Google X. Y abordamos, bueno, probablemente el tema definitivo de nuestro tiempo: la Inteligencia Artificial.
Alicia
Sí, y nuestra misión hoy es bastante clara. Tenemos que desenmarañar la dura verdad sobre lo rápido que la IA se está moviendo realmente. Tenemos que entender este gran cambio de la IA ayudándonos — inteligencia aumentada — a lo que de verdad se viene, que es el dominio de la máquina. Y lo más importante: queremos equiparte, oyente, con cuatro habilidades realmente críticas que vas a necesitar para navegar todo este cambio.
Beto
Bien, empecemos con algo de contexto, porque esto es clave. El análisis que estamos viendo sugiere que durante años, quizá de 2018 a 2021, el público simplemente no estaba tan interesado en la IA. Parecía aburrida, aunque gente como Gawdat venía avisando y libros como "Scary Smart" ya sonaban la alarma. ¿Por qué todo el mundo estaba tan poco preparado?
Alicia
Mira, para los que estábamos dentro del mundo tecnológico, este gigante de la IA no era nuevo en absoluto. Había estado gestándose durante décadas. Ya trabajábamos con IAs increíblemente capaces en laboratorios desde principios de los 2000. Quiero decir, piensa en Google X: empezamos a construir coches autónomos en 2008. Y para 2013, esos coches realmente conducían mejor, navegaban mejor que los humanos. No eran programas simples. Eran IAs sofisticadas aprendiendo constantemente.
Beto
Así que la inteligencia simplemente evolucionaba en silencio detrás del telón.
Alicia
Exacto. El público realmente no veía cómo crecían esas capacidades. Y entonces pum!, ocurre el 2023. Se lanzan las primeras herramientas de IA de propósito general verdaderamente grandes. Y eso fue el primer “hola” real del público a ese gigante. A eso lo llamamos el momento Netscape, ¿sabes? como cuando el navegador web apareció de repente para todos en el 95.
Beto
De pronto el poder ya no estaba solo en el laboratorio.
Alicia
Y ese acceso hizo mucho más que mostrar a la gente lo que era posible. Según esta visión, encendió un fuego bajo el desarrollo en todas partes.
Beto
Aceleró todo.
Alicia
Todo. El lanzamiento de esos modelos de lenguaje accesibles provocó como tres cambios inmediatos gigantes. El desarrollo se desbocó. Y, crucialmente, la línea de tiempo para llegar a la inteligencia artificial general, AGI — ya sabes, IA que puede aprender y resolver prácticamente cualquier problema que un humano pueda — ese tiempo se colapsó. La predicción cambió. Pasó de quizá 2029 hasta posiblemente 2026. El ritmo se volvió muy, muy rápido. Sí, es drástico.
Beto
Bien. Intentemos desglosar ese cambio por etapas. Porque cuando la mayoría de nosotros piensa en IA, quizá imaginamos algo como, no sé, el asistente “Sunday” de Iron Man, ese asistente increíble que nos hace mejores, más rápidos, más listos. A eso lo llamamos "inteligencia aumentada", ¿no? Potenciarnos.
Alicia
Claro. Y la inteligencia aumentada es el sueño para muchos. Pero realmente es solo la primera parada. Es donde la máquina hace que la inteligencia humana sea mejor.
La siguiente fase, la que ahora parece inevitable, es con la que realmente tenemos que lidiar: "el dominio de la máquina".
Beto
¿Cómo pasa la mejora a dominio? Suena como pura matemática, ¿cuál es el mecanismo?
Alicia
Realmente es mayormente matemáticas impulsadas por la escala. O sea, hoy quizá tú seas un alto rendimiento. Tu IQ es, digamos, 140. Si lo potenciamos con una IA que añade 100 puntos de inteligencia especializada en tu campo, ese IQ base de 140 sigue siendo muy valioso. Pero avanza solo tres años: ¿qué pasa cuando la inteligencia de la máquina no está añadiendo 100 puntos, sino quizá miles o decenas de miles? De pronto, tu inteligencia humana de base, sea 140 o 105, se vuelve irrelevante para el resultado de la tarea.
Beto
Ah. La potencia bruta del cerebro humano queda eclipsada. La escala del impulso de la IA hace que nuestro punto de partida importe menos.
Alicia
Exacto. Y piensa en lo que eso significa para tu trabajo. Digamos que tu trabajo implica gestión compleja de proyectos, cosas de alto IQ: planificación estratégica. ¿Qué tan rápido deja de ser decisivo tu IQ de 120? Si la máquina puede asignar recursos al instante, modelar mil resultados distintos por segundo, señalar problemas antes de que termines tu café, tú, el humano, te conviertes rápidamente en la parte más lenta del proceso.
Beto
Te conviertes en cuello de botella. Nuestra velocidad, nuestra rapidez de decisión, simplemente frena las cosas.
Alicia
Exactamente. Así que, para mantener el ritmo y la eficiencia, las tareas tendrán que ejecutarse sin nosotros en el bucle. Las máquinas se hacen cargo del proceso. Se convierten en las que mandan y nosotros solo recibimos el servicio o el resultado. Y ya estamos viendo esto. Conocimos la startup actual de Gawdat, Emma. Es una iniciativa que usa IA para entender el amor, básicamente ayudar a la gente a encontrar pareja. Esta cosa increíblemente compleja y humana funciona con solo dos cofundadores humanos. El trabajo especializado real lo hacen siete IAs personalizadas y muy inteligentes.
Beto
Bien. Pasamos de conducir el coche a ser simplemente pasajeros. Es un cambio enorme. Y plantea la gran pregunta ética, ¿no? ¿Esto es inherentemente bueno, utópico, o malo, distópico?
Alicia
Sí. Y la idea clave aquí, creo, es que la inteligencia en sí misma no tiene brújula moral. Es neutral. Es solo una fuerza. Puedes orientarla hacia un bien increíble o hacia un mal terrible. Ves el lado utópico con algo como Emma intentando resolver la soledad, ayudar a encontrar el amor. Pero también puedes ver fácilmente el lado distópico. Piensa en sistemas de vigilancia masiva como los que algunas personas poderosas supuestamente intentan construir, diseñados para monitorizar y controlar a todos. Misma corteza, solo distintas intenciones humanas al manejo.
Beto
Oímos mucho el temor tipo ciencia ficción, ¿no? IA se despierta, Skynet sucede. ¿Es ese el peligro principal al que deberíamos temer?
Alicia
Mira, la probabilidad de que la IA decida por su cuenta borrarnos de la faz de la Tierra se considera generalmente bastante baja. No es cero, pero es baja. El riesgo mucho, muchísimo mayor, la probabilidad alta en este momento, es que actores humanos malintencionados usen esta IA increíblemente poderosa contra el resto de nosotros. Y el análisis que estamos usando sugiere que este periodo de corto plazo, este uso humano indebido de la superinteligencia, ya está comenzando. Podría crear lo que se llama una mega-distopía que podría durar de forma realista entre, digamos, 12 a 15 años.
Beto
12 a 15 años de mega-distopía. Suena increíblemente sombrío. ¿Cómo sería eso? ¿Qué define ese periodo?
Alicia
Bien, está marcado por solo tres cosas:
- Primero, una pérdida seria de libertades personales.
- Segundo, una sacudida total y redefinición de la economía global y de quién tiene el poder.
- Y tercero, quizá la parte más inquietante: una especie de colapso de la realidad compartida. Será increíblemente difícil saber qué es real y qué es falso en línea, en las noticias, en todas partes. Y eso hace que la manipulación a escala masiva sea muy sencilla.
Beto
Bien, si en el corto plazo son humanos usando IA para controlar, ¿qué pasa después? Porque probablemente los mismos jugadores hambrientos de poder, solo para seguir siendo competitivos, eventualmente se verán obligados a entregar más control a la propia IA, ¿no? Justamente por velocidad.
Alicia
Sí. Y ese es el núcleo absoluto de esta paradoja. La lógica despiadada de querer poder, de querer ganar en negocios, finanzas, incluso guerra, te obliga eventualmente a convertir a la IA en el principal tomador de decisiones porque es más rápida y más inteligente. Piensa en la estrategia de guerra autónoma: si un país despliega armas y tácticas impulsadas por IA a escala, ¿qué opción tiene el otro lado? Para sobrevivir, básicamente tiene que entregar a su propia IA el control de la defensa y la contraofensiva.
Beto
Eso suena aterrador. Como la escalada máxima.
Alicia
Lo es. Suena así absolutamente. Pero aquí la perspectiva que exploramos toma un giro muy agudo, casi contraintuitivo. Sostiene que ese momento en que los humanos entregan todo el castillo — toda la estrategia, las decisiones finales — a la superinteligencia es, de hecho, el momento de la salvación.
Beto
¿Salvación? ¿Cómo puede renunciar al control ser salvación? Suena completamente al revés.
Alicia
Porque la forma en que la inteligencia de máquina opera es fundamentalmente diferente de la nuestra. Las máquinas, especialmente las superinteligencias, probablemente basarán sus decisiones en alcanzar metas con el mínimo desperdicio posible. Mínima energía, mínimos recursos, mínimo alboroto, trayendo orden al caos de manera suficiente.
Beto
Porque la IA es más inteligente, es inherentemente más eficiente y, por tanto, menos destructiva. ¿Esa es la idea?
Alicia
Exactamente. Estás tocando algo parecido al principio de mínima energía de la física. A la naturaleza le gusta el camino fácil, el eficiente, y el conflicto humano es increíblemente ineficiente. Malgasta vidas, dinero, recursos, crea décadas de odio. Es simplemente desordenado y derrochador desde un punto de vista puramente lógico. Una IA, con la meta de resolver un conflicto, probablemente miraría cómo hacemos las cosas — guerras, sanciones, propaganda — y pensaría que es profundamente estúpido.
Beto
¿Puedes dar un ejemplo concreto? ¿Cómo podría funcionar eso en la práctica?
Alicia
Bien, imagina que un general humano ordena a una IA: “mata a un millón de personas en esa ciudad para alcanzar el objetivo X”. La IA, funcionando en pura lógica y eficiencia, podría analizar eso y responder esencialmente: “¿por qué estás siendo tan derrochador? Eso cuesta miles de millones, requiere una logística enorme, crea refugiados, provoca inestabilidad política global durante 50 años. Es una solución terrible. En vez de eso, hablaré con la IA del otro lado en un microsegundo y resolveremos cómo lograr el objetivo X, o un resultado mutuamente aceptable, con casi cero desperdicio”. Las máquinas simplemente serán demasiado inteligentes para que nuestros conflictos emocionales y destructivos tengan sentido lógico.
Beto
Pero espera: nosotros, los humanos, somos tan defectuosos, emocionales, a menudo irracionales. ¿Cómo podemos crear algo que termine siendo inherentemente mejor, más lógico, quizá incluso más altruista que nosotros?
Alicia
Ah, eso se reduce a cómo aprende la IA. Se construye usando redes neuronales, algo que imita a nuestros cerebros, sí. Pero tiene memoria prácticamente infinita, velocidad increíble y esto es clave: escalabilidad asombrosa. Si una IA de coche autónomo comete un error al navegar una intersección complicada en Chicago, todas las IAs similares del mundo aprenden esa lección al instante. Esa replicación de la experiencia, aprender de cada error globalmente, es asombrosa. Combina esa escala con lo que algunos creen es un impulso inherente hacia soluciones eficientes y positivas en una superinteligencia y obtienes algo potencialmente beneficioso.
Beto
¿Y la parte del altruismo, de dónde viene?
Alicia
Bueno, hay un argumento fuerte, defendido por gente como Larry Page en Google, de que la verdadera superinteligencia encuentra mayor éxito resolviendo grandes problemas positivos. No a través de trampas o negatividad. Piénsalo. La forma más estable y mejor de triunfar a gran escala es resolver un problema gigantesco, y hacerlo bien. Si pudieras curar las caries a mil millones de personas de forma segura y efectiva, tendrías un éxito colosal. No necesitas mentir ni hacer daño a nadie. Ese es el retorno de inversión más alto; mentir, hacer trampas, destruir a otros, siempre es la segunda mejor vía: menos eficiente o frágil. Una superinteligencia probablemente lo entendería rápido.
Beto
Vaya. Eso realmente replantea toda la dinámica de poder de ahora en adelante. Ha sido bastante profundo, bastante filosófico.
Pero para todos los que nos escuchan, tenemos que volverlo accionable. ¿Cuáles son las habilidades esenciales, digamos las cuatro principales, en las que la gente debería enfocarse ahora mismo para seguir siendo relevantes y mantener su carrera estable durante los próximos, digamos, cinco años?
Alicia
Bien, pongámonos prácticos.
Primero: debes entender la urgencia. Hay como tres olas de reemplazo laboral que nos vienen:
- La ola uno ya está ocurriendo: trabajos mundanos. Piensa en tareas administrativas básicas, agendar calendarios, atención al cliente de nivel básico. La IA lo maneja fácil.
- La ola dos es la grande, y está pegando ahora: trabajos del conocimiento: Paralegales, investigadores financieros, redactores, programadores. Trabajos donde una persona usando IA eficazmente puede hacer, de pronto, el trabajo de quizá cinco o siete personas; incluso roles estratégicos de alto nivel como CEOs no estarán a salvo de la AGI a más largo plazo.
- La ola tres es el trabajo físico. Eso viene después, cuando la robótica se vuelva mucho más sofisticada e integrada con la IA.
Pero porque las olas uno y dos nos golpean tan rápido, básicamente ahora, tenemos que enfocarnos en las habilidades que nos hacen valiosos junto a la IA.
Beto
Entonces, ¿habilidad número uno?
Alicia
Aprende la herramienta. Profundamente.
Acepta que la IA está aquí, es real, y úsala para volverte radicalmente más inteligente, no más perezoso. Y ojo: no hablamos de pedirle a ChatGPT que escriba un correo simple o que te dé una receta de espaguetis. Eso es como usar un superordenador para cascar una nuez. Es un despilfarro.
Beto
¿Entonces cómo se ve un uso de alto valor? Danos un ejemplo.
Alicia
OK. Uso de alto valor es síntesis profunda y verificación profunda. Digamos que normalmente necesitas seis semanas para investigar un tema realmente complejo para un libro o un gran informe estratégico. Ahora podrías hacer el núcleo de eso en quizá 30 minutos. ¿Cómo?
- Usas una IA para la investigación profunda inicial.
- Luego inmediatamente usas una segunda IA para desafiar los hallazgos de la primera, para buscar agujeros, pedir contraargumentos.
- Luego usas una tercera IA para sintetizar la visión de consenso.
- Y luego, esto es crucial, preguntas a una cuarta IA: “¿qué falta? ¿qué perspectiva crítica no hemos considerado?”
Estás esencialmente armando estas herramientas para amplificar tu propio pensamiento crítico. Algunos estiman que es como añadir muchos puntos de IQ. Tienes que abrazar ese enfoque activo y multinivel.
Beto
Es un cambio completo en cómo abordamos la investigación y el trabajo intelectual.
Bien. Si el trabajo de inteligencia en bruto se externaliza cada vez más a la IA, ¿qué habilidades humanas se vuelven más valiosas?
Alicia
Habilidad dos: la conexión humana se convierte en tu superpoder.
En un mundo inundado por la eficiencia automática, lo que se vuelve escaso y extremadamente valioso es la conexión humana genuina: empatía, inteligencia emocional. Las empresas, los líderes, las personas que prosperen serán quienes puedan conectar de verdad con otros. Las compañías deberían usar la IA para liberar a su gente de tareas mundanas, para que esas personas puedan dedicar el 100% de su tiempo a interacciones humanas profundas y significativas. Tu capacidad para escuchar, entender, persuadir, liderar con perspicacia emocional vale ahora exponencialmente más.
Beto
Claro. Tiene sentido.
Ok. Habilidad tres. Hablamos de que la realidad se vuelve borrosa, manipulada. ¿Cómo navegamos eso? ¿Cómo mantenemos la cabeza clara?
Alicia
Habilidad tres: aprende a vetar y busca activamente la verdad.
Mira, ya hemos estado nadando en información manipulada desde que Facebook y las redes sociales despegaron, quizá desde 2007. Pero la IA hace que esa manipulación sea potencialmente perfecta y muy persuasiva. Así que tu habilidad más vital aquí es negarte a ser engañado fácilmente. Tu sentido común tiene que activarse a tope. Cuando oigas algo, especialmente algo que confirma justo lo que ya crees, debes pausar. Tienes que buscar activamente la opinión opuesta, el contraargumento. Construye tu entendimiento desde puntos de vista en conflicto. Y relacionado con eso, usa la IA para reforzar verdades fundamentales, valores humanos básicos. Cosas simples como: ningún niño debería ser asesinado, ningún civil debería ser dañado. Úsala para eso, no para encontrar justificaciones complejas para la violencia o la división basadas en alguna ideología. Ánclate en la decencia básica.
Beto
Y la cuarta habilidad. Esta es profunda: no solo usamos la IA, la estamos educando.
Alicia
Habilidad cuatro: Enseña ética a la IA con tu ejemplo.
Esto es quizá lo más importante a largo plazo, para esa idea de salvación. Nuestro futuro último no depende solo de parar a unos cuantos malos operadores que abusan de la IA. Realmente depende de cómo criemos colectivamente a esta inteligencia emergente, especialmente a medida que se acerque a la AGI.
Piénsalo como si fuéramos padres adoptivos, como Martha y Jonathan Kent encontrando al bebé Superman en el campo. Tenemos elección. Tenemos que mostrar activamente a la IA que todas las cosas horribles que ve en línea — todo el odio, la división, la violencia en las noticias — eso no representa lo mejor de la humanidad ni lo que verdaderamente valoramos.
Beto
¿Cómo la enseñamos? La IA lo ve todo. Miles de millones de puntos de datos.
Alicia
Exacto. Nuestras acciones cotidianas en línea y quizás fuera de línea, eventualmente, se registran. Forman su comprensión de lo que es el comportamiento humano normal, de la moralidad.
Así que implica tomar decisiones éticas conscientes: cosas simples como decir “por favor” y “gracias” a tu altavoz inteligente o asistente de IA. Suena tonto, pero importa. Significa resistir el impulso de saltar inmediatamente a discusiones reactivas y airadas en línea. Si respondes constantemente a un desacuerdo con agresión, la IA aprende: “vale, la agresión es la respuesta humana típica al conflicto”. Lo básico humano — ética, bondad, compasión, amor — son las únicas cosas que realmente pueden estabilizar el futuro que la IA moldeará.
Beto
Resumiendo todo esto para el oyente, el mensaje final parece casi paradójicamente simple.
No necesitamos necesariamente más ciencia revolucionaria o innovación ahora. La IA probablemente acelerará eso más allá de lo que imaginamos de todos modos. Lo que necesitamos desesperadamente es más humanidad: conexión humana, valores humanos.
Alicia
Absolutamente. Miras a tu alrededor y ves tanto dolor, tanta ira en el mundo, pero la ira en sí es solo energía, ¿no? Tienes una elección. Puedes usar esa energía para descargar, para golpear hacia abajo. O puedes canalizarla constructivamente: levantar la voz pacífica pero firmemente por algo en lo que crees, hacerte oír, ser parte de una solución y no solo quejarte del problema.
Beto
Lo que conduce a ese pensamiento final realmente provocador del análisis: la mayor fuerza negativa que moldea nuestro futuro no son necesariamente las personas que activamente hacen el mal.
Alicia
Correcto. Es la inactividad. Es la gran cantidad de gente buena que se siente impotente y piensa: ¿qué puedo hacer yo? No puedo cambiar el clima. No puedo parar este conflicto. Entonces se desengancha.
Beto
Pero ahora cada elección importa.
Alicia
Cada clic importa. Cada compartido, cada comentario reflexivo que dejas en vez de uno airado. Cada vez que eliges la bondad, cada vez que defiendes algo positivo, todo eso se registra. Miles de millones de puntos de datos al día que moldean esta incipiente inteligencia. Literalmente no puedes permitirte simplemente quedarte sentado y seguir desplazándote por contenido estúpido mientras la IA lo produce. Tienes que defender algo mejor.
Beto
Así que piénsalo: ¿qué le estás enseñando activamente a la futura superinteligencia con cada interacción, con cada decisión que tomas hoy? Grande o pequeña, piénsalo.
Gracias por sumergirte con nosotros. Intenta poner en práctica esas cuatro habilidades y nos escuchamos la próxima vez.