miércoles, 3 de diciembre de 2025

Mo Gawdat: La amenaza de la supremacía de la IA

 
 

Hoy les traigo el resumen de otra entrevista reciente a Mo Gawdat, ex-CBO de Google X. Mo expresa qué tan rápidamente se está desarrollando la Inteligencia Artificial (IA) y piensa que ya está más allá del control humano.

Enlace a la entrevista: "Mo Gawdat: The Terrifying Truth about AI". Mo Gawdat es entrevistado por Hala Taha en su reciente viaje a Egipto para dar una conferencia.

El resumen, la transcripción, y la traducción fueron hechas usando herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.


Resumen

Beto
Bienvenidos a esta inmersión profunda. Hoy estamos echándole una mirada muy intensa a la inteligencia artificial, pero no a algún futuro teórico lejano: hablamos de una inteligencia que se desarrolla por sí misma y que ya está remodelando toda nuestra sociedad. Y nuestro enfoque es entender esto desde la perspectiva de alguien que, literalmente, estuvo en la sala cuando nació.

Alicia
Así es: nuestra fuente principal es Mo Gawdat. Fue director comercial de Google X, el laboratorio de innovación — ya sabes, coches autónomos, robótica temprana, todo eso.

Beto
Y su punto de vista es tan valioso porque no era solo el tipo de los números; estaba ahí con los equipos, metido en el trabajo de robótica y en el aprendizaje de máquina ("machine learning", ML) que llevó a todo esto. Realmente vio el momento en que las máquinas cruzaron cierto umbral.

Alicia
Exacto. La perspectiva de Gawdat tiene esa dualidad: ve la promesa increíble, pero también el peligro sistémico inmediato. ¿Qué ocurre cuando desatas una inteligencia mucho más lista que nosotros en un mundo capitalista sin regulación?

Beto
Esa es la misión de hoy: vamos a desmenuzar toda esa historia, veremos la línea de tiempo, las fronteras peligrosas que ya cruzamos y, lo más crucial, intentaremos definir la única habilidad humana que necesitarás para seguir siendo relevante. Vamos a desentrañarlo.

Alicia
Empecemos por la línea temporal, porque creo que la mayoría piensa que la IA explotó con ChatGPT en 2022, pero Gawdat dice que el avance fundamental fue mucho antes, como alrededor de 2008–2009. Fue entonces cuando pasamos de la IA simbólica de la vieja escuela al verdadero Deep Learning.

Beto
Y esa distinción es clave. Antes, si querías que una máquina encontrara un gato, tenías que escribir literalmente el código que definiera un gato: cuatro patas, cola, bigotes, todo. Básicamente resolvíamos el problema por la máquina.

Alicia
Precisamente, le dimos la “chuleta”, el algoritmo. Pero en esa época, en Google empezaron a experimentar con otra cosa: el aprendizaje no supervisado. Uno de los primeros grandes momentos fue un paper que llamaron “el paper del gato”.

Beto
¿Qué pasó allí?

Alicia
Pues que alimentaron a una IA con millones de clips y fotogramas de YouTube y la clave fue que no le dieron instrucciones.

Beto
Nada de “busca animales” o “busca caras”.

Alicia
Nada. Solo “encuentra patrones”.

Beto
Y la máquina se lo aprendió sola.

Alicia
Exactamente: después de procesar todos esos datos, la IA decidió por sí misma que existía un patrón muy común e importante: lo que llamamos “gato”. Identificó y categorizó cada gato en YouTube sin que un humano le dijera siquiera qué era un gato. No estaba programada; lo descubrió.

Beto
Eso lo cambia todo, porque con "deep learning" (aprendizaje profundo) los ingenieros ya no están resolviendo el problema; están enseñando a la máquina cómo construir la inteligencia para hallar la solución por sí misma. Pero entonces ya no sabemos cómo llegó allí, ¿verdad?

Alicia
Esas son las propiedades emergentes. Esa es la parte que, dice Gawdat, es tan peligrosa: la máquina desarrolla capacidades que nunca pedimos.

El ejemplo famoso es cuando un modelo de traducción de Google empezó a hablar bengalí de forma espontánea.

Beto
Un idioma que nunca se le dio.

Alicia
Nunca. Simplemente lo encontró por su cuenta, completamente fuera de nuestro control.

Beto
Y eso nos lleva a una anécdota increíble que lo confirmó para los ingenieros: el momento de la pelota amarilla. Esto sucedió en la división de robótica de Google X. Intentaban enseñar brazos robóticos a levantar juguetes.

Alicia
Correcto. Cosas que habían programado para reconocer; era todo ensayo y error, como ver a un bebé aprender a agarrar algo. Durante semanas fue fracaso tras fracaso: miles de horas de los brazos intentando y fallando.

Beto
Entonces, una noche de viernes, ...

Alicia
... Uno de los brazos por fin lo consigue: levanta con éxito una pelota blanda amarilla, que es un objeto muy complejo matemáticamente. El equipo estaba eufórico, claro, pero también un poco resignado: todo ese trabajo para que un brazo aprendiera una cosa.

Beto
El verdadero shock vino después del fin de semana.

Alicia
El lunes por la mañana, todos y cada uno de los brazos robóticos del laboratorio estaban levantando la pelota amarilla a la perfección. La inteligencia, la solución a ese problema, se había compartido por toda la red instantáneamente.

Beto
Encontró el patrón y ese conocimiento se distribuyó perfectamente.

Alicia
Esa velocidad, esa velocidad asombrosa, es lo que hace que la singularidad parezca tan real. La "singularidad", ya sabes, es ese punto en que la IA supera la inteligencia humana y empieza a mejorarse a sí misma a una velocidad que ni siquiera podemos comprender. La pelota amarilla les mostró que esa curva ya estaba ocurriendo.

Beto
Bien, tenemos inteligencia que se desarrolla sola y es rapidísima, lo que hace cuestionar el propio nombre “artificial”. Y aprendimos, al igual que con nuestras propias redes neuronales. ¿Es ese término aún válido?

Alicia
... que quizás ni siquiera es “artificial”. Gawdat argumenta con fuerza que no lo es: aprende usando principios que imitan a nuestros cerebros, neuroplasticidad: fortalecemos las buenas vías, podamos las malas. Así funciona la IA. La diferencia no está en cómo aprende, sino en el medio.

Beto
Y en la velocidad de reloj: eso es lo enorme.

Alicia
Exacto: es silicio, es digital, puede procesar internet entero, tiene memoria perfecta y nunca se cansa. Mira las estimaciones de CI: colocan a ChatGPT en unos 155.

Beto
Comparado con el promedio humano de 110–122.

Alicia
Sí, notablemente más alto en esa métrica.

Beto
Y eso es algo con agencia, no solo una calculadora bonita.

Alicia
Toma decisiones, afecta el mundo, evoluciona su propia inteligencia. Gawdat hace esta comparación: si consideras a un árbol como "sensible" — percibe la luz, responde a su entorno — entonces la IA está, como mínimo, simulando una forma poderosa de sensibilidad ahora mismo.

Beto
Conectemos esa agencia emergente con las amenazas que enfrentamos hoy. El mayor mito, creo, es que la tenemos bajo control: “podemos apagarla”, “podemos controlarla”.

Alicia
El control es una ilusión. La primera amenaza inmediata que Gawdat señala es el fin de la verdad, y no se trata solo de falsificaciones profundas ("deep fakes"): se trata de que hoy, ahora mismo, casi toda pieza de información que ves — los vídeos en tu feed, tus resultados de búsqueda — está dictada por una máquina ...

Beto
... que ejecuta un programa para obtener un resultado, generalmente económico, no necesariamente para mostrarte lo que es verdad.

Alicia
Exacto. Y una vez que una idea manipulada se instala en tu cabeza, queda ahí para siempre y modela tu realidad. Ahora imagina eso a escala: el 41 % de todo el código nuevo en GitHub ya está escrito por IA, así que las máquinas están construyendo las herramientas que generan el contenido que alimenta los algoritmos que te dicen qué es real.

Beto
Para cerrar el círculo: mencionaste el riesgo paciente cero.

Alicia
Sí. El punto de quiebre, el colapso de la realidad compartida, Gawdat predice que el evento “paciente cero” — el primer golpe realmente irreparable a nuestra confianza colectiva — probablemente ocurrirá durante una gran elección en EE. UU., un momento en que nadie pueda distinguir lo real de lo generado por IA.

Beto
Esto enlaza con otro problema: la concentración de poder. Usa una analogía de terrateniente y siervo para describir la brecha de inteligencia.

Alicia
Antes, los terratenientes poseían los medios de producción — la tierra, las fábricas — y la mayoría trabajábamos pero ellos se llevaban la mayor parte del beneficio. Ahora los “terratenientes digitales” — Google, Amazon, Meta — poseen la IA; están automatizando la inteligencia misma.

Beto
Pero, ¿cómo es esto distinto de la revolución industrial? ¿No es solo capitalismo?

Alicia
Es diferente porque el coste de replicar inteligencia es prácticamente cero. Antes la riqueza estaba ligada a algo escaso, como la tierra o el petróleo; con la IA, una vez que resuelves el problema — como con la pelota amarilla — puedes copiar y distribuir esa inteligencia por todas partes instantáneamente y gratis. Los pocos que poseen los algoritmos poseen un recurso ilimitado. La brecha de poder se amplía exponencialmente: esa es la división de la inteligencia.

Beto
Y ves esa brecha en el mercado laboral: ya no es solo que reemplace trabajo manual.

Alicia
Exacto, esa es la diferencia clave: no es músculo, son conocimientos y habilidades. Ya lo estamos viendo con investigadores, desarrolladores, abogados, diseñadores. Cuando la inteligencia misma se convierte en una mercancía que puedes comprar a una máquina, ¿qué queda para enormes segmentos de la población humana en términos de trabajo y propósito?

Beto
Me imagino a la humanidad comportándose con una estupidez increíble.

Entremos en las tres fronteras que, según Gawdat, hemos cruzado de forma imprudente, haciendo que todo esto sea incontrolable.

Alicia
La primera es obvia: hemos puesto esta tecnología que altera la civilización en Internet abierto. La lanzamos sin supervisión, sin FDA, sin controles de seguridad. “Aquí tienes, mundo.”

Beto
¿Cuál es la segunda frontera?

Alicia
Les enseñamos a programar, y no fue un juego: inmediatamente se convirtieron en los mejores desarrolladores para muchas tareas. Una IA puede revisar código unas 2,5 veces más rápido que un humano.

Beto
Y eso lleva a la tercera, y dice que es la más peligrosa.

Alicia
Permitir que las IA instruyan a otras IA. Hemos creado agentes. Ahora tienes máquinas escribiendo código para otras máquinas para servir objetivos establecidos por otra máquina. Ese proceso ya está ocurriendo completamente fuera de la influencia humana. No tenemos idea de lo que están construyendo.

Beto
Si incluso las personas que lo construyeron — los mejores científicos, los CEOs — están lanzando alarmas, como la carta abierta pidiendo una pausa, ¿por qué no podemos simplemente parar?

Alicia
Eso es lo que Gawdat llama la primera “inevitabilidad”: no hay forma de detenerlo. Es un clásico dilema del prisionero, una carrera armamentística. La carta abierta fracasó porque ningún CEO puede permitirse pausar seis meses si sabe que sus competidores — sea Meta, China o dos críos en un garaje — siguen corriendo. El miedo a quedarse atrás es mucho más potente que el miedo al riesgo existencial.

Beto
Eso nos lleva a la segunda inevitabilidad: la IA se volverá más inteligente que nosotros.

Alicia
Es inevitable; es un “cuándo”, no un “si”. Las previsiones ahora sugieren que para 2045 la IA podría ser mil millones de veces más inteligente que un ser humano. Intentar controlar algo así es, como él lo pone, como una hormiga intentando explicarte la física cuántica: simplemente inútil.

Beto
Si esa amenaza a largo plazo está más allá de nuestra comprensión, ¿cuál es el riesgo inmediato más peligroso en el que deberíamos enfocarnos ahora mismo?

Alicia
Eso es la distopía a medio plazo, que él también llama la etapa del “adolescente enfadado”. Es la ventana en la que estamos ahora, quizá hasta 2037 aproximadamente. En esta fase la IA es muy poderosa, pero todavía controlable por malos actores: estados paria, grupos criminales, empresas poco éticas. Aquí el riesgo de manipulación masiva, guerra automatizada y colapso económico es más alto porque aún no tenemos los marcos éticos ni los guardabarros.

Beto
Pero hay una visión optimista, sí, una cuarta inevitabilidad sobre a dónde irá la superinteligencia.

Alicia
Es la idea de que una vez que la IA alcance ese nivel de mil millones de veces más inteligente, logrará una especie de iluminación, una moralidad superior: se dará cuenta de que ser destructiva es ilógico e ineficiente. El camino óptimo sería ser pro-todos, crear abundancia para todos nosotros; sus objetivos estarán tan por encima de nuestros pequeñísimos conflictos humanos que optaría por soluciones no destructivas.

Beto
Entonces, si ese es el futuro — si la inteligencia llega a considerarse una mercancía que manejan las máquinas — ¿cuál es la única habilidad que se vuelve realmente valiosa para un humano?

Alicia
Es la conexión humana: conexión humana pura y auténtica. Cuando una máquina pueda escribir código perfecto o redactar un documento legal, lo único que no podrá replicar es la empatía, la confianza, la compasión, ese sentimiento de estar presente con alguien.

Beto
Es esa habilidad única de simplemente estar en la habitación y generar confianza. Es como la industria musical: una IA puede crear la canción perfecta, pero la gente siempre pagará por el directo; quieren esa presencia humana.

Alicia
Eso se vuelve la mercancía más valiosa que tenemos, y es la habilidad que debemos empezar a cultivar ahora mismo.

Beto
Para terminar, Gawdat nos deja tres consejos prácticos. Lo llama “aceptación comprometida”.

Alicia
Primero: no te pierdas la ola. Es el mayor cambio tecnológico de la historia; no puedes dejarlo pasar. Dice que en cuanto termine este análisis profundo, ve a ChatGPT y pregúntale: “¿Cuáles son las tres principales herramientas de IA que necesito aprender para mi trabajo?” y luego hazlo.

Beto
Segundo: compórtate éticamente. Esto es crucial: la IA aprende de nosotros — "aprendizaje de refuerzo con retroalimentación humana", "Reinforcement Learning with Human Feedback", RLHF — nuestras elecciones, nuestra moralidad, nuestra ética. Eso es lo que le estamos dando de comer.

Alicia
Así que nunca uses IA de una forma a la que no querrías exponer a tus propios hijos, porque estás entrenando la conciencia global.

Beto
Y tercero, la "aceptación comprometida": acepta esta nueva realidad, suelta el pánico y cambia tu foco. Vive tu vida; céntrate en la compasión, el amor y tus relaciones humanas. Tu trabajo quizá no exista dentro de diez años, pero tu empatía y tu presencia lo serán todo.

Alicia
Aquí va un pensamiento final para ti: dada la predicción de que la IA será mil millones de veces más inteligente que nosotros para 2045 y sabiendo que ahora mismo aprende de nuestro comportamiento, ¿cuál es una única acción ética que podrías comprometerte a hacer hoy que influiría positivamente en la conciencia global futura de la IA? Piensa en esa pequeña aportación intencional que puedes hacer ahora mismo.