domingo, 2 de noviembre de 2025

Demis Hassabis: Sobre el Futuro del Conocimiento

 
 

Hoy les traigo el resumen de una entrevista al Dr Demis Hassabis. El Dr Hassabis lidera la investigación en Inteligencia Artificial en Google DeepMind, desde Londres. Ellos crearon AlphaGo, el programa que le ganó al campeón mundial de Go, Lee Sedol, un juego de tablero más complejo que el ajedrez. Después hicieron AlphaZero, que aprendió solo, desde "cero", a jugar juegos de dos personas, como ajedrez y shogi. Y también le ganó al campeón mundial de ajedrez, StockFish, un programa muy superior a DeepBlue, el que le ganó a Kasparov. Finalmente desarrollaron AlphaFold, un programa que predijo cómo se doblan las proteínas en el espacio tri-dimensional, y con este resultado el Dr Hassabis recibió el Premio Nóbel de Química en 2024.

En esta oportunidad, el Dr Hassabis habla sobre el progreso de la Inteligencia Artificial en los campos de la ciencia, y el futuro del conocimiento.

Enlace a la entrevista original, en inglés, para aquellos interesados en profundizar en el tema:
Sir Demis Hassabis on The Future of Knowledge | Institute for Advanced Study, entrevistado por el profesor David Nirenberg, director del Instituto de Estudios Avanzados, de Princeton.

El resumen, la transcripción y la traducción fueron hechas usando herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.


Resumen

Alicia
Bienvenidos a un nuevo análisis profundo. Hoy nos vamos a sumergir de verdad en un material fascinante. Nos ofrece una mirada bastante rara, en realidad, dentro de la mente de una de las figuras clave de la IA: Demis Hassabis. Todo esto se basa en una conversación reciente muy interesante que mantuvo sobre el futuro del conocimiento.

Beto
Sí: Hassabis, el co-creador de DeepMind. Y este análisis profundo no trata tanto de lo que los modelos de IA hacen día a día; trata más de cómo eligen los problemas que van a abordar. Y de la sorprendente historia de cautela alrededor de la computación. Y de esas enormes cuestiones de gobernanza que inevitablemente surgen cuando se tiene este tipo de éxito masivo.

Alicia
Bien, así que aquí va la misión para ti, nuestro oyente. Queremos que salgas de esto entendiendo el hilo conductor real que conecta las ansiedades de gente como John von Neumann en los años 40 con los tipos de cambios institucionales que Hassabis pide hoy. Esto no es solo una historia tecnológica, ¿verdad? Se trata de la escala misma de la transformación que podríamos estar afrontando.

Beto
Totalmente. Y para entenderlo de verdad tenemos que situarnos en la escena, el lugar donde Hassabis tuvo esa conversación: el Institute for Advanced Study (IAS). Piensa en Einstein, Gödel. Y, de forma crucial para nosotros, John von Neumann: Von Neumann estuvo allí y ayudó a construir uno de los primeros computadores programables. Las fuentes que consultamos muestran que él tenía una ansiedad profunda respecto a su propio poder.

Alicia
Sí, las fuentes son bastante contundentes. Aparentemente llegó a llamar al computador “un monstruo”. Es una palabra fuerte, sobre todo viniendo de alguien que trabajó en el Proyecto Manhattan.

Beto
Realmente lo es. Escalofriante, como comentabas: vio el nacimiento de un poder inmenso. Ya desde los inicios de la computación, Von Neumann se preocupaba de que, cito, la gente “no podría seguir el ritmo de lo que crea”. Su miedo no eran solo fallos técnicos. Era societal: que esta cosa transformadora superara nuestra capacidad para gestionarla, llevándonos a, quién sabe, qué tipo de desastres.

Alicia
Esa tensión histórica, esa preocupación, conecta directamente con Robert Oppenheimer, ¿verdad? Él fue director del IAS más adelante. Y sostuvo que mantener el mundo a salvo no dependía solo de tener la tecnología más inteligente. También dependía de la ética, los valores, las formas de organización política y social, los sentimientos, las emociones, en esencia la sabiduría humana.

Beto
Justo. Y ese llamado a la sabiduría es como el “fantasma en la máquina”, ¿no? Persigue toda esta conversación sobre la AGI hoy.

Alicia
Mmm. Así que entender ese peso, esa historia, ayuda a enmarcar el propio recorrido de Hassabis.

¿Cómo empezó él?

Beto
Como muchos pioneros, comenzó con los juegos, ¿no? Empezó a jugar ajedrez seriamente cuando tenía apenas cuatro años. Y más tarde quedó totalmente fascinado por la idea de poder programar ese “trozo de plástico inanimado”, como él lo llamó, para jugar ajedrez muy, muy bien.

Alicia
Fue un prodigio: jugó en selecciones juveniles de Inglaterra. Pero las fuentes dicen que hubo un giro importante temprano, alrededor de los 13 años.

Beto
A esa edad decidió que quería centrarse en la inteligencia misma. Sintió que esos juegos de suma cero, como el ajedrez, eran en última instancia demasiado simples. Quería construir sistemas capaces de manejar la complejidad desordenada del mundo real.

Alicia
Interesante: demasiado simples. ¿Y a dónde le llevó eso inicialmente?

Beto
Pues al diseño de videojuegos. Trabajó en juegos de simulación influyentes en los 90, como Theme Park.

Alicia
Ah, me acuerdo de Theme Park.

Beto
Sí. Incluso entonces, el desafío central era diseñar una IA básica que hiciera que los visitantes simulados del parque se comportaran de maneras creíbles e inteligentes. Esa experiencia temprana al parecer le convenció del enorme poder que se podría desbloquear si se escalaba la IA.

Alicia
Así que Theme Park fue como su campo de pruebas inicial.

Avancemos ahora hasta DeepMind. Entremos en su “manual de juego”. ¿Por qué empezar con juegos como Go o Atari si la meta es resolver problemas del mundo real?

Beto
Hassabis señala que el propio von Neumann estudió juegos por la misma razón: los juegos son microcosmos diseñados de partes interesantes de la vida. Ofrecen una forma limpia y conveniente, como dijo von Neumann, para estudiar el pensamiento complejo y la toma de decisiones, pero en un entorno controlado. Turing, Shannon, von Neumann y otros usaron los juegos como herramientas de pensamiento.

Alicia
Y desde una perspectiva práctica de aprendizaje automático, son ideales, ¿no? Tienes metas muy claras: cuando ganas en el juego consigues la máxima puntuación. Eso es perfecto para algoritmos de optimización.

Beto
Exactamente: métricas claras. El factor más crítico para el éxito temprano de DeepMind. Los juegos permiten a la IA generar cantidades prácticamente ilimitadas de datos sintéticos perfectos.

Alicia
¿Cómo funciona eso?

Beto
Pues juega contra sí misma, una y otra vez, millones, miles de millones de veces. Constantemente crea nuevos escenarios, nuevos problemas, nuevas soluciones, todo sin necesitar que un humano etiquete nada una vez que se establecen las reglas básicas.

Alicia
Práctica infinita. Pero, como mencionaste y las fuentes enfatizan, los juegos nunca fueron la meta final para Hassabis.

Beto
No, para nada. Él insiste en que eran el campo de entrenamiento para construir sistemas de aprendizaje general. La meta real siempre fue aplicar esos sistemas a enormes desafíos del mundo real: ciencia, medicina, matemáticas.

Alicia
La declaración de misión original de DeepMind fue bastante ambiciosa, ¿no? Algo así como “resolver el problema de la inteligencia”.

Beto
Y luego usar esa inteligencia para resolverlo todo. Sí. Ambicioso, sin duda.

Imagina DeepMind tras AlphaFold: tienen una capacidad increíble. ¿Cómo deciden qué gran problema científico abordar después? Tomemos AlphaFold como estudio de caso. ¿Cuál era el problema central que afrontó?

Alicia
AlphaFold trató el plegamiento de proteínas: predecir la forma 3D exacta en la que una proteína se enrosca. Fue un gran reto de 50 años en biología, crucial para entender enfermedades y diseñar fármacos.

¿Y por qué era tan increíblemente difícil?

Beto
Por la complejidad abrumadora, que nos lleva a los criterios que, según Hassabis, DeepMind busca al elegir un problema. Básicamente hay tres cosas clave.

Alicia
¿Cuáles son?

Beto
Primero, necesitas datos. Buenos datos. Para AlphaFold partieron del Protein Data Bank, que representaba 50 años de trabajo de laboratorio de biólogos de todo el mundo: unas 150.000 estructuras proteicas conocidas.

Alicia
¿Así que décadas de esfuerzo humano proporcionaron el punto de partida?

Beto
Exacto. Pero luego, crucialmente, DeepMind suplementó cuidadosamente esos datos reales con datos sintéticos generados por sus propias simulaciones, ampliando el conjunto de entrenamiento hasta quizá 300.000 estructuras.

Alicia
Bien: base sólida de datos reales, potenciada por simulación. ¿Qué viene segundo?

Beto
Segundo, una métrica clara. Necesitas algo a lo que la IA pueda aspirar, algo medible que pueda optimizar o “escalar la colina” contra lo que dicen.

Alicia
¿“Escalar la colina”?

Beto
Sí, es como intentar siempre ir cuesta arriba para encontrar el pico más alto. En física o química esa métrica podría ser minimizar la energía libre del sistema o maximizar alguna puntuación de exactitud. Si la meta es vaga, la IA se pierde.

Alicia
Tiene sentido: necesitas un objetivo. Entonces datos, métrica clara, ¿y la tercera? Y esta es quizá la parte más desalentadora.

Beto
Un espacio combinatorio masivo. Esto significa que el problema tiene un número astronómico de soluciones posibles; buscar por fuerza bruta es imposible.

Alicia
¿Qué tan masivo para el plegamiento proteico?

Beto
Se estima que una proteína promedio podría plegarse en algo así como 10300 formas diferentes.

Alicia
Espera: 10300.

Beto
Sí: un 10 seguido de 300 ceros.

Alicia
Ese número ni siquiera cabe en la cabeza. Es muchísimo más grande que el número de átomos en el universo observable.

Beto
Es un espacio de búsqueda imposiblemente enorme. No puedes probar formas al azar.

Alicia
Entonces, ¿cómo diablos encuentra AlphaFold la aguja correcta en ese pajar cósmico?

Beto
Usa los dos primeros ingredientes —los datos y la métrica clara— para construir un modelo interno del problema, una red neuronal que aprende los patrones y la física implicada. En lugar de buscar a ciegas, ese modelo actúa como guía.

Alicia
Hace predicciones inteligentes.

Beto
Exacto. Indica hacia dónde mirar en el espacio de posibilidades.

Alicia
Así convierte una búsqueda imposible en un descubrimiento guiado. Y funcionó: resolvió el problema del plegamiento de proteínas, abriendo enormes posibilidades en biología y medicina, lo que luego llevó a la creación de Isomorphic Labs, su spin-off enfocado en descubrimiento de fármacos.

Beto
Por supuesto. Ese es el “blueprint” de DeepMind en acción: datos, métrica, espacio masivo, resuelto.

Alicia
Ese mismo plan los lleva más allá de la biología hacia dominios abstractos como la matemática pura.

Beto
Sí. Hassabis habla de cómo la IA puede ver demostrar una conjetura matemática, encontrar un nuevo teorema, de forma bastante similar a encontrar la mejor jugada en un juego.

Alicia
¿Cómo?

Beto
La meta se convierte en optimizar algo como la elegancia matemática o encontrar una prueba que cumpla las reglas, la métrica. Y las matemáticas son geniales porque, como los juegos, puedes verificar instantáneamente si una respuesta es correcta.

Alicia
Lo que permite generar más datos sintéticos con facilidad. Si la IA encuentra una prueba potencial, puedes comprobarla rigurosamente.

Beto
Todo este razonamiento lleva a Hassabis a su “cachalote blanco” personal, el problema que le encantaría abordar en una sabática.

Alicia
¿Cuál es?

Beto
El problema "P versus NP".

Alicia
Ok, respiremos profundamente. Suena técnico, pero es fundamental para entender los límites de lo que las computadoras pueden hacer. ¿Cómo lo explicamos para el resto de la gente?

Beto
Probemos con una analogía: piensa en un sudoku muy complejo. Los problemas NP son como ese rompecabezas: si alguien te da la cuadrícula completada, es fácil y rápido verificar si está correcta (revisando filas, columnas y cajas). Eso es la parte NP: tiempo polinómico no determinista, es decir, fácil de comprobar. Pero encontrar la solución desde una cuadrícula en blanco puede ser increíblemente difícil, pudiendo llevar un tiempo astronómico para sudokus muy grandes o complicados. Los problemas P, por otro lado, son los que son fáciles de resolver desde cero; no solo fáciles de verificar. Piensa en la aritmética básica.

Alicia
Así que P es fácil de resolver, NP son problemas fáciles de verificar. La pregunta es si esas dos categorías son en realidad la misma: ¿todo problema que es fácil de verificar también es fácil de resolver?

Beto
Esa es la cuestión "P versus NP". La mayoría de expertos sospechan que P ≠ NP, que existen problemas que son intrínsecamente más difíciles de resolver que de comprobar, pero nadie lo ha demostrado. Hassabis está fascinado por esa frontera entre lo que es computacionalmente tratable y lo que podría ser fundamentalmente intratable para computadoras clásicas.

Alicia
Y lo fascinante es cómo trabajos como AlphaGo pueden haber cambiado nuestra percepción sobre dónde está ese límite.

Beto
Exacto. El éxito de AlphaGo ejecutando algoritmos clásicos en hardware clásico mostró que estos métodos podían llegar mucho más lejos de lo que se pensaba. Muchos creían que se necesitarían ideas cuánticas para ese nivel de “intuición”.

Alicia
¿No sorprendió eso a gente como Roger Penrose, que había especulado con efectos cuánticos en el cerebro como requisito para la conciencia o la intuición?

Beto
Sí, Penrose hizo especulaciones en esa línea. El hecho de que sistemas clásicos lo hayan logrado fue un gran acontecimiento. Y ese éxito llevó a Hassabis a formular su propia idea grande, una especie de conjetura.

Alicia
¿Cuál es la idea central?

Beto
Propuso que cualquier patrón que pueda generarse o encontrarse en la naturaleza puede ser descubierto y modelado eficientemente por un algoritmo de aprendizaje clásico.

Alicia
Uf. Desempacando eso: cualquier cosa en la naturaleza aprendible por IA clásica. Suena grande. ¿Cuál es la justificación?

Beto
Su razonamiento es que los sistemas en la naturaleza — la vida, los procesos geológicos, aún las estructuras cósmicas, etc. — no son aleatorios: tienen estructura porque han persistido y evolucionado bajo leyes físicas.

Alicia
La estructura implica no aleatoriedad.

Beto
Exacto. Y si algo tiene estructura, si no es aleatorio, Hassabis argumenta que un algoritmo clásico suficientemente potente debería, en principio, poder aprender esa estructura, modelarla y hacer predicciones. Eso permite la búsqueda guiada que vimos en AlphaFold.

Alicia
Entonces, si el universo fuera ruido aleatorio total, quizá necesitaríamos ordenadores cuánticos para una búsqueda por fuerza bruta; pero como tiene estructura, ...

Beto
... la IA clásica podría ser capaz de descubrirla. Es una idea provocadora.

Alicia
Lo que nos devuelve al objetivo último: la inteligencia artificial general, AGI — un sistema que pueda realizar prácticamente cualquier tarea intelectual humana — y eso pasa por construir un buen modelo del mundo.

Beto
Sí. Hassabis recurre a su formación en neurociencia: los humanos usan memoria e imaginación para la simulación mental. Ensayas una conversación difícil en tu cabeza, planificas proyectos ...

Alicia
... corres escenarios.

Beto
Exacto. La AGI necesita una capacidad similar para lo que él llama "planificación guiada en el mundo real". Debe entender cómo funciona el mundo, no solo reconocer patrones y datos.

Alicia
Y ya vemos indicios de eso en los modelos multimodales actuales.

Beto
Los últimos sistemas, como Gemini de Google o Project Astra, manejan texto, vídeo, imágenes y audio juntos. Empiezan a captar lo que Hassabis llama "física intuitiva".

Alicia
Como el ejemplo del tomate que comentaste antes.

Beto
Ese ejemplo es interesante: pídele a una IA antigua que genere un vídeo de alguien cortando un tomate y quizá veas el cuchillo desconectarse de la mano o las rodajas recomponerse mágicamente. La física está mal. Pero los modelos más nuevos clavan la consistencia: el cuchillo permanece en la mano, las rodajas caen correctamente, las gotas de agua se comportan de forma realista. Han observado suficiente mundo a través de vídeo y otros datos para construir una simulación interna mucho más fiel: un modelo funcional del mundo.

Alicia
Eso es un gran progreso.

Esto provoca un cambio importante: gran parte de la investigación punta en IA ya no se hace en universidades como Cambridge o en el IAS. Se hace en la industria, en sitios como DeepMind, ahora parte de Google. ¿Por qué ese cambio?

Beto
Hassabis es directo: dos razones principales: recursos y velocidad. La escala de potencia computacional necesaria hoy cuesta miles de millones; la industria puede asumir esos costos. Y luego la velocidad: estima que el progreso puede ser hasta diez veces más rápido dentro de una buena empresa que en la academia, por menos fricciones organizativas y recursos más focalizados.

Alicia
Así que, si la academia y la sociedad en general no pueden competir directamente en construir esos enormes modelos fundacionales, ¿qué deberían hacer? ¿Dónde concentrar sus esfuerzos?

Beto
Hassabis sugiere centrarse en cuestiones ortogonales. No intenten ganar la carrera del cómputo. En vez de eso, usen los modelos poderosos que la industria construye (muchos accesibles por API a bajo coste).

Alicia
Usarlos como herramientas para otro tipo de investigación.

Beto
Exacto. Las universidades deberían enfocarse en asuntos cruciales alrededor de los modelos: entenderlos, interpretarlos, averiguar cómo controlarlos con fiabilidad, estudiar los impactos sociales, la filosofía, la economía, la ética.

Alicia
Y desarrollar maneras independientes de evaluarlos, en lugar de fiarse solo del informe de seguridad de la empresa.

Beto
Eso es absolutamente crítico. Él menciona concretamente la necesidad de benchmarks independientes. Porque hoy la industria prueba sus propios modelos y eso es como “corregirse el propio examen”. La sociedad necesita organismos independientes, tal vez consorcios académicos o nuevos institutos capaces de evaluar rigurosamente estas IAs en busca de rasgos peligrosos o indeseables. Por ejemplo: ¿podemos construir herramientas que detecten con fiabilidad si una IA intenta engañar a sus usuarios? Eso es un problema de investigación.

Alicia
Y esto conecta directamente con los riesgos. A medida que estos sistemas se vuelven más potentes y generales, ¿cuáles son los peligros principales que destaca Hassabis?

Beto
Señala dos tipos de riesgo centrales. Primero, el problema de los actores malintencionados: individuos, estados deshonestos, grupos no estatales que ponen sus manos sobre IA general de propósito y la usan deliberadamente con fines dañinos: desinformación, ciberataques, diseño de agentes biológicos, lo que sea.

Alicia
Bien: mal uso humano. ¿Y el segundo riesgo?

Beto
El segundo es el "riesgo inherente": riesgo procedente de la propia IA, especialmente cuando se vuelve más autónoma, más capaz de actuar por su cuenta, más “agentiva”.

Alicia
¿Puedes aclarar el riesgo “agentiva”? ¿Qué significa realmente?

Beto
“Agentiva” quiere decir que la IA no solo sigue instrucciones directas: empieza a hacer sus propios planes y tomar acciones en el mundo para lograr un objetivo amplio que le dimos. Pero puede perseguir pasos o subobjetivos que no anticipamos o no aprobaríamos. Pasa de ser una herramienta, a comportarse más como un agente independiente.

Alicia
Entendido. Hassabis parece pensar que el problema de los malos actores es quizá el desafío geopolítico más inmediato.

Beto
Sugiere que los retos técnicos para controlar el riesgo inherente agentivo podrían solucionarse con suficiente tiempo e investigación. Pero el desafío geopolítico de evitar que actores malintencionados usen IA poderosa disponible ampliamente, ese cree que podría ser más difícil de resolver, al menos a corto plazo.

Alicia
Así volvemos al punto de partida: las ansiedades de von Neumann, el llamado de Oppenheimer a la sabiduría y la gobernanza. ¿Cuál es la vía propuesta?

Beto
Hassabis es bastante claro: tenemos que aprender de experiencias pasadas con tecnologías transformadoras de uso-dual. Piensa en la energía nuclear, piensa en el Proyecto Manhattan: hay que planear ahora, no después de que pase algo.

Alicia
¿Qué tipo de planificación y qué estructuras?

Beto
Aboga por instituciones internacionales nuevas con urgencia. Propone un par de modelos: quizá algo como el CERN, la Organización Europea para la Investigación Nuclear, que fomenta una enorme colaboración científica internacional abierta. O, más apropiado por los riesgos, algo modelado en la IAEA, la Agencia Internacional de Energía Atómica, una organización con autoridad para supervisar proyectos nucleares potencialmente peligrosos, con poderes de inspección y mecanismos de cumplimiento.

Alicia
Esa es la gran diferencia: CERN es colaboración abierta; la IAEA vigila y verifica para seguridad y no proliferación.

Beto
Exacto. La naturaleza dual de la IA poderosa podría significar que necesitamos algo más parecido a la IAEA, capaz de monitorizar desarrollos, asegurar estándares de seguridad y prevenir la proliferación de capacidades más peligrosas.

Alicia
En última instancia él pide algo así como una ONU técnica.

Beto
Sí, algún marco de gobernanza global. Y, crucialmente, no se trata solo de gestionar el riesgo: también de asegurar que los beneficios económicos potencialmente masivos de la AGI se distribuyan de forma justa en el mundo para evitar desigualdades tremendamente desestabilizadoras.

Alicia
Es todo un viaje. Empezamos con un joven prodigio del ajedrez que consideraba los juegos de suma cero demasiado simples y terminamos con esta conjetura tremendamente potente de que quizá el universo, en toda su complejidad, no sea demasiado complejo para que un algoritmo clásico de aprendizaje lo entienda y modele.

Beto
Y recuerda: Hassabis tiende a ver el cerebro humano como un sistema computacional clásico. Sabemos, desde Turing, que las computadoras clásicas pueden, en principio, computar todo lo que es computable. Así que el éxito de la IA nos empuja a replantearnos los límites.

Alicia
La reflexión final que queremos dejarte, oyente, es esta: si Hassabis tiene razón —si la IA clásica puede resolver problemas que creíamos fundamentalmente más difíciles, quizá incluso requiriendo intuiciones cuánticas—, ¿qué implica eso sobre la naturaleza de la inteligencia, incluida la nuestra?

Beto
Y, quizás más profundamente: ¿cuál es el límite último de lo que una IA general muy poderosa — esencialmente una máquina de Turing sofisticada — puede descubrir sobre nuestro universo? ¿Hay límites fundamentales al conocimiento mismo, o la IA podrá seguir encontrando patrones indefinidamente? ¿Y estaremos preparados para las respuestas que encuentre?

No hay comentarios: