martes, 11 de noviembre de 2025

Los Titanes de la IA: Pasado, Presente y Futuro

 
 

Acabo de encontrar una entrevista reciente, donde reúnen a los investigadores clave en Inteligencia Artificial (IA) para preguntarles sobre sus perspectivas sobre el pasado, presente y futuro de la IA: Yann LeCun, Geoffrey Hinton, Yoshua Bengio, Jensen Huang, Fei-Fei Li, y Bill Dally.

Enlace a la entrevista original, en inglés, para aquellos que quieran profundizar en el tema:
The Minds of Modern AI: Jensen Huang, Geoffrey Hinton, Yann LeCun & the AI Vision of the Future

El resumen, la transcripción, y la traducción fueron hechas usando herramientas de software de Inteligencia Artificial.

El resumen se presenta en la forma de un diálogo entre dos personajes sintéticos que llamaremos Alicia y Beto.


Resumen

Beto
Bienvenidos a un nuevo análisis profundo. Hoy tenemos algo bastante especial. Vamos a abreviar décadas de historia de la IA.

Alicia
Sí, vamos a sumergirnos en una transcripción de un panel de discusión. Cuenta con los seis ganadores del Premio de Ingeniería Queen Elizabeth 2025. Es decir, son las figuras fundamentales.

Beto
Exacto. Las personas que realmente inventaron lo central: los algoritmos, el empuje por los grandes datos, el hardware, todo eso es obra suya.

Alicia
Construyeron el motor que está impulsando este enorme cambio tecnológico que estamos viendo ahora.

Beto
Así que nuestra misión hoy es, bueno, bastante crucial. Queremos extraer tres cosas clave de lo que dicen.

Alicia
OK, ¿qué buscamos?

Beto
Primero, esos momentos originales de “¡ajá!”, qué fue lo que realmente desencadenó la IA moderna para ellos a nivel personal.

Alicia
Entendido. La historia de origen.

Beto
Segundo, necesitamos entender por qué creen que el boom actual de la IA es algo fundamentalmente distinto a las burbujas tecnológicas pasadas. ¿Es diferente?

Alicia
Ah, la pregunta del millón. O quizá del billón hoy en día.

Beto
Correcto. Y tercero, sus puntos de vista sobre la AGI, la inteligencia artificial general. En realidad tienen posturas muy diferentes sobre cuándo llegará o incluso qué es.

Alicia
Eso siempre fascina. Así que estamos escuchando directamente a los arquitectos sobre cómo teoría, datos y cómputo finalmente encajaron. Y hacia dónde creen que va a continuación.

Beto
Perfecto, desempacemos esto empezando por el principio. Esos puntos de inflexión personales. ¿Qué los puso en este camino? Empecemos con los algoritmos, la chispa inicial.

Alicia
Bien. Y eso nos lleva a Geoffrey Hinton y Yoshua Bengio. Hinton habló de este momento allá por 1984. 1984.

Beto
Wow. ¿Qué pasó entonces?

Alicia
Usó la retro-propagación, que es el método central que aún usamos para entrenar estas enormes redes y conseguir que una red prediga la siguiente palabra en una secuencia. Incluso lo llamó un "pequeño modelo de lenguaje".

Beto
Un pequeño modelo de lenguaje en 1984, antes de la web. Casi nada. ¿Cómo pasó de predecir una palabra a convertirse en la base?

Alicia
Pues no era solo que predijera la palabra. Era cómo la red aprendía a convertir las palabras en conjuntos internos de rasgos, básicamente representaciones que capturaban el significado de las palabras.

Beto
Ah, vale. Así que no era solo imitación. Estaba generando significado.

Alicia
Exacto. Y el propio Hinton señala el principio central de los grandes modelos de hoy. Ya estaba ahí, hace 40 años.

Beto
40 años. La gran lección, entonces, es paciencia. La teoría prácticamente existía.

Alicia
Pero la potencia de cómputo, y quizá aún más importante, la enorme cantidad de datos necesaria, simplemente no existía. Ni por asomo.

Eso conecta con Bengio. Él recuerda ser estudiante de posgrado, leer los primeros trabajos de Hinton y sentir que buscaba unos pocos principios simples, como las leyes de la física que pudieran sustentar máquinas inteligentes. Las ideas estaban fermentando.

Beto
Pero necesitaban combustible. Lo que nos lleva a la pieza de los datos, ¿no? Y Fei-Fei Li. ¿Cuál fue su gran realización? Esto fue alrededor de 2006–2007.

Alicia
Sí. Ella era entonces una joven profesora y se estaba topando con un muro en los modelos de aprendizaje automático. Simplemente no podían generalizar.

Beto
Es decir, podían aprender una cosa específica, pero no aplicarla de forma amplia.

Alicia
Exacto. Dominaban una tarea, pero fracasaban en una ligeramente distinta. Y ella tuvo la intuición de que las máquinas estaban esencialmente hambrientas de entrada sensorial. Totalmente distinto a los animales o humanos, que aprenden desde el momento que nacen a partir de una avalancha masiva de datos del mundo real.

Beto
Vale. Así que las máquinas necesitaban muchos más datos. Y la solución fue ImageNet, que ella llamó una idea loca.

Alicia
Piensa en ello: durante tres años reunieron y etiquetaron meticulosamente a mano 15 millones de imágenes.

Beto
15 millones etiquetadas a mano.

Alicia
En 22 mil categorías. Fue un esfuerzo monumental, casi de fuerza bruta. Pero esa escala y densidad de datos etiquetados fue lo que finalmente permitió a los modelos empezar a generalizar de forma efectiva.

Beto
Su momento “ajá” fue más bien un esfuerzo decidido que probó una hipótesis. Mostró que los datos masivos no eran solo útiles; eran un requisito fundamental, una ley de escalamiento.

Alicia
Absolutamente. Y ese enorme conjunto de datos necesitaba algo potente para ejecutarse, lo que enlaza perfectamente con la tercera pieza: el cómputo, y Jensen Huang.

Beto
Nvidia. Su avance inicial, en realidad, ni siquiera fue por la IA; fue por resolver algo llamado el muro de la memoria.

Alicia
Sí, a finales de los 90. El problema era que llevar datos al procesador se estaba convirtiendo en un cuello de botella cada vez mayor, más lento y con más consumo energético que el propio cálculo.

Beto
Vale. Entiendo: el acceso a los datos era el problema.

Alicia
Su solución implicó reorganizar cómo se hacían los cálculos, dividirlos en flujos paralelos usando lo que se llaman kernels. Esta idea de procesamiento en flujos evolucionó con el tiempo en lo que las GPUs hacen tan bien.

Beto
Eso al principio no era para IA. ¿Cuándo ocurrió el cambio?

Alicia
El punto de inflexión grande parece ser alrededor de 2010–2011. Mencionó un desayuno que tuvo con Andrew Ng.

Beto
Andrew Ng, sí, famoso investigador de IA. ¿Qué pasó?

Alicia
Ng estaba haciendo un experimento para conseguir que un sistema reconociera gatos en vídeos en línea. Y estaba usando algo así como 16.000 CPUs.

Beto
16.000 CPUs para encontrar gatos. OK.

Alicia
Y Nvidia logró replicar todo el experimento usando solo 48 de sus GPUs.

Beto
Wow. 48 frente a 16.000. Una diferencia tremenda en eficiencia.

Alicia
Exacto. Huang dijo que se convenció por completo en ese momento. Vio que el aprendizaje profundo necesitaba ese tipo de procesamiento masivamente paralelo. Y las GPUs eran perfectas para ello. Ya no era solo para gráficos: tenían aplicaciones que podían cambiar el mundo.

Beto
Es asombroso cómo estas tres cosas — los algoritmos de Hinton, los datos masivos de Li y la computación paralela de Huang — tuvieron que converger después de décadas de trabajo independiente; cada una era esencial. Quita una y probablemente no tendríamos esta explosión de la IA ahora.

Alicia
Es, de verdad, una historia de sinergía. Décadas de trabajo separado por fin alineándose justo en el momento correcto.

Beto
Esa convergencia nos lleva de lleno al presente. Esta construcción masiva. Todo el mundo ve la inversión, el bombo, y la gran pregunta que todo el mundo se hace: ¿es esto otra burbuja tecnológica? Como el crash punto com.

Alicia
Sí, es inevitable preguntarlo. Pero Jensen Huang, otra vez, hace un argumento muy interesante de por qué no es lo mismo. Traza un contraste claro con la era punto com. Además, señala que entonces se tendió muchísimo cable de fibra óptica. Pero la mayor parte quedó oscura. Fue infraestructura levantada sobre la especulación; una demanda futura que no llegó de inmediato.

Beto
OK, se construyó y no se usó. Hoy, ...

Alicia
Hoy, dice, casi todas las GPUs que Nvidia fabrica están encendidas y se usan de inmediato. La demanda no es especulativa. Es real e intensa.

Beto
¿De dónde viene esa demanda?

Alicia
Él argumenta que la impulsa el encuentro de dos curvas exponenciales. Primero, la cantidad pura de computación necesaria para entrenar y ejecutar estos modelos sigue creciendo exponencialmente para obtener mejores resultados.

Beto
Correcto: modelos más grandes requieren más potencia.

Alicia
Y segundo, el uso de esos modelos por empresas y por individuos también está creciendo exponencialmente. Así que es una doble oleada de demanda.

Beto
También usó otra analogía sobre cómo la IA no es como el software antiguo.

Alicia
Sí, fue poderosa. Dijo que el software tradicional se compilaba una vez y se distribuía; era estático. Pero la IA necesita ser consciente del contexto. Debe generar su “inteligencia” en tiempo real, según la situación.

Beto
Entonces es menos como enviar un producto acabado y más como operar una utilidad.

Alicia
Exacto. Llama a los centros de datos "fábricas de IA". Argumenta que hacen falta cientos de miles de millones de dólares en estas fábricas para producir la inteligencia necesaria para servir a industrias por billones de dólares. Porque esta IA no es solo entretenimiento. Está aumentando la productividad de trabajadores.

Beto
Está haciendo trabajo real. Esa es una imagen convincente: Trabajo real, demanda que utiliza hardware.

Pero Yann LeCun mencionó específicamente el riesgo de burbuja. Si la demanda es tan real, ¿dónde ve él el riesgo?

Alicia
LeCun añade una matización crucial. En gran medida está de acuerdo con que la inversión en hardware está justificada para las aplicaciones actuales: dispositivos más inteligentes que podamos llevar puestos, mejores búsquedas, traducción, etc. Eso es valor real.

Beto
¿Cuál es el riesgo entonces?

Alicia
El riesgo de burbuja que ve está ligado específicamente a la creencia, al bombo, tal vez, de que el enfoque actual — principalmente los grandes modelos de lenguaje, LLM — puede escalar indefinidamente hasta alcanzar una inteligencia a nivel humano sin necesitar ideas fundamentalmente nuevas.

Beto
OK. Entonces el riesgo no es que el hardware sea inútil. Es apostar demasiado a que ese tipo de software sea la respuesta final a la AGI.

Alicia
Precisamente. Advierte contra asumir que más datos y más cómputo con la arquitectura actual nos llevará hasta el final. Mientras tanto, los modelos en sí se están volviendo más eficientes.

Beto
¿Cómo ocurre eso?

Alicia
Los ingenieros están encontrando formas ingeniosas de optimizarlos: cosas como "atención por consultas agrupadas" (GQA, "Group Query Attention") o "atención multi-nivel" (MLA, "Multi-Head Level Attention"), básicamente maneras más rápidas para que el modelo acceda y priorice la información que necesita.

Beto
Así que la tecnología mejora y la demanda parece real.

Alicia
Y el consenso entre muchos es que apenas hemos arañado la superficie: quizá estamos en el 1% de la demanda última por este tipo de computación. Además, el hardware subyacente — las GPUs — sigue siendo increíblemente valioso para el cómputo paralelo, incluso si los modelos de IA que se construyan encima cambian significativamente.

Beto
La advertencia de LeCun sobre la necesidad de nuevos avances lleva perfectamente al siguiente gran tema: las fronteras científicas.

Si los ingenieros están escalando a toda prisa, ¿qué dicen los pioneros que falta exactamente? ¿Qué sigue científicamente?

Alicia
Ahí es donde se pone realmente interesante. Yoshua Bengio, por ejemplo, sugiere que probablemente deberíamos dejar de llamarlos solo “modelos de lenguaje”.

Beto
¿Ah, y cómo propone llamarlos?

Alicia
Prefiere “agentes”. Porque el siguiente paso no es solo predecir texto. Son sistemas que pueden ejecutar una secuencia de acciones, interactuar con un entorno, tomar decisiones, usar herramientas, conectarse a distintos recursos de cómputo. Es un cambio de predicción pasiva a acción activa.

Beto
Del lenguaje a la acción.

¿Cuál es, sin embargo, la mayor brecha que identificaron?

Alicia
Fei-Fei Li destacó algo enorme: la brecha en la inteligencia espacial.

Beto
Inteligencia espacial, como entender el mundo físico.

Alicia
Exacto. Piénsalo. Mucha de la inteligencia humana y animal está anclada en percibir el mundo, entender el espacio, manipular objetos, predecir consecuencias físicas, percepción y acción.

Beto
Y la IA actual tiene dificultades con eso. Incluso las más avanzadas.

Alicia
Es asombroso. Señaló que los modelos más avanzados de hoy — los que pueden, por ejemplo, aprobar exámenes de abogacía, escribir poesía, hacer razonamiento complejo — a menudo fallan en pruebas rudimentarias de inteligencia espacial.

Beto
¿Qué tipo de pruebas?

Alicia
Cosas sencillas que implican entender el espacio 3D, la permanencia de los objetos, intuición básica de física, relaciones causales en el mundo físico. Pueden manipular símbolos de forma brillante, pero les falta un modelo causal e intuitivo profundo de cómo funciona el mundo.

Beto
¿Por qué es eso?

Alicia
Porque aprenden a partir de texto, que es abstracto y simbólico. No han aprendido verdaderamente a partir de la interacción con una rica realidad física como nosotros lo hacemos. Yann LeCun lo subraya también. Él dice a menudo que todavía no tenemos robots tan listos como un gato.

Beto
Tan listo como un gato.

Alicia
Piénsalo. Un gato tiene una comprensión innata de física, navegación, predicción. Tiene un modelo robusto de su entorno. Él argumenta que si ni siquiera podemos replicar eso, sugiere fuertemente que falta una pieza científica fundamental. No es solo escalar datos y cómputo con los métodos actuales; necesitamos nuevos paradigmas.

Beto
Y eso inevitablemente nos lleva a la gran pregunta: la AGI —¿qué tan lejos está? El panel dio respuestas muy distintas, ¿no?

Alicia
Definiciones y cronologías radicalmente diferentes. En un extremo está Jensen Huang de nuevo. Su visión es, básicamente, que ya estamos allí.

Beto
¿Ya estamos allí? ¿Cómo lo define?

Alicia
En términos de inteligencia útil para la sociedad: argumenta que la AGI ya puede realizar tareas cognitivas valiosas en muchos dominios distintos. Así que debatir si coincide exactamente con la inteligencia humana se convierte, en sus palabras, en una cuestión académica; la tecnología seguirá mejorando y haciéndose más útil de todos modos.

Beto
OK, una definición pragmática centrada en la utilidad.

Alicia
Correcto. Fei-Fei Li añadió una matización importante: no debemos esperar que la inteligencia de las máquinas sea idéntica a la humana. Las máquinas ya nos superan en cosas concretas, como reconocer miles de objetos o traducir idiomas al instante.

Beto
Su analogía fue con los aviones.

Alicia
Vuelan, pero no vuelan como los pájaros. La inteligencia de las máquinas está diseñada para fines propios. Es distinta, pero poderosa y funcional a su manera.

Beto
Entonces, si es diferente, ¿cuál es el objetivo general? ¿Reemplazo?

Alicia
No: el consenso fuerte en el panel, y en gran parte del campo, parece ser la augmentación, complementar las capacidades humanas, dejar que la IA se ocupe del machaque de datos, del reconocimiento de patrones, de los cálculos complejos.

Beto
Para que los humanos puedan centrarse más en la creatividad, el pensamiento crítico, la empatía y el juicio ético, aspectos con los que las máquinas aún batallan.

Alicia
Precisamente. Esa parece ser la visión ampliamente compartida.

Beto
Pero cuando se les pidió plazos concretos para la AGI, aun definiéndola de forma distinta, la respuesta fue muy variada.

Alicia
Jeffrey Hinton dio un criterio específico: definió la AGI, a efectos del debate, como una máquina capaz de ganar consistentemente un debate intelectual contra un humano.

Beto
OK, una especie de test de Turing aumentado. ¿Su plazo?

Alicia
Dijo que cree que eso llegará bastante definitivamente en 20 años.

Beto
Veinte años. ¿Y LeCun?

Alicia
LeCun lo miró desde otro ángulo. Se centró en la capacidad de planificación, que está mejorando a un ritmo exponencial. Extrapoló esa tendencia y sugirió que una IA capaz de realizar las tareas complejas de, por ejemplo, un trabajador del conocimiento típico podría estar lista en unos cinco años.

Beto
Cinco años, mucho antes.

Alicia
Pero inmediatamente añadió una gran salvedad: eso es solo extrapolar la tendencia actual. Hay una enorme incertidumbre. No es una predicción firme.

Beto
Entonces, juntándolo todo, ¿qué significa esto para quien nos escucha ahora? Parece que claramente estamos en un momento increíblemente pivotal. La IA ya está cambiando las cosas, gracias a una ingeniería asombrosa y al escalado: los datos, el cómputo y los algoritmos finalmente hicieron clic.

Alicia
Totalmente. La utilidad es innegable. Pero —y esta es la parte crítica— las mismas personas que comenzaron esta revolución, Hinton, LeCun, Li, Bengio, son las que nos dicen que esto no es el final. El éxito actual es increíble, pero no es la AGI definitiva.

Beto
Todavía hay obstáculos científicos fundamentales.

Alicia
Grandes, especialmente en torno a entender el mundo físico: la brecha de la inteligencia espacial, la causalidad. Creen que probablemente se necesiten arquitecturas totalmente nuevas, ideas nuevas más allá de solo escalar los LLM actuales para llegar a una inteligencia general realmente robusta, del tipo que tiene sentido común.

Beto
Así que estamos en una fase fascinante. Por un lado, los ingenieros empujan la tecnología actual hasta sus límites, satisfaciendo una demanda real y enorme. Y, al mismo tiempo, los científicos — a menudo las mismas personas — miran más allá, buscando el siguiente gran avance fundamental.

Alicia
Exacto: dos fuerzas trabajando casi en paralelo, escalando el presente mientras buscan los principios del futuro. Y recuerda que empezaron esta búsqueda buscando principios simples, como las leyes de la física. Entonces, si la IA más avanzada de hoy puede dominar el pensamiento abstracto y aun así fallar en pruebas básicas de intuición física que un animal sencillo podría pasar, ¿cuál es ese principio fundamental que falta? ¿Cuál es la ley del cómputo aún no descubierta que la próxima generación necesita encontrar antes de que la IA pueda realmente comprender el sentido común de la realidad que navegamos cada día?

Beto
Esa es la pregunta, ¿no? Qué ley falta. Un pensamiento fantástico con que quedarse masticando.

Gracias por acompañarnos en este análisis profundo.

Alicia
Gracias por invitarme.

Beto
Nos vemos la próxima vez.