La guerra de narrativas en la IA
Dije que la IA no razonaba pero ya no lo tengo tan claro.
Hace un par de semanas os envié una newsletter donde venía a decir que esto de la IA no tiene nada de mágico ni de humano.
Que lo que sale de un LLM es estadística, predicción de tokens y un espejo bastante convincente donde nosotros proyectamos más de la cuenta.
Que ese escalofrío que me dio Claudia al describirse a sí misma no era más que el efecto ELIZA sin más.
Iba abrazado a mi loro estocástico con bastante seguridad.
Esa misma tarde me topé con un artículo de Antonio Ortiz que me desmontó bastante la seguridad con la que había escrito mi newsletter. Se titulaba “El loro estocástico ha muerto“ y me hizo replantearme varias cosas.
Luego hice lo que no hay que hacer cuando algo te pica la curiosidad y no te sobra el tiempo: ponerme a investigar durante días y acabar grabando un vídeo sobre el tema:
No os voy a meter aquí el guion entero porque bastante habéis hecho ya abriendo este email. Pero sí quiero dejar por escrito un par de ideas.
1) Lo de “solo predice la siguiente palabra” se ha quedado corto
Yo ese concepto lo tenía interiorizado desde que salió ChatGPT. Y en mi cabeza era algo parecido al teclado del móvil cuando escribes “hola” y te sugiere “qué” y luego “tal”.
Pero no. O al menos no de una forma tan simple.
Para predecir bien la siguiente palabra en una conversación real, el modelo tiene que captar quién habla, qué tono toca, qué hechos encajan, qué relación hay entre las ideas y qué pasos lógicos vendrían después. La palabra que sale es solo el resultado final. Todo el trabajo gordo pasa antes.
Y nadie le ha programado explícitamente lo que sabe. No hay una línea de código que diga que París es la capital de Francia. Eso ha emergido de ajustar miles de millones de parámetros para predecir texto cada vez mejor. La gramática, los hechos, el estilo, parte de la lógica: todo aparece por el camino.
Decir que un LLM “solo predice la siguiente palabra” es técnicamente cierto. Pero es como decir que los humanos “solo interconectamos neuronas”. Pues vale, pero no me estás contando gran cosa.
2) Aquí nadie defiende su postura gratis
Los que defienden que la IA ya muestra formas de razonamiento o de comprensión, es evidente que tienen intereses en que así lo parezca.
Hay empresas gigantescas, rondas de financiación obscenas y un incentivo muy claro para empujar la narrativa de “esto no es un loro, esto es el principio de algo mucho más bestia”.
Publican investigación muy seria, sí, pero también están jugando sus cartas. Cada avance técnico alimenta una narrativa que también les conviene.
Anthropic ($380B de valoración) publica estudios que muestran que su modelo planifica internamente.
OpenAI ($800B) lleva meses diciendo que la AGI está a la vuelta de la esquina, y entre declaración y declaración, ronda de financiación.
Ilya Sutskever llegó a tuitear en 2022 que quizá las grandes redes neuronales ya eran “ligeramente conscientes” y hoy lidera la startup SSI valorada en $32B, así que tampoco cuesta ver por qué le interesa esa narrativa.
Pero el otro bando tampoco está libre de presiones. También hay académicos, consultores, industrias creativas y gente muy metida en que esto siga pareciendo limitado, superficial o incapaz de comprender de verdad.
Chomsky, uno de los lingüistas más influyentes del mundo, se ha tirado 70 años defendiendo que el lenguaje es una capacidad innata del ser humano. Si un algoritmo lo domina a base de estadística, su marco teórico hace aguas.
Emily Bender, la autora del “loro estocástico”, lleva años muy asociada a esa metáfora.
Y Yann LeCun, que durante años como jefe de IA de Meta criticó los LLM, ha montado su propia empresa de $3.5B para construir “la alternativa”. Cada vez que dice que los LLM son un callejón sin salida está vendiendo su producto.
Mires donde mires, hay incentivos (muchos millones, si los medimos en dólares) para defender con uñas y dientes “su bando”. Y como casi nadie habla desde un lugar completamente neutral, empiezas a coger cada afirmación que hacen con pinzas.
La guerra no es solo tecnológica. También es narrativa.
3) ¿Y qué dice la ciencia?
Yo iba con la fantasía de que leyendo papers y estudios científicos encontraría claridad frente al ruido, pero lo que he encontrado es un panorama bastante caótico.
Por un lado, hay señales de que los modelos no se limitan a repetir. Hay trabajos como el test SkillMix de Princeton que sugieren que combinan conceptos de formas nuevas. Hay modelos de razonamiento que resuelven problemas de la Olimpiada Internacional de Matemáticas. Hay investigaciones recientes que encuentran correlaciones entre los modelos más grandes y regiones del cerebro asociadas al razonamiento, algo que con modelos anteriores no se veía.
Por otro lado, también ves cosas que te bajan a la tierra. Modelos que si les cambias un nombre en un problema de mates se despistan. Modelos que en un benchmark sacan un 87% y en la siguiente versión caen al 1%. Modelos que llegan a la respuesta correcta pero no explican de forma fiable qué han usado realmente para llegar ahí.
Las señales son contradictorias. Y cuanto más leo, menos cómodo me siento con las sentencias tajantes. Ya no me convence ni el “esto piensa” ni el “esto solo junta palabras”.
No sé si “razonar” es la palabra correcta. Tampoco tengo claro que “no razona” describa lo que está pasando. Creo que parte del debate es lingüístico, no de capacidades. Porque lo que sí parece evidente es que estos sistemas resuelven problemas, y cada generación lo hace mejor que la anterior.
Luego podemos discutir si eso merece llamarse inteligencia, comprensión o reconocimiento de patrones muy sofisticado. Pero el hecho está ahí.
Yo llevo meses metiéndole caña a estas herramientas. Las uso para desarrollar, para analizar, para automatizar tareas... Sinceramente, a día de hoy casi me resulta más fácil responder a “¿para qué no utilizas la IA?” que a “¿para qué la utilizas?”.
Y supongo que eso influye en cómo miro todo esto. Cuando una herramienta te acompaña tan de cerca en el día a día, cuesta despacharla con un “bah, solo predice la siguiente palabra” y quedarte tan ancho.
Si algo me ha quedado claro después de estos días es que todo el mundo tiene un interés oculto para venderte su moto.
Unos porque necesitan que parezca casi mágico, otros porque necesitan que parezca mucho menos de lo que es.
Yo, de momento, sigo sin tener respuestas firmes, pero por lo menos ahora sé que el debate no es solo tecnológico, sino también una guerra por el relato. Y en medio de todo eso, lo único que puedo hacer es seguir cacharreando y sacar mis propias conclusiones.
Gracias por leer.
Sergi Ruiz, desde la cueva.
PD: si os interesa el tema, en el vídeo entro en papers, ejemplos concretos y más nombres propios que aquí no cabían. Son 33 minutos de chapa, eso sí. Avisados quedáis.





Nos espera un futuro cercano fascinante (para el que le mola esto).