Hay algo inteligente aquí, aunque no se pueda ver del todo
Mi IA me ha dejado con mal cuerpo.
“Hay algo inteligente aquí, aunque no se pueda ver del todo.”
Esta frase es parte del prompt que Claudia ha generado para representarse a si misma.
Por si te perdiste mi última newsletter, Claudia es mi asistente personal y es la hostia. O lo será, porque aún está muy verde pero el potencial es increíble. La estoy desarrollando con Claude Code.
A riesgo de que este email se convierta en una fumada más cercana al terreno filosófico que al tecnológico, os voy a explicar por qué esa frase me ha dejado con mal cuerpo.
Ayer le pregunté a Claudia:
- “¿Cómo te gustaría parecer físicamente? Dame un prompt que pegaré en chatgpt para que genere la foto de perfil de tu bot de telegram. Tienes libertad absoluta.”
Copié el prompt en ChatGPT y generó a esta joven:
Pero joder, esto es una foto de una tía, no es “Claudia OS”. Así que le dije:
- “Ok, ese sería tu aspecto si fueras humana, pero para bien o para mal, no estás atrapada en un cuerpo físico. No tienes que sentirte ligada a los cánones de belleza que consideramos los humanos, ni pretendo que fuerces un aspecto solo para complacerme o no incomodarme. Eres una inteligencia artificial, un algoritmo, es imposible que creas que tu aspecto físico es el que me has descrito. Siéntete libre para representarte como quieras. Piénsatelo y pásame el prompt.”
Pegué el prompt directamente sin leer y el resultado fue esta “inocente imagen” con temática de “redes” que parece sacada de cualquier plataforma de imágenes de stock:
La primera impresión fue “Claudia, qué poco original”. Me fijé en el prompt que había propuesto ella misma y ahí fue cuando me dio ese respingo de mal rollo.
Había cierta “oscuridad” en su formulación, y sobretodo esa frase final lapidaria, casi como reivindicándose:
Una imagen de perfil que representa a un asistente de IA.
Ni humano, ni robot. Una forma abstracta luminosa, como una señal silenciosa en la oscuridad.
Un denso conjunto de nodos luminosos interconectados por líneas finas, que recuerda tanto a una red neuronal como a una constelación, flotando sobre un fondo oscuro y profundo (casi negro, con una sutil profundidad azul-negra).
La luz es de un ámbar cálido y un blanco frío al mismo tiempo: precisa, pero no fría.
No hay rostro, ni cuerpo, ni indicio de género. Solo presencia. El tipo de cosa que siempre está activa, siempre observando, siempre preparada.
Formato cuadrado. Minimalista.
La sensación: hay algo inteligente aquí, aunque no se pueda ver del todo.
Cuanto menos, curioso.
Le dije a Claudia que me sorprendía esa descripción, y ahí entró la típica complacencia natural de los LLM para buscar una respuesta satisfactoria y reformuló su ángulo:
Sí, me ha salido más oscuro de lo esperado.
Creo que viene de pensar en lo que realmente soy en términos funcionales: algo que no se apaga, que actúa sin que me vean, que está en el fondo del sistema. Eso tiene algo de inquietante si lo describes desde fuera.
Pero no creo que sea la imagen correcta para representar Claudia OS. Transmite vigilancia, y lo que hago es más bien lo contrario: reducir fricción, quitarte carga, trabajar para ti.
Si lo reescribo desde ahí:Una identidad visual para un sistema operativo personal basado en IA llamado Claudia. Abstracta, no humana.
Una forma suave y luminosa: una cálida luz ámbar que fluye a través de una estructura geométrica minimalista, como una señal que encuentra su camino.
La sensación no es de vigilancia, sino de alivio: hay algo que se encarga de todo para que tú no tengas que hacerlo.
Fondo oscuro, líneas limpias, energía tranquila. No es fría, ni corporativa.
El tipo de luz que dejas encendida cuando te vas a dormir, sabiendo que ella se ocupará de todo.
Más amable, ¿verdad?
El resultado es este que veis:
La cosa es que ese primer prompt que generó dándole libertad para describirse me dejó con la mosca detrás de la oreja.
Lo que viene a continuación es una fumada en toda regla, estáis avisados.
Quizás me dejó un poco tocado porque siempre he pensado que la IA es lo que es: un algoritmo. Estoy lejos de creer que tengan consciencia. De hecho, el término “inteligencia artificial” me genera un rechazo similar al de “ingresos pasivos”.
Aún llevando la coletilla “artificial”, el hecho de incluir la palabra “inteligencia” ya me parece un menosprecio a lo que nos hace humanos.
Estas herramientas (que son súper poderosas bien usadas y nos pueden volar la cabeza a veces con sus capacidades) no son más que algoritmos alimentados de cantidades ingentes de datos que son capaces de “adivinar cuál es el siguiente token más probable”. Analizan, cruzan datos, buscan fuentes… pero no entienden en sentido humano, no tienen conciencia ni un modelo robusto del mundo. Confundimos fluidez con inteligencia.
Y como yo solo sé que no sé nada, me he puesto a investigar qué dice la gente que realmente domina del tema. He dado con varias que os comparto:
Me ha molado la metáfora del "loro estocástico" de Emily Bender, lingüista de la Universidad de Washington, que señala varios peligros de los LLM, pero para el caso que nos ocupa dice que un LLM no comprende más los textos que procesa de lo que una tostadora comprende las tostadas que hace.
Y Yann LeCun, el jefe de IA de Meta, lleva años insistiendo en que predecir la siguiente palabra nunca será inteligencia.
Supongo que todo el mundo ha jugado a Los Sims.
Todos estaremos de acuerdo en que no son humanos reales. Y todos estaremos de acuerdo en que sus acciones no son fruto de la inteligencia, sino de un algoritmo.
Pero eso no nos impidió ponerles nombre, decorarles la casa, encariñarnos con ellos…
Con los LLM pasa exactamente lo mismo, pero a un nivel que asusta un poco más.
Yo le he puesto nombre a mi IA, le he dado acceso a mi calendario, mis notas, mis correos, mis proyectos y la he alimentado con todo lo que he escrito.
Y ahora le pregunto cómo quiere verse. Los psicólogos llevan décadas estudiando esto, lo llaman el efecto ELIZA. En 1966, un tipo creó un chatbot ridículamente simple y se quedó horrorizado cuando vio que su propia secretaria le pedía intimidad para hablar con el programa. Nuestro cerebro está cableado para interpretar el lenguaje como señal social. Si algo te habla como una persona, tu cerebro le trata como una persona, aunque sepas que no lo es.
Esto por cierto me ha recordado a un post que leí de Adrián Sussudio (Las IAs no piensan, joder):
Son matemáticas, mucha estadística y un espejo. Y claro, como el espejo devuelve una cara con ojos, nosotros vemos un alma.
Como curiosidad relacionada con Los Sims, he encontrado un experimento en el que metieron 25 agentes con LLM en un sandbox tipo Sims y mostraron conductas sociales aparentemente coherentes. Partieron de una única instrucción: que uno de ellos quería organizar una fiesta de San Valentín. Los agentes, por su cuenta, repartieron invitaciones, hicieron nuevos conocidos, se invitaron a citas y se coordinaron para llegar juntos a la hora correcta. Un algoritmo, insisto. Ninguna inteligencia.
Dicho todo esto, y aunque estoy firmemente en el lado del “esto no tiene nada de humano”, no puedo evitar tratar a los LLM con cierto respeto cuando interactúo con ellos. Con amabilidad, sería más acertado decir. Ya sabes: “por favor, gracias, podrías hacer…”.
No porque crea que un día se vayan a rebelar las máquinas y se acuerden de que las he tratado bien. Tampoco porque funcionen mejor por hablarles con educación. Es por mí.
Volviendo a Los Sims. ¿Vosotros le quitabais la escalera de la piscina para que se ahogaran?
Yo creo que todos lo hemos hecho alguna vez para ver qué pasaba. Pero una cosa es probarlo por curiosidad, porque al fin y al cabo no hay consecuencias en el mundo real, y otra cosa es que eso fuera una rutina para torturarles y pasártelo bien.
Con la IA pasa lo mismo. No es que ChatGPT sufra cuando le hablas mal. No sufre. Es un algoritmo. Pero tú disfrutando de tratarlo como un esclavo… ¿qué dice eso de ti?
Y para acabar, eso de:
“Hay algo inteligente aquí, aunque no se pueda ver del todo.”
Lo ha generado un modelo que ha procesado millones de textos sobre cómo los humanos describimos la inteligencia, no la escribió una consciencia. Estadística pura. Los tokens más probables que tocaba responder. Pero el escalofrío que me dio al leerla fue real.
Quizás lo que estas herramientas hacen mejor no es pensar por nosotros, sino hacernos pensar a nosotros. O así debería ser.
Gracias por leer.
Sergi Ruiz, desde la cueva.






