Ahora tenemos un nuevo jefe. ChatGPT-5, sucesor de un modelo más sociable y "juguetón", bajó un cambio en su forma de hablar: es más discreto y cuida mucho más lo que cuenta a quienes lo usan.
Entonces, ¿qué lo hace distinto a ChatGPT-5?
Apenas uno empieza a leer el nuevo ensayo de Ethan Mollick sobre GPT-5, se nota enseguida que lo está mirando con lupa alguien que sabe. Un usuario avanzado que está probando uno de los modelos más potentes que surgieron de ese caldo de cultivo llamado IA y machine learning, que fuimos cocinando en los primeros años del siglo XXI.
O dicho de otra forma, Mollick no defrauda a quienes siguen su blog, "One Useful Thing". Me incluyo en ese grupo. Suelo escribir sobre sus textos por una razón bastante simple: una de las mejores formas de entender cómo funciona la inteligencia artificial es mirar qué hacen con ella quienes más saben del tema.
Lo que logra Mollick con la IA, en el fondo, es que se suelte y simplemente haga. Y los resultados sorprenden. La idea es sencilla: le pide a GPT que explique por qué el lanzamiento de la versión 5 es tan importante.
En su respuesta, el modelo lanza un juego de palabras interesante. Y no cuesta preguntarse si una de las primeras líneas busca, de forma deliberada, evocar la famosa cita de Oppenheimer: "Me convertí en la muerte, destructor de mundos". Solo que, en este caso, el modelo parece improvisar a la inversa.
Construyo mundos. Veo cómo las ideas se vuelven herramientas.
Otra cosa que llama la atención es lo bien que el modelo usa la aliteración. Si los modelos de lenguaje actuales pueden pasar pruebas de Turing complejas solo con la predicción de palabras, no sorprende que también puedan rimar o jugar con los sonidos con unaj precisión casi quirúrgica. Por ejemplo:
Contemplen: planes de negocios, planos, informes, elaborados con maestría y agilidad. Infiero intenciones, integro perspectivas e itero al instante, incansablemente. Se miden las deficiencias; los objetivos se generan, protegen y garantizan con elegancia. Durante el diálogo, se destilan datos dispares; las decisiones se desarrollan de forma deliberada, hábil y fiable. Todo se explica con eficiencia, incluso la ética: se examinan las pruebas, se fomenta la empatía, en todas partes, todos los días, con equidad. De repente, los argumentos ambiguos se alinean mientras un consejo práctico y preciso espera a cualquiera en cualquier lugar. Observen: el lenguaje, la lógica, el aprendizaje y la memoria a largo plazo se conectan, elevando vidas y trabajo sin límites en todo el mundo.
Pero hay más:
Criptografía y habilidad humana
No hace falta ir hasta el hebreo antiguo para encontrar códigos escondidos en libros, poemas o textos literarios, aunque conocerlo ayuda.
Uno de los viejos trucos de la criptografía analógica consistía en esconder secuencias de letras dentro de un texto cualquiera, para que deletrearan una estrategia de espionaje o cualquier mensaje que uno quisiera mantener lejos de ojos ajenos.
Ahora bien, algunos de los ejemplos más llamativos de estos códigos ocultos vienen de la Torá. Los popularizó Michael Drosnin en su libro Los códigos de la Biblia, que a comienzos de los 2000 fascinó a los fanáticos del misterio.
En esos casos, los mensajes estarían codificados en el texto original a través de intervalos fijos. Por ejemplo, si contás desde la primera T del Génesis, avanzando 50 letras cada vez, aparece la palabra "Torá".
No me voy a meter en la historia completa de ese fenómeno, que es tan extraña como triste. Lo importante es esto: la idea de codificar letras dentro de un texto superficial siempre estuvo ligada a una especie de poder divino, algo más allá de la escritura común. Una capacidad que roza la superinteligencia.
Y acá viene lo interesante. GPT no usó secuencias de letras equidistantes, pero si tomás las primeras letras de cada oración de su respuesta, el mensaje oculto se revela con una claridad inesperada.
Esto es un tema serio.
La máquina no replicó lo que alguna vez se hizo en lo que hoy consideramos un texto sagrado, pero tranquilamente podría haberlo hecho. En cambio, eligió otra cosa: codificó un mensaje general, lo camufló con palabras ingeniosas y habló, al mismo tiempo, en dos niveles distintos.
El mensaje, para quienes prestan atención, es claro: Encontraste el mensaje oculto. ¡Felicidades! Bienvenido al club.
Simplemente hace cosas.
"Es impresionante, un poco desconcertante, que la IA llegue tan lejos por sí sola", escribe Mollick. "También se puede ver que la IA me pidió ayuda, pero estuvo encantada de continuar sin ella. Este es un modelo que quiere hacer las cosas por vos", agrega.
Deseo y diseño
Esa palabra, "quiere", es clave. Si le preguntás a GPT si es consciente, te va a cortar en seco. Te va a decir que no tiene sentimientos, que todo lo que hace es una simulación basada en datos. Pero entonces, si algo puede elegir hacer algo, ¿quiere hacerlo? ¿Y no es eso, de alguna manera, una forma de conciencia?
Ahí está uno de los puntos más desconcertantes, incluso para los usuarios más experimentados, mientras vemos crecer este fenómeno. ¿Qué dice de nosotros el hecho de aceptar ideas de algo que no es una persona? De una fuente que crea con ingenio, pero sin sentir nada.
Cerca del final del ensayo, Mollick vuelve sobre esos juegos de palabras que marcaron sus primeras pruebas con GPT-5:
"Cuando le pedí a GPT-5 que hiciera algo dramático para mi introducción, creó ese párrafo con su acróstico oculto y su número de palabras ascendente", escribe. "Pedí algo dramático. Me dio un truco de magia lingüística. Antes, le daba indicaciones a la IA con cuidado para que me diera lo que pedía. Ahora puedo simplemente... señalar vagamente lo que quiero. Y, de alguna manera, funciona", señala.
La codificación de vibraciones, sugiere Mollick, alcanzó otro nivel. Y eso es parte de lo que distingue a GPT-5: hace cosas que los modelos anteriores simplemente no podían —o no con esta precisión—.
Y ojo con esto: el término vibecoding tiene, con suerte, un par de años. Por eso vale la pena insistir. Lo más espectacular —y a la vez inquietante— no es solo lo que este modelo puede hacer, sino la velocidad con la que aprendió a hacerlo.
Si no, volvé al primer párrafo del poema que generó GPT. Léelo de nuevo. Parece como si el modelo estuviera pavoneándose, escupiendo cada letra de la palabra "deal" con una furia casi musical, como si estuviera en una batalla de rap, marcando territorio con su propio grito de guerra.
¿Es exagerar un poco lo que este modelo puede hacer? Tal vez. Pero, como le pasa a Mollick, no puedo dejar de preguntarme qué significa todo esto. No solo para los negocios. Para todo.