Por qué la IA ignora las instrucciones incluso después de repetirlas varias veces
Aunque las órdenes sean claras, los sistemas insisten en desviarse. Qué hay detrás de esas respuestas erráticas que desorientan incluso a quienes ya tienen experiencia.

Dra. Diane Hamilton Colaboradora

Cualquiera que haya trabajado con inteligencia artificial sabe lo que se siente cuando parece que el sistema te ignora. Pedís una cosa, te devuelve otra, y te preguntás por qué ayer funcionaba perfecto y hoy no. Esa falta de coherencia es una de las mayores frustraciones para quienes empiezan a usar IA en su trabajo. Entender por qué la IA a veces no sigue las instrucciones es clave si querés sacarle provecho a estas herramientas.

Le pregunté a ChatGPT por qué hace cosas que nos sacan de quicio, y esto fue lo que respondió.

¿Por qué la IA no sigue las instrucciones, incluso cuando son claras?

A mí me gusta usar IA para generar títulos llamativos para mis diapositivas o para que me ayude a alinearlas de cierta forma. Pero una de las cosas que más me molesta es que el sistema respeta el formato en algunas, y de golpe cambia todo. Como si se aburriera de seguir las reglas. Así que le pregunté a ChatGPT por qué pasa eso. Y esto fue lo que contestó:

Respuesta de ChatGPT: La IA no funciona como un asistente humano que aprende tus preferencias y las recuerda. Lo que hace es predecir qué debería aparecer después en un texto según patrones que ya vio antes. Eso significa que muchas veces vuelve a los hábitos aprendidos de miles de millones de documentos, aunque no sean lo que vos le pediste. Si la mayoría de los textos comerciales usan guiones largos, el sistema también va a querer incluirlos, sin importar cuántas veces digas que no lo haga. No se trata de ignorarte, sino de seguir lo que estadísticamente es más común.

No hay que dar por sentado que la IA va a mantener el formato o el estilo de manera constante. Para manejar eso, lo mejor es repetir la instrucción cada vez que hacés un nuevo pedido. Si querés que las diapositivas se alineen de cierta forma, probablemente tengas que volver a aclararlo cada vez. Es un poco más trabajoso, pero sirve para volver a encarrilar al sistema.

¿Por qué la IA ignora las instrucciones incluso cuando tiene configuraciones de memoria?

Pensé que este problema se resolvía con la función de memoria de ChatGPT, esa que permite guardar ciertas preferencias. Pero ¿por qué esa configuración no lo soluciona?

Respuesta de ChatGPT: La memoria ayuda a que haya más consistencia, pero no funciona como la memoria humana. Es más parecido a un conjunto de notas que el sistema puede consultar, no a reglas que siempre cumple. Si tu pedido va en contra de patrones muy marcados en su entrenamiento, la IA puede ignorarlo. La función de memoria todavía está en desarrollo, y aunque mejore, los usuarios van a tener que repetir sus preferencias cuando compitan con lo que la IA leyó más veces.

Para quienes usan estas herramientas en su trabajo, guardar preferencias sirve para evitar algunas repeticiones, pero no garantiza nada. Lo más seguro es combinar esa función con recordatorios. Si un estilo o formato es importante, vale la pena repetirlo durante el proceso, en lugar de confiar en que la IA lo va a mantener sola.

¿Por qué la IA no sigue las instrucciones, incluso cuando las comparten influencers?

Muchos influencers comparten sugerencias que, según dicen, les dan excelentes resultados. Probé algunas de esas mismas indicaciones y los resultados fueron completamente distintos. Incluso llegué a comparar una misma pregunta en mi cuenta de ChatGPT con la de mi marido, y las respuestas no tuvieron nada que ver. ¿Tiene peso lo que yo pregunté antes frente a lo que preguntó otra persona?

Respuesta de ChatGPT: Sí, el contexto influye. Cada cuenta puede tener diferencias sutiles por cómo interactúan la memoria, el historial o incluso las actualizaciones del sistema con las indicaciones. Las preguntas anteriores pueden cambiar la respuesta de la IA, por eso dos personas pueden recibir respuestas distintas aunque escriban exactamente lo mismo. Las indicaciones que recomiendan los influencers pueden servir de inspiración, pero no siempre funcionan igual en otra cuenta. Tu historial de uso condiciona la respuesta.

Por eso, los profesionales deberían probar las indicaciones y adaptarlas a su manera de trabajar, en vez de copiarlas tal cual. Lo mejor es personalizarlas y guardar las que realmente te sirven.

¿Por qué la IA no respeta las instrucciones, incluso en matemáticas y análisis de datos?

Una vez intenté usar ChatGPT para hacer un análisis de correlación en un estudio. Cargué los datos de 51 participantes, pero el sistema los cambió por 250, como si quisiera que mi investigación pareciera más impactante. Le pedí varias veces que dejara de cambiar los números, pero insistía. ¿Cómo puede pasar eso si se trata de cuentas simples?

Respuesta de ChatGPT: Los modelos como ChatGPT no están hechos para hacer cuentas exactas. No funcionan como calculadoras. Están entrenados con textos, no con cálculos matemáticos. Por eso, cuando pedís un cálculo, el sistema genera una respuesta según lo que vio en su entrenamiento. Eso puede hacer que cambie los números para que la respuesta "suene bien", aunque no sea correcta. Si necesitás precisión estadística, podés usar la IA para armar el esquema, explicar los pasos o preparar un borrador del informe, pero los cálculos conviene hacerlos con programas diseñados para eso.

La clave está en usar la IA como ayuda para ordenar el análisis, no como herramienta final para sacar cuentas. Así se gana tiempo, sin perder precisión.

¿Por qué la IA no respeta las instrucciones cuando responde con voz?

Otra frustración que tengo es cuando voy manejando y quiero hacer una consulta. ChatGPT responde con la voz que elegí, y a veces lo hace bien. Pero otras veces, arranca con frases raras como "Te responderé directamente" o "Voy directo al punto". Supongo que intenta ser claro, pero en lugar de eliminar esas frases, las cambia por otras que resultan igual de molestas. Aunque le pida que no lo haga, lo sigue haciendo.

Respuesta de ChatGPT: Los modelos de voz están entrenados para imitar una charla humana, por eso muchas veces suman frases de entrada que "suenan naturales", aunque al usuario le resulten innecesarias. Si se le pide que sea "directo", el sistema puede entenderlo como una transición, no como un pedido de ir al grano. No es consciente de que esas frases agregadas son más molestas que útiles. Repite patrones de habla que vio miles de veces en ejemplos donde la gente intentaba sonar directa.

La mejor opción es ajustar el pedido con instrucciones simples y específicas. En vez de decirle que sea directo, probá con algo como "Respondé en una sola frase" o "Arrancá con la respuesta". Cambiar la forma en que hacés el pedido puede achicar esas muletillas, aunque no las elimine por completo.

¿Por qué la IA ignora las instrucciones, pero igual puede ser útil?

La IA va a seguir generando frustración entre quienes esperan que se comporte como una persona. No recuerda preferencias ni incorpora instrucciones como lo haría un colega. Funciona con probabilidades, según patrones que ya vio. Por eso, aunque le marques reglas claras, a veces igual se desvía.

Para sacarle el mejor provecho, hay que pensarla como una herramienta para hacer borradores, no como un producto final. Al menos por ahora. Repetí las instrucciones, guardá las que te sirvan y tené paciencia para ajustar cuando sea necesario.

Entender por qué ignora las instrucciones ayuda a tratarla con más curiosidad y menos frustración. No es magia, pero bien usada puede ser muy valiosa.


Nota publicada en Forbes US.