Anthropic se convirtió en la tercera empresa de inteligencia artificial cuyas conversaciones con usuarios terminaron siendo accesibles en los resultados de búsqueda de Google, sin intención. Se trataba de diálogos que los usuarios de su bot, Claude, decidieron "compartir".
Al igual que sucede con las funciones de compartir de ChatGPT y xAI, que generaron cientos de miles de conversaciones visibles desde el buscador, el botón de "compartir" de Claude creaba una página web para alojar cada intercambio. Eso les permitía a los usuarios difundir el enlace de esa charla.
Sin embargo, a diferencia de OpenAI y xAI, desde Anthropic aseguraron que bloqueaban los rastreadores de Google, lo que en teoría impedía que esas páginas fueran indexadas. A pesar de esa medida, cientos de conversaciones de Claude aparecieron en los resultados de búsqueda. Ya fueron eliminadas.
Entre los diálogos que quedaron expuestos había instrucciones del equipo de Anthropic para que el bot desarrollara apps, juegos y hasta un "simulador de oficina de comedia de Anthropic". Otros usuarios le pidieron que escribiera un libro, programara o resolviera tareas laborales que incluían nombres y correos electrónicos del personal.
En varios casos, las transcripciones permitían identificar a los usuarios por nombre o por los datos que compartían en los mensajes. Google estimó que llegó a indexar casi 600 conversaciones.
La vocera de Anthropic, Gabby Curtis, le dijo a Forbes que las conversaciones de Claude aparecieron en Google y Bing porque los usuarios publicaron los enlaces online o en redes sociales.
"Damos a los usuarios el control para compartir públicamente sus conversaciones de Claude y, en cumplimiento de nuestros principios de privacidad, no compartimos directorios de chat ni mapas de sitios de chats compartidos con motores de búsqueda como Google, y les impedimos activamente que rastreen nuestro sitio", explicó Curtis en un correo electrónico enviado a Forbes.
Sin embargo, Forbes habló con uno de los usuarios identificados por una de las conversaciones públicas de Claude, quien negó haber compartido online ese diálogo vinculado a temas laborales. El usuario pidió mantenerse en el anonimato por razones profesionales.
Hasta el cierre de esta edición, Google no respondió por qué esas transcripciones aparecieron en los resultados, pese a que Anthropic aseguraba bloquear a sus rastreadores. El lunes, los enlaces que estaban visibles dejaron de figurar en la página de resultados del buscador.
La presencia de transcripciones de chatbots en los resultados de búsqueda se volvió frecuente en los últimos meses. En julio, OpenAI pidió disculpas después de que los usuarios advirtieran que muchas de sus conversaciones de ChatGPT "compartidas" podían encontrarse online. Un mes más tarde, Forbes reveló que cientos de miles de transcripciones de Grok, el bot de xAI, también estaban indexadas y eran accesibles sin el conocimiento ni el consentimiento de sus usuarios.
Entre esas conversaciones había representaciones de violencia sexual, instrucciones para fabricar drogas y explosivos, e incluso un plan generado por Grok para asesinar a Elon Musk. En ese momento, xAI no respondió a la consulta de Forbes.
OpenAI ofrecía a los usuarios la opción de volver sus conversaciones de ChatGPT "detectables", con la advertencia de que eso las haría visibles en Google. En cambio, Grok no alertaba que las charlas compartidas podían ser indexadas por los motores de búsqueda.
En agosto, OpenAI eliminó el botón de compartir y lo definió como "un experimento de corta duración". "Creemos que esta función generó demasiadas oportunidades para que las personas compartieran accidentalmente información que no pretendían, por lo que la eliminamos", explicó Dane Stuckey, director de seguridad de la información de la compañía, en una publicación en X. La empresa también señaló que trabaja para sacar de los buscadores las conversaciones de ChatGPT.
Al igual que xAI, Anthropic tampoco advirtió a los usuarios que sus conversaciones podían hacerse públicas. Sin embargo, a diferencia de xAI, mantuvo la privacidad de los archivos que los usuarios subían a Claude, incluso cuando se incluían en chats compartidos. De ese modo, documentos con código sensible o información laboral no quedaron expuestos. Aun así, en algunos casos revisados por Forbes, las respuestas del bot a esos archivos incluían citas textuales de fragmentos que sí quedaron publicados en las transcripciones.
Anthropic aseguró que da instrucciones a los rastreadores web para que no indexen las páginas compartidas, a través de su archivo robots.txt, un protocolo online que los dueños de sitios utilizan para comunicarse con los motores de búsqueda. Sin embargo, esa solicitud no garantiza que los buscadores la respeten.
La propia empresa de inteligencia artificial recibió quejas de dueños de sitios web por la "atroz" extracción de datos realizada por sus rastreadores. Algunos incluso señalaron que Anthropic ignoró las instrucciones del robots.txt. En junio, Reddit presentó una demanda contra la compañía por ese motivo. En ese momento, desde Anthropic dijeron que respetaban a los editores y trataban de no ser "intrusivos ni disruptivos".
La semana pasada, Anthropic cerró un acuerdo por US$ 1.500 millones con un grupo de autores que la acusaban de usar libros pirateados para entrenar sus modelos. La empresa no admitió ninguna irregularidad.
Con sede en el Área de la Bahía, el laboratorio de inteligencia artificial acaba de recaudar US$ 13.000 millones, con una valoración que alcanzó los US$ 183.000 millones. Además, modificó recientemente sus propias reglas sobre el uso de las conversaciones con Claude. El mes pasado, a través de una actualización en su política de privacidad, anunció que usará los chats de los usuarios para entrenar sus modelos de inteligencia artificial, salvo que estos indiquen expresamente que no lo desean.
Nota publicada en Forbes US.