Forbes Ecuador
IA
Columnistas

IA generativa y confidencialidad: el costo colateral de subir información sensible

Diego Buenaño

Share

El desafío no está en prohibir, sino más bien gestionar con inteligencia. La IAG puede ser aliada del conocimiento y la productividad, siempre que no comprometa su fuente.

31 Octubre de 2025 11.27

El entusiasmo por la inteligencia artificial generativa (IAG) ha sido tan vertiginoso que pocos se detuvieron a pensar en su lado oscuro. Un gran número de personas, en empresas, gobiernos y universidades, escriben cada día "prompts" a ChatGPT, Claude, Copilot o Gemini, confiando en que lo que suben quedará en el anonimato. No siempre es así.

Un reciente análisis de Axios reveló que más del 4% de prompts y más del 20% de los archivos cargados a estas plataformas contienen información institucional sensible, por ejemplo: datos de clientes, reportes financieros o códigos internos. Es decir, la promesa de incremento de productividad terminó abriendo una puerta trasera por donde se escapan, sin querer, los secretos de las organizaciones.

El fenómeno es humano, no tecnológico. En la era del "copy-paste", subir un fragmento de un documento o una tabla parece inocente. Pero cada interacción con un chatbot deja huellas: los servidores almacenan metadatos, los modelos pueden "recordar" información durante las sesiones, y los textos pueden alimentar futuros entrenamientos. La productividad se puede convertir, sin saberlo, en vulnerabilidad crítica.

"Tu información personal probablemente ya se está utilizando para entrenar modelos de IA generativa", advirtió Scientific American en marzo de este año.
El artículo expone un hecho incómodo: la mayoría de los usuarios nunca dio su consentimiento para que sus correos, publicaciones o textos digitales terminen siendo datos de entrenamiento de un modelo de lenguaje. Este punto es crucial y evidencia el dilema ético de la IA: el aprendizaje automático se nutre de datos que no siempre le pertenecen.

El ensayo escrito por Ben Tarnoff titulado "What is Privacy For?" y publicado el año pasado en The New Yorker, plantea una pregunta desafiante: ¿para qué sirve la privacidad si la hemos entregado voluntariamente? Su reflexión va más allá de la técnica; describe una paradoja cultural. Hemos normalizado la exposición. Subir documentos a una IA no nos parece una violación, sino una herramienta de eficiencia. Pero cada vez que lo hacemos, transferimos —aunque sea temporalmente— control, contexto y propiedad.

Forbes, en su artículo "Choosing a generative AI Vendor: What To Know To Keep Your Data Safe", advierte que muchas empresas adoptan chatbots sin revisar los términos de servicio. Algunas plataformas conservan los datos ingresados para "fines de mejora del modelo"; otras los comparten con terceros para auditorías. El resultado es que la línea entre uso legítimo y exposición accidental se difumina. En un mundo donde las ideas pueden "filtrarse" por descuido, la seguridad no solo es técnica, sino ética.

El pasado septiembre, The Economist publicó el artículo: "Why AI systems may never be secur, and what to do about it". El texto sostiene que la propia arquitectura de los modelos de lenguaje —entrenados con billones de parámetros y datos de procedencia diversa— impide garantizar su seguridad total. Cada ajuste para mejorar la precisión genera nuevas superficies de ataque: prompt injection, manipulación de contexto o extracción indirecta de datos.

En otras palabras, la IA generativa es, por diseño, un ecosistema poroso. No puede blindarse del todo porque su valor reside en aprender de todo. Esa tensión —entre apertura y control— define el desafío de los próximos años: ¿cómo aprovechar la IAG sin convertirla en una trampa de confidencialidad?

Ante esta realidad, numerosas agencias de ciberseguridad a nivel mundial, sugieren tratar a la IAG como un "sistema de riesgo continuo". No basta con prevenir fugas; es necesario auditar de forma permanente qué datos entran, cómo se almacenan y quién puede reconstruirlos.

En los artículos de Forbes y Axios se recalca que estas filtraciones frecuentemente pasan inadvertidas. En ocasiones, basta un prompt inocente para que un modelo reproduzca fragmentos de documentos internos usados previamente. La información no "sale" en un sentido clásico; se reinterpreta. Esa ambigüedad —donde el contenido original se diluye en una respuesta estadística— hace que la exposición sea casi imposible de probar.

De ahí la urgencia de una alfabetización digital avanzada. Además, de enseñar a usar prompts "eficientes", las organizaciones deberían enseñar a redactar promptsseguros: sin nombres, sin datos reales, sin material institucional. La seguridad en la era de la IA pasa por el lenguaje. Lo que parece un asistente inofensivo podría estar facilitando, sin querer, la fuga de propiedad intelectual.

Ante esta realidad, los marcos internacionales ofrecen una hoja de ruta que apunta hacia el mismo horizonte: combinar innovación con responsabilidad.

Las medidas mínimas son claras:

  • No introducir información sensible en plataformas públicas.
  • Usar únicamente versiones institucionales con acuerdos de privacidad.
  • Formar a los usuarios en ética y seguridad digital.
  • Auditar periódicamente el uso de IA en los procesos académicos y administrativos.

El desafío no está en prohibir, sino más bien gestionar con inteligencia. La IAG puede ser aliada del conocimiento y la productividad, siempre que no comprometa su fuente.

El ensayo: "What Is Privacy For?", nos recuerda que la privacidad no es solo un derecho, sino un espacio de dignidad. Cada información que subimos —una idea, una conversación, una investigación— forma parte de nuestra identidad intelectual. Cuando lo entregamos sin control, perdemos algo más que seguridad: perdemos autoría y confianza. Por eso, el mayor riesgo colateral de la IA no es la filtración de datos, sino la banalización de la confidencialidad

La IAG no es una amenaza inevitable, pero tampoco un espacio neutral, sus riesgos colaterales surgen del mismo impulso que la hace poderosa: la necesidad de aprender de todo lo que le damos. De ahí la responsabilidad de las universidades, empresas y gobiernos: no se trata de desconfiar de la tecnología, sino de enseñar a confiar con límites. Solo así evitaremos que la próxima gran filtración no venga de un hacker, sino de un prompt escrito con buena intención, pero sin tomar los recaudos del caso. (O)

10