Las estadísticas de uso de inteligencia artificial de ChatGPT (OpenAI), Claude (Anthropic) e Ipsos revelan cómo las personas incorporan esta tecnología en su vida cotidiana, tanto en el trabajo como en tareas personales, en un contexto marcado por la desconfianza. Tres informes recientes, elaborados por organizaciones reconocidas, permiten entender de manera concreta cómo se utiliza la IA en la práctica.
OpenAI analizó más de un millón de conversaciones en ChatGPT, recolectadas entre mediados de 2024 y mediados de 2025. Por su parte, Anthropic publicó un análisis detallado sobre el uso de Claude en su Índice Económico Antrópico, que incluye datos inéditos sobre el tráfico de su API para empresas. En tanto, la consultora global Ipsos encuestó a más de 23.000 personas adultas en 30 países para su Monitor de IA 2025.
En conjunto, estos estudios ofrecen algo poco frecuente en medio del ruido mediático que rodea a la inteligencia artificial: pruebas concretas. Quiénes usan estos sistemas, para qué los usan, cómo los integran las empresas (y cómo no), y qué piensa el público sobre todo esto.
El informe de Ipsos, en particular, resulta valioso porque expone la distancia entre lo que la gente dice y lo que realmente hace. Cualquier estudiante de economía conoce la ficción del homo economicus, ese individuo racional que declara una cosa pero, lejos de los libros de texto, actúa de otra forma. En el lenguaje académico, esto se describe como la diferencia entre las preferencias declaradas y las reveladas.
Esa brecha resulta extrañamente familiar cuando se observa cómo el mundo incorpora la inteligencia artificial. Las personas dicen una cosa en las encuestas, pero los datos de uso que publicaron OpenAI y Anthropic muestran otra realidad. Para entender mejor este contraste, conviene repasar las principales conclusiones de los tres informes.
La realidad cotidiana de las "aplicaciones asesinas" y la eficacia de la IA
La realidad cotidiana detrás de las supuestas "aplicaciones revolucionarias" de la inteligencia artificial dista bastante de lo que muchos imaginan. El análisis de OpenAI, basado en más de un millón de conversaciones en ChatGPT, muestra algo inquietante: las personas no usan la IA para planear colonias en la Luna ni para desarrollar superinteligencia. La mayoría busca asistencia para escribir, resolver tareas prácticas o hacer búsquedas rápidas de información. Estas tres categorías explican casi el 80 % del uso de ChatGPT. La programación representa apenas un 4 %, mientras que el uso más introspectivo, parecido a una sesión de terapia, no supera el 2 %.
Incluso en ámbitos laborales, la escritura ocupa un lugar central, aunque no se trata del tipo de contenido que suele mostrarse en los videos promocionales. Cerca de dos tercios de las consultas están vinculadas con personas que piden mejorar un texto que ya redactaron.
En el caso de Claude, el modelo de Anthropic, el uso sigue una lógica similar, aunque con algunas diferencias. La programación concentra el 36 % del tráfico, mientras que las consultas vinculadas con educación y ciencia están creciendo con fuerza, llegando al 12,4 % y al 7,2 %, respectivamente. Además, quienes usan Claude tienden a delegar tareas completas con más frecuencia. En lugar de dar instrucciones paso a paso, directamente le dicen al sistema: "hacelo vos".
Tanto en ChatGPT como en Claude existe una larga lista de usos llamativos, pero la adopción real se concentra en lo esencial: tareas en las que los modelos funcionan bien y no requieren conocimientos técnicos para aprovecharlos. La ciencia ficción, por ahora, sigue confinada a las presentaciones de marketing.

Trabajo vs. juego: las realidades divididas del uso de la IA
Acá es donde la situación se vuelve más compleja. OpenAI reporta que el uso de ChatGPT en el trabajo bajó del 40 % al 28 % en el último año, mientras que los usos personales crecieron hasta alcanzar casi tres cuartas partes del total. La encuesta de Ipsos respalda esta percepción: en muchos países, la inteligencia artificial se ve más como un asistente personal que como una herramienta central en las empresas.
Anthropic, en cambio, muestra una realidad distinta. Los datos de su API para empresas indican que el uso de IA en el ámbito laboral en Estados Unidos está creciendo con fuerza: un 40 % de los empleados ya la usa en su trabajo, el doble que en 2023. Los registros reflejan implementaciones bien definidas, con alto nivel de automatización, que incluyen desde la depuración de sitios web hasta el desarrollo de software corporativo y el diseño de sistemas de inteligencia artificial.
Entonces, ¿en qué quedamos? La clave puede estar en cómo se reparte el trabajo. Las interfaces de chat se usan sobre todo para tareas puntuales o personales, mientras que las API concentran el desarrollo más estratégico.
Como señala el propio informe de Claude, "la evolución de la actual adopción, limitada y basada en la automatización, hacia una implementación más amplia probablemente determinará el impacto económico futuro de la IA". Es decir, la discusión no pasa tanto por si su uso crece o cae, sino por qué tipo de uso termina siendo dominante.
La paradoja de la confianza en la IA
La encuesta global de Ipsos deja clara la ambivalencia con cifras contundentes. Un 54 % de las personas consultadas dijo confiar en que los gobiernos regularán la inteligencia artificial de forma responsable. En cambio, solo un 48 % confía en que las empresas protegerán sus datos. La diferencia es chica, pero significativa.
El propio Sam Altman dejó ver esa contradicción durante la Cumbre de IA en París. "La seguridad es fundamental en todo lo que hacemos... Tenemos que lograr que estos sistemas sean realmente seguros para las personas, o simplemente no los usarán. Es lo mismo y trabajaremos arduamente en ello", dijo frente al público. Pero casi en simultáneo reconoció: "En realidad, eso no es lo principal que hemos estado escuchando; la principal preocupación ha sido: '¿Podemos abaratar esto, tener más, mejorarlo y hacerlo más avanzado?'".
Se menciona la seguridad, pero no se profundiza. Los temas que dominan la conversación son la escala, el costo y el rendimiento. La paradoja es evidente: las personas dicen no confiar en las empresas que desarrollan inteligencia artificial, pero los datos muestran que, en la práctica, las siguen premiando con su uso diario.
Barreras ocultas en la letra pequeña de la IA según Anthropic e Ipsos
¿Por qué la adopción de inteligencia artificial en las empresas todavía no se volvió masiva? El informe de Claude, de Anthropic, es claro: las mejoras en productividad no dependen tanto de la tecnología más avanzada como de los detalles prácticos de su implementación. Incorporar IA de manera rentable, advierte, muchas veces exige reestructurar procesos, capacitar al personal y hacer inversiones que no siempre garantizan retorno. En otras palabras, la inteligencia artificial no viene lista para usar. Es un proyecto de reingeniería que obliga a replantear cómo funciona el negocio.
El mismo informe menciona otro obstáculo: el contexto. Para que la IA funcione en ambientes complejos y sensibles, necesita información completa, organizada y específica para la tarea. Muchas compañías todavía no están en condiciones de ofrecer ese entorno. Armar ese contexto requiere modernizar datos y hacer cambios estructurales, algo que eleva los costos y retrasa su implementación real.
En el plano individual, Ipsos identifica otra barrera: la demografía. El uso sigue concentrado entre varones jóvenes con estudios avanzados. Eso define quién accede primero a los beneficios y quién queda afuera. Y hay una paradoja en todo esto: los usos personales más comunes, como la búsqueda de información o el pedido de ayuda, son también los más propensos a errores y desinformación.
Entre el hábito de la IA y la vacilación
En conjunto, los informes de OpenAI, Anthropic e Ipsos dibujan un escenario concreto: la inteligencia artificial se usa sobre todo para tareas cotidianas como buscar información, redactar correos electrónicos o corregir código. Los datos de OpenAI indican que el uso de ChatGPT en el trabajo está bajando. Ipsos señala que la mayoría lo ve como una herramienta de uso personal. Pero en paralelo, los registros de Anthropic muestran que un 40 % de los empleados en Estados Unidos ya la incorporó a su rutina laboral. Lo que parece una contradicción tal vez sea, en realidad, una cuestión de niveles: un uso personal visible en la superficie y una integración más profunda, pero menos evidente, por debajo.
Sin embargo, hay otra paradoja más evidente: la adopción de la IA crece, pero la confianza en quienes la desarrollan no. Tal vez el verdadero riesgo no sea que la gente deje de usarla, sino que naturalice depender de sistemas en los que dice no confiar. El riesgo —y también la oportunidad— es que el futuro de la IA no se va a definir por lo que decimos, sino por lo que seguimos haciendo cada vez que escribimos una indicación.