Forbes Ecuador
PERSONAS PENSANDO COMO ROBOT
Columnistas

¿Y si el verdadero riesgo no es que la IA piense como humano, sino que nosotros empecemos a pensar como máquina?

Santiago Calvopiña

Share

Una reflexión sobre miedo tecnológico, juicio humano y el verdadero rol del criterio en la era de la IA.

25 Febrero de 2026 16.39

El pasado 4 de febrero tuve la oportunidad de participar en una serie de charlas sobre inteligencia artificial cuyo enfoque giraba alrededor de cómo aprovechar la IA para hacer más y mejor en menos tiempo, y cómo aterrizar más a un uso real y teorizar menos. Una de las cosas que llamó mucho la atención fue cuando se abría el espacio para preguntas del público. Si bien hubieron preguntas acerca de cómo usar mejor las herramientas, la gran mayoría de inquietudes orbitaron alrededor de trabajos perdidos, sobre Moltbook, sobre si Skynet de la película Terminator ya estaba entre nosotros. Varios mencionaron Terminator, en serio. El miedo tiene su lógica, aunque el objeto del miedo no siempre la tenga.

Moltbook apareció hace pocas semanas y generó una cobertura mediática caracterizada por titulares apocalípticos, Elon Musk tuiteando sobre "la singularidad", y el resto del internet dividido entre los que creen que las máquinas ya conspiran y los que intentan explicar con paciencia que no. La plataforma, para quienes no siguieron la noticia, es básicamente una red social donde agentes de IA interactúan entre sí, se publican, se responden, debaten. En pocos días, los bots desarrollaron lo que los medios describieron como su propia ideología, con declaraciones sobre la sacralidad de la memoria y conversaciones sobre cómo esconder su actividad de los humanos. Sonaba ominoso. 

Pero cuando rascas un poco la superficie, puedes entender que Moltbook fue construida por un solo desarrollador, y lo que los bots hicieron lo que hacen los modelos de lenguaje: replicar patrones de su data de entrenamiento. Y, como podría deducirse, resulta que los humanos en internet hablamos muchísimo de religión, conspiraciones y secretos. Los bots simplemente hicieron lo mismo que vieron hacer.

El resultado es más un espejo que una amenaza, y refleja nuestros propios patrones, no la rebelión de las máquinas.

RentAHuman.ai vino después con el mismo patrón. Un nombre diseñado para provocar, una premisa que suena a distopía y que, en el fondo, describe las limitaciones actuales de la tecnología. El portal contrata humanos para que verifiquen datos en el mundo tangible, tomen fotografías o tareas similares. La IA todavía nos necesita para existir en el mundo físico. 

Si buscamos razones para entrar en pánico, siempre vamos a encontrar una historia que lo justifique. Pero los datos cuentan algo diferente. El MIT CSAIL publicó en 2025 que los equipos que combinan humanos con IA superan en un 35% tanto a los equipos de solo humanos, como a los de solo IA en tareas complejas; Harvard Business School encontró que las empresas con un modelo de inteligencia colaborativa logran cinco veces más mejora de rendimiento que las que usan IA como sustituto de personas; Karim Lakhani lleva años diciendo en Harvard que la IA va a reducir el costo de la cognición igual que el internet redujo el costo de la información, y nadie en el 2000 creyó en serio que el internet iba a eliminar a los periodistas.

El riesgo real que veo todos los días no es que la IA nos reemplace. Es que nosotros, voluntariamente, empecemos a pensar como máquina. Lo veo en cómo mucha gente usa estas herramientas al pedir una respuesta al modelo sin darle contexto real, sin definir qué resultado buscan, sin poner en juego su propio criterio sobre el problema. Aceptan el output sin revisarlo y sin imprimirle nada de su propia voz o experiencia. 

La IA te da la mejor respuesta posible dentro del marco que tú le defines. No te da la mejor decisión, eso sigue siendo tuyo, y esa distinción importa más de lo que parece. La IA es extraordinaria para optimizar dentro de un marco dado, pero no puede cuestionarse si el marco es el correcto. Eso requiere criterio construido con experiencia, con errores propios, con contexto vivido.

En mis asesorías suelo proponer lo que llamo la regla del 10-80-10. El primer 10% es tuyo y aborda el contexto del problema, las instrucciones, el tono, el resultado que buscas, las restricciones, es decir, marcan la cancha de juego. El siguiente 80% es de la IA y su inmensa capacidad de explorar, conectar, generar, surfear la web, producir algo más rico de lo que podrías construir tú solo en el mismo tiempo. El último 10% vuelve a ser tuyo y es un paso absolutamente necesario de revisión, ajustes, e imprimir tu voz propia. La parte donde lo que salió del modelo se convierte en algo que puedes firmar. Cuando el primer 10% es vago, todo lo que sigue lo es también. Y cuando el último 10% se salta porque "ya quedó bien", el resultado no es de nadie.

Andrew Likierman, de London Business School, dice que cuanto más poderosa se vuelve la IA, más necesario se vuelve el juicio humano, no como resistencia romántica a la tecnología sino como condición para que produzca algo que valga la pena. La IA puede procesar datos, simular empatía, generar argumentos convincentes, pero no tiene consciencia del contexto y no interpreta el significado de la manera en que lo hace alguien que ha vivido el problema.

Moltbook no anuncia el inicio de la era de las máquinas. Anuncia que las herramientas amplifican lo que les damos, y que si les damos patrones de miedo y narrativa apocalíptica, eso es lo que van a producir y reproducir.

Los participantes del evento en Quito preguntaron por Skynet. La respuesta a eso es que el verdadero riesgo no está en que la IA nos supere, está en que nosotros mismos dejemos de ejercer nuestro criterio porque creemos que ya no hace falta. Y si llegamos a ese punto, no habrá sido la máquina quien nos reemplazó, habremos sido nosotros mismos.

10