¿Y si el mayor riesgo es el miedo?
Una reflexión sobre gobernanza, ética e innovación responsable.

Recientemente, asesoré a una empresa que había tomado la drástica decisión de prohibir por completo el uso de inteligencia artificial generativa en sus operaciones. Nada de ChatGPT, ni asistentes virtuales, ni automatizaciones. ¿La razón? Miedo. Una profunda desconfianza y resquemor de que alguien insertara información sensible, a la exposición de datos confidenciales y a que lo nuevo desestabilizara el precario control que mantenían. Meses después, sus competidores, más pequeños, con menos presupuesto y sin grandes departamentos de tecnología, ya estaban entregando valor con mayor rapidez y mejores experiencias para sus clientes. Naturalmente, luego de meses perdiendo terreno, se dieron cuenta que prohibir la IA había sido un desacierto.

Este episodio ilustra cómo el miedo es una estrategia ineficaz para la adopción de la inteligencia artificial. No solo paraliza, sino que, en un mundo que avanza a gran velocidad, condena a las organizaciones al rezago. Sin embargo, la respuesta opuesta, una adopción sin orden y sin gobernanza, tampoco es una solución viable.

Vivimos un momento emocionante donde cada vez más, pequeñas y medianas empresas tienen acceso a herramientas que antes eran asequibles solo por grandes corporaciones. Modelos de lenguaje, automatizaciones inteligentes, sistemas que aprenden solos y que permiten liberar tiempo, reducir costos y escalar soluciones. Y, sin embargo, en ese mismo contexto, muchos líderes enfrentan una pregunta difícil ¿cómo aprovechar esta tecnología sin poner en riesgo la confidencialidad, la reputación o incluso el negocio?

Como en todo en los negocios, no existe una única respuesta, pero si principios rectores. Y quizás, el más importante de todos, es que la IA no puede ser gobernada con los mismos marcos que rigen la tecnología tradicional. Esto, debido a que no estamos tratando con una simple herramienta, sino más bien, con un amplificador de capacidades humanas y, por extensión, también un amplificador de errores humanos.

Para no caer en la improvisación, el liderazgo debe basarse en marcos internacionales. Organismos como la OCDE ya han sentado las bases de lo que significa una IA confiable. Los principios fundamentales exigen que la tecnología siempre beneficie a las personas y fomente el desarrollo sostenible; que respete los derechos humanos y los valores democráticos; que sea transparente y comprensible; que sea robusta, segura y controlable a lo largo de su ciclo de vida; y que sus actores rindan cuentas por el funcionamiento de sus sistemas. Adoptar esta tecnología con inteligencia implica, precisamente, anclar las políticas internas de la empresa a estos pilares de la confianza, asegurando que el crecimiento impulsado por la IA sea ético y responsable.

En algunas de las empresas que hoy asesoro, hemos trabajado para otorgarle dirección a la IA. El proceso implica establecer criterios éticos de uso, definir roles claros para su implementación, capacitar a los equipos estratégicamente y construir marcos de gobernanza que acompañen, en lugar de obstaculizar. Estas organizaciones ya empiezan a cosechar resultados tangibles: mayor eficiencia, más innovación y, fundamentalmente, más confianza interna sobre el uso responsable de esta tecnología.

No se trata solo de empresas. En la universidad, nos propusimos dejar de lado el miedo y abrazar la IA como un laboratorio de posibilidades. Así como enseñamos a usar software para simulaciones industriales o herramientas para modelar datos complejos, hoy entrenamos a los estudiantes a conversar con modelos generativos, a analizarlos críticamente y a incorporarlos como parte natural de sus procesos de aprendizaje. El objetivo no es reemplazar el pensamiento, sino expandirlo.

No obstante, tanto en empresa como en academia, hay un aspecto que no podemos descuidar, y ese es, que la adopción de la IA no puede dejarse a la suerte. El entusiasmo sin criterio puede conducir a riesgos significativos. Basta con ver los casos de alucinaciones de modelos de IA, fuentes inventadas como fue la polémica reciente de una de las Big Four y el gobierno de Australia, los sesgos reproducidos por falta de datos suficientemente diversos, o las filtraciones de información por falta de límites claros. Un informe del MIT Sloan Management Review (2024) advierte que las organizaciones que implementan IA sin un marco de gobernanza definido tienen un 40% más de probabilidades de enfrentar crisis reputacionales asociadas al mal uso de la tecnología. 

Por consiguiente, gobernar la IA significa crear las condiciones óptimas para su desarrollo, protegiendo al mismo tiempo los activos cruciales de la empresa. Adoptar IA con inteligencia, valga la redundancia, implica integrar dimensiones que van desde la ética y la transparencia, hasta la formación de equipos que comprendan tanto sus posibilidades como sus límites. Implica diseñar políticas de acceso y uso, entender los impactos legales y reputacionales, y construir una cultura de innovación que no esté basada en el hype, sino en la responsabilidad.

Al final del día, el riesgo real no está en la IA, está en nosotros, sus usuarios y en cómo decidimos usarla o ignorarla. En cómo permitimos que la emoción del momento nuble nuestra capacidad de pensar a largo plazo. En cómo dejamos que el miedo o la improvisación nos impidan construir sistemas que aporten valor a la estrategia de la organización.

La IA no va a frenar, es una fuerza innegable que sigue su avance a un ritmo sin precedentes. Por ende, tampoco deberíamos frenar nosotros y nuestras empresas. Pero entre el freno de mano y el salto al vacío, hay un punto intermedio. Uno donde se puede avanzar con audacia, pero con brújula. Porque en este juego, no gana el que corre más rápido, sino el que sabe hacia dónde va. (O)