Forbes Ecuador
ia equidad
Columnistas

Confrontando sesgos invisibles: Hacia una IA libre de discriminación de género

Diego Buenaño

Share

Solo abordando el sesgo de género desde múltiples frentes, educativos, regulatorios y de diseño inclusivo, podremos maximizar los beneficios transformadores de la IA para toda la sociedad.

8 Marzo de 2024 15.40

El problema latente de los prejuicios hacia las mujeres y niñas tiene amplias repercusiones en la sociedad. La arraigada discriminación de género, un vestigio histórico, sigue siendo un obstáculo para el progreso y la igualdad en muchos ámbitos. Combatir este problema es imperativo para fomentar una cultura de inclusión y aprovechar al máximo el talento disponible en un mundo globalizado. La igualdad de género no solo es una cuestión de justicia social, sino también una estrategia inteligente para impulsar la innovación y el crecimiento económico sostenible.

El sesgo de género no solo afecta negativamente los derechos y las oportunidades de las mujeres y las niñas, sino que se infiltra en los avances tecnológicos y las innovaciones del mundo actual, especialmente en los sistemas de Inteligencia Artificial (IA), incluidos los Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés de Large Language Models). A medida que los sistemas de IA se nutren de vastas bases de datos que provienen del lenguaje y las interacciones humanas, inevitablemente absorben y perpetúan (e incluso amplifican) los prejuicios presentes en sus datos de entrenamiento. 

Algunos ejemplos de sesgos de género a través del uso de sistemas basado en IA pueden ser: herramientas de reclutamiento basadas en IA que reflejan prácticas discriminatorias, toma de decisiones con sesgo de género en sectores como las finanzas (donde la IA podría influir en la calificación crediticia y la aprobación de préstamos), o incluso diagnósticos médicos erróneos o informes de desempeño laboral sesgados. 

Abordar este desafío es fundamental no solo para promover la igualdad de género, sino también para asegurar el desarrollo ético y responsable de la IA en beneficio de toda la humanidad. Estos sesgos no sólo resultan difíciles de mitigar, sino que también pueden provocar daños a nivel individual, colectivo o social. 

La recomendación de la UNESCO sobre la ética de la IA establece que "los responsables de la IA deben realizar todos los esfuerzos razonables para reducir al mínimo y evitar la promoción o perpetuación de aplicaciones y resultados discriminatorios o sesgados durante todo el ciclo de vida del sistema de IA, con el fin de asegurar la equidad de dichos sistemas". Sin embargo, un reciente estudio de la misma UNESCO, denominado “Challenging Systematic Prejudices”, evidencia una amplificación de sesgos en los textos generados por los LLM. Los hallazgos del estudio subrayan la necesidad crítica de realizar investigación continua e intervención política urgente para abordar dichos sesgos que se exacerban a medida que estas tecnologías se integran en diversos contextos sociales y culturales. 

Los gobiernos y los encargados de políticas juegan un papel crucial en la regulación de la inteligencia artificial (IA). Tienen la responsabilidad de establecer normativas y directrices que promuevan un uso ético y respetuoso de los derechos humanos en la IA, priorizando principios como la inclusión, la responsabilidad y la equidad. Esto implica la promulgación de regulaciones que exijan transparencia en los algoritmos y conjuntos de datos utilizados, así como la creación de estándares para evitar sesgos en la recopilación de datos y el desarrollo de algoritmos. Además, se requiere una supervisión efectiva y auditorías periódicas para garantizar el cumplimiento y la equidad a largo plazo.

El uso de herramientas para detectar sesgos es esencial para identificar posibles sesgos de género en grandes conjuntos de datos. Esto permitirá a los desarrolladores abordar estos problemas mediante el uso de técnicas de anonimización de datos, la revisión de código por pares y la aplicación de principios de diseño inclusivo. Además, es esencial mantener la transparencia a través de documentación e informes detallados sobre las metodologías utilizadas para mitigar el sesgo y la composición de los datos de entrenamiento.

Las empresas de tecnología deberían integrar herramientas de mitigación de sesgos dentro de las aplicaciones de IA, permitiendo que los usuarios puedan informar sobre resultados sesgados y contribuir así con el perfeccionamiento continuo del modelo.

Las campañas educativas son cruciales para crear conciencia sobre las complejidades del sesgo de género en la IA. Informar a desarrolladores, usuarios y partes involucradas es vital para fomentar un uso responsable y consciente de la tecnología. 

Además de campañas educativas, es imperativo implementar estándares éticos que promuevan la equidad y mitiguen sesgos en los sistemas de IA. La auditoría de algoritmos, pruebas de impacto y la diversificación de los equipos de desarrollo son pasos críticos. Asimismo, la participación activa de comunidades históricamente subrepresentadas en el diseño y capacitación de modelos de IA es esencial para garantizar la inclusión y evitar perspectivas potencialmente perjudiciales. Solo abordando el sesgo de género desde múltiples frentes, educativos, regulatorios y de diseño inclusivo, podremos maximizar los beneficios transformadores de la IA para toda la sociedad. (O)

10