top of page

Cómo la IA refuerza los prejuicios de género y qué podemos hacer al respecto

05 de febrero de 2025

Autor: ONU Mujeres



Entrevista a Zinnya del Villar sobre el sesgo de género en la IA y la creación de tecnología inclusiva


La IA está transformando nuestro mundo, pero cuando refleja los prejuicios existentes, puede reforzar la discriminación contra las mujeres y las niñas. Desde las decisiones de contratación hasta los diagnósticos de atención médica, los sistemas de IA pueden amplificar las desigualdades de género cuando se entrenan con datos sesgados. Entonces, ¿cómo podemos garantizar que la IA sea ética e inclusiva? Zinnya del Villar, una experta líder en IA responsable, comparte sus ideas sobre los desafíos y las soluciones en una conversación reciente con ONU Mujeres.


Zinnya del Villar impartiendo sesiones sobre análisis de datos de género e inteligencia artificial responsable en el primer Gender Datathon en Albania. Foto: ONU Mujeres.
Zinnya del Villar impartiendo sesiones sobre análisis de datos de género e inteligencia artificial responsable en el primer Gender Datathon en Albania. Foto: ONU Mujeres.
¿Qué es el sesgo de género en la IA y por qué es importante?

“Los sistemas de inteligencia artificial, que aprenden de datos llenos de estereotipos, a menudo reflejan y refuerzan los sesgos de género”, afirma Zinnya del Villar. “Estos sesgos pueden limitar las oportunidades y la diversidad, especialmente en áreas como la toma de decisiones, la contratación, la aprobación de préstamos y los juicios judiciales”.


En esencia, la inteligencia artificial (IA) se basa en datos. Es un conjunto de tecnologías que permiten a las computadoras realizar tareas complejas más rápido que los humanos. Los sistemas de IA, como los modelos de aprendizaje automático, aprenden a realizar estas tareas a partir de los datos con los que se los entrena. Cuando estos modelos se basan en algoritmos sesgados, pueden reforzar las desigualdades existentes y fomentar la discriminación de género en la IA. 


Imaginemos que entrenamos a una máquina para que tome decisiones de contratación mostrándole ejemplos del pasado. Si la mayoría de esos ejemplos conllevan sesgos conscientes o inconscientes (por ejemplo, mostrar a los hombres como científicos y a las mujeres como enfermeras), la IA puede interpretar que los hombres y las mujeres son más aptos para determinados puestos y tomar decisiones sesgadas al filtrar las solicitudes.

Esto se llama sesgo de género de la IA : cuando la IA trata a las personas de manera diferente en función de su género, porque eso es lo que aprendió de los datos sesgados con los que fue entrenada.


¿Cuáles son los impactos del sesgo de género en las aplicaciones de IA?

El sesgo de género en la IA tiene profundas consecuencias en la vida real.

En áreas críticas como la atención médica, la IA puede centrarse más en los síntomas masculinos, lo que lleva a diagnósticos erróneos o tratamientos inadecuados para las mujeres”, comparte del Villar. “Los asistentes de voz que utilizan voces femeninas de manera predeterminada refuerzan los estereotipos de que las mujeres son aptas para funciones de servicio, y los modelos de lenguaje como GPT y BERT a menudo asocian trabajos como "enfermera" con mujeres y "científica" con hombres”.


Del Villar menciona algunos ejemplos de sesgo de género en la IA que han sido bien documentados: en 2018, Amazon suspendió una herramienta de reclutamiento de IA que favorecía los currículos masculinos . Los sistemas de reconocimiento de imágenes de las empresas han tenido dificultades para identificar con precisión a las mujeres , en particular a las mujeres de color, lo que conduce a identificaciones erróneas, que pueden tener graves consecuencias para la aplicación de la ley y la seguridad pública.


El equipo “Empoderamiento” ganó el primer lugar en el Gender Datathon por su proyecto que aborda los estereotipos de género contra las mujeres conductoras en Albania. Foto: ONU Mujeres
El equipo “Empoderamiento” ganó el primer lugar en el Gender Datathon por su proyecto que aborda los estereotipos de género contra las mujeres conductoras en Albania. Foto: ONU Mujeres
¿Cómo podemos reducir el sesgo de género en los sistemas de IA?

La Inteligencia Artificial refleja los sesgos que existen en nuestra sociedad en función del género, la edad, la raza y muchos otros factores.

“Para reducir el sesgo de género en la IA, es fundamental que los datos utilizados para entrenar los sistemas de IA sean diversos y representen a todos los géneros, razas y comunidades”, subraya del Villar. “Esto significa seleccionar activamente datos que reflejen diferentes orígenes sociales, culturas y roles, al tiempo que se eliminan los sesgos históricos, como los que asocian trabajos o rasgos específicos con un género”.


“Además, los sistemas de IA deberían ser creados por equipos de desarrollo diversos, compuestos por personas de distintos géneros, razas y orígenes culturales. Esto ayuda a incorporar diferentes perspectivas al proceso y reduce los puntos ciegos que pueden dar lugar a sistemas de IA sesgados”.


La concienciación y la educación del público son partes esenciales de esta estrategia, añade del Villar. Ayudar a las personas a comprender cómo funciona la IA y el potencial de sesgo puede permitirles reconocer y prevenir sistemas sesgados y mantener la supervisión humana sobre los procesos de toma de decisiones.


¿Cómo puede la IA ayudar a identificar sesgos de género y tomar mejores decisiones?

Si bien los datos generados por IA conllevan riesgos de sesgo de género, también tienen un potencial significativo para identificar y abordar las desigualdades de género en todos los sectores. Por ejemplo, la IA ha ayudado a analizar grandes cantidades de datos para detectar brechas salariales de género en la fuerza laboral, y herramientas como Glassdoor muestran diferencias en los salarios en función del género.


En el ámbito financiero, la IA está ayudando a superar los prejuicios de género que existen desde hace mucho tiempo en la calificación crediticia, como se ha visto en empresas como Zest AI , que utilizan el aprendizaje automático para realizar evaluaciones crediticias más justas. La IA también está mejorando el acceso a los servicios de microfinanzas para que las mujeres empresarias puedan acceder a préstamos y servicios financieros, en particular en zonas desatendidas.


La inteligencia artificial ha ayudado a revelar la disparidad en las tasas de inscripción entre hombres y mujeres en plataformas como Coursera y edX , y ha descubierto sesgos en los libros de texto, ayudando a los educadores a revisar los materiales de aprendizaje para que sean más inclusivos.


La IA está haciendo un seguimiento de la representación de género en los puestos de liderazgo   y fomentando el uso de cuotas de género para abordar las desigualdades  ”, afirma Villar. “También puede ayudar a analizar y redactar leyes sensibles al género identificando patrones de discriminación de género y proponiendo reformas. En el futuro, la IA podría ayudar a los gobiernos a evaluar los posibles impactos de género de las leyes propuestas y ayudar a prevenir la discriminación y la desigualdad de género”.


Zinnya del Villar interactúa con profesionales de los medios, investigadores, representantes de la sociedad civil y jóvenes de Albania y les ofrece información valiosa sobre cómo crear historias con datos. Foto: ONU Mujeres
Zinnya del Villar interactúa con profesionales de los medios, investigadores, representantes de la sociedad civil y jóvenes de Albania y les ofrece información valiosa sobre cómo crear historias con datos. Foto: ONU Mujeres
¿Cómo puede la IA mejorar la seguridad de las mujeres y detener el abuso digital?

Si bien la violencia facilitada por la tecnología contra las mujeres y las niñas en línea y fuera de línea es una preocupación creciente, hay muchos avances prometedores en IA que ofrecen soluciones innovadoras para abordar el abuso digital y proteger a las sobrevivientes.

Por ejemplo, aplicaciones móviles como bSafe ofrecen alertas de seguridad para proteger a las mujeres, mientras que Botler.ai, con sede en Canadá, ayuda a las víctimas a comprender si los incidentes de acoso sexual que sufrieron violan el código penal de Estados Unidos o la ley canadiense. Los chatbots como “Sophia”, de Spring ACT , y “rAInbow”, de AI for Good, brindan apoyo anónimo y conectan a las sobrevivientes con servicios legales y otros recursos.


“Los algoritmos impulsados ​​por IA también se pueden utilizar para hacer que el espacio digital sea seguro para todos al detectar y eliminar contenido dañino y discriminatorio y al detener la difusión de imágenes íntimas no consensuadas”, agrega Villar.


Cinco pasos para sistemas de IA más inclusivos

La inteligencia artificial puede utilizarse para reducir o perpetuar los sesgos y las desigualdades en nuestras sociedades. Villar recomienda cinco pasos para que la inteligencia artificial sea inclusiva y mejor.


  1. Uso de conjuntos de datos diversos y representativos para entrenar sistemas de IA

  2. Mejorar la transparencia de los algoritmos en los sistemas de IA

  3. Asegurarse de que los equipos de investigación y desarrollo de IA sean diversos e inclusivos para evitar puntos ciegos

  4. Adopción de marcos éticos sólidos para los sistemas de IA

  5. Integración de políticas con perspectiva de género en el desarrollo de sistemas de IA


Acerca de Zinnya del Villar

Zinnya del Villar es directora de datos, tecnología e innovación en Data-Pop Alliance . Defiende los derechos de las mujeres y las niñas en el campo de la ciencia, la tecnología, la ingeniería y las matemáticas (STEM) y el uso ético e inclusivo de los datos en los sistemas de inteligencia artificial (IA). Colabora con ONU Mujeres en la investigación de los impactos de género de la guerra en Ucrania y en la mejora de la alfabetización de datos de género en la región, incluso a través del programa Making Every Woman and Girl Count . Está incluida entre las 100 mujeres brillantes en ética de la IA - 2024 .


ARTÍCULO PUBLICADO POR: ONU Mujeres

 

Comments


Entradas destacadas
Entradas recientes
Archivo
Buscar por tags
Síguenos
  • Facebook Basic Square
  • Twitter Basic Square
  • Google+ Basic Square
bottom of page