Breve tendencia: sesgo de género en la Inteligencia Artificial ¿Podemos programar un futuro equitat
El campo de la inteligencia artificial (IA) está creciendo a un ritmo acelerado, desarrollando algoritmos y máquinas automatizadas que prometen hacer el lugar de trabajo más eficiente y menos sesgado.Muchas personas interactúan con la IA en su vida cotidiana, a menudo sin que sean conscientes de ello, siendo responsable de todo, desde calculadoras de puntuación de crédito, resultados de motores de búsqueda hasta lo que vemos en las redes sociales.
Del mismo modo, organizaciones han introducido la IA en muchos procesos de trabajo, especialmente en las funciones de reclutamiento y gestión del talento.En muchos casos, los algoritmos clasifican numerosos factores para perfilar a las personas y hacer predicciones sobre ellas. Los sistemas de contratación y gestión de talento de IA tienen el potencial de cambiar la situación con respecto a la igualdad de géneroen los lugares de trabajo mediante el uso de criterios más objetivos en la contratación y promoción del talento. Pero,¿qué sucede si el algoritmo se basa realmente en aportes sesgados para hacer predicciones? ¿pueden las máquinas y la inteligencia artificial desarrollar sesgos involuntarios, creando las mismas inequidades que las personas con sesgos inconscientes?
Cada vez hay más evidencia que indica que los humanos están programando sus propios sesgos, incluyendo en el género y la raza, en los algoritmos detrás de la IA.¿cómo está pasando esto? ¿qué se puede hacer para evitar sesgos en la IA en los lugares de trabajo?
¿Qué es la inteligencia artificial?
La mayoría de los expertos definen la inteligencia artificial como un sistema computarizado que entiende, aprende y realiza acciones que se consideran requeridas por la inteligencia, o un sistema diseñado para comprender y analizar datos, resolver problemas complejos y tomar medidas cuando se enfrentan a situaciones del mundo real para las cuales fue creado. Hay tres formas principales que funciona en IA :
Inteligencia asistida
Tecnología actual: mejorar lo que se está haciendo. A menudo automatizando tareas rutinarias basadas en aportes humanos claramente definidos, puede ayudar a facilitar las tareas, pero se limita a actuar dentro de parámetros estrictos y en última instancia, depende de que los humanos tomen las decisiones finales. Se necesita personas con habilidades STEM para crear, monitorear y con frecuencia, ajustar sus programas/algoritmos. Los ejemplos de inteligencia asistida son una máquina en una línea de ensamblaje de fábrica o un asistente digital activado por voz.
Inteligencia aumentada
Tecnología actual y emergente: ayuda a las organizaciones y personas a hacer lo que de otra manera no podrían, mejorando la toma de decisiones; a menudo se basa en una compleja asociación de humanos que desarrollan, interactúan y entrenan a la IA. Este tipo de inteligencia artificial analiza información y hace recomendaciones de soluciones, colaborando con humanos para actuar y decidir juntos. A medida que la IA aumentada se generaliza, las habilidades humanas como la colaboración, la creatividad, la persuasión y la innovación serán aún más valiosas en el lugar de trabajo para ayudar a crear y capacitar a estos programas para mejorar la resolución de problemas y la toma de decisiones. Un ejemplo de este IA es un programa que hace recomendaciones sobre si aprobar la solicitud de préstamo de un consumidor.
Inteligencia autónoma
Tecnología emergente y futura: actúa por sí misma, con la capacidad de razonar, aprender de la experiencia y tomar decisiones autónomas dentro de líneas estrictas de responsabilidad. No está claro cómo los humanos interactuarán con la inteligencia autónoma, aunque puede servir como parte de un equipo de trabajo con personas. Muchos ven esto como automatizar algunas decisiones humanas complejas, otros lo ven como liberar a las personas para que realicen trabajos más creativos y complejos en nuevos tipos de trabajos. Un ejemplo de este tipo de IA es un carro auto-conducido.
La buena noticia: la IA puede servir como un ecualizador
La inteligencia artificial tiene el potencial de hacer que las decisiones y los procesos humanos sean más eficientes y menos sesgados. Esto significa que puede convertirse en un ecualizador, reduciendo las decisiones para las personas, que naturalmente están sujetas a sus propios sesgos inconscientes y haciendo predicciones con algoritmos basados en datos. Ya se ha demostrado que los algoritmos mejoran los procesos de toma de decisiones para todo, desde las solicitudes de préstamos hasta quiénes son contratados para el trabajo y si una lesión es cancerosa. Cuando se utiliza con cuidado, la IA puede ampliar habilidades e inteligencias y ayudar a las personas a avanzar. Un futuro máquina-humano positivo.
Ejemplos de Inteligencia que mejora los procesos humanos
Los algoritmos que identifican con mejor exactitud a los candidatos a directores de juntaque las personas, permiten evaluar qué características (por ejemplo, ser hombre, tener una red grande, provenir de un fondo financiero o tener experiencia actual en la junta) pueden estar sobrevalorados al nombrar directores de la junta.
La IA que emplea herramientas que crean mejores descripciones de trabajo, combinan las habilidades de los candidatos con las descripciones de los puestos para evitar sesgosy construyen listas más diversas y encuentran candidatos que pueden haber sido ignorados en el proceso de reclutamiento tradicional al buscar en los sistemas de seguimiento de candidatos y en los sitios de carreras.
Algunas empresas están creando herramientas de IA que limitan el sesgo al evaluar a los solicitantes en función de datos, habilidades y aptitudes específicas y están monitoreando las herramientas de IA para asegurarse de que el sesgo no se infiltre.
Una herramienta de IA explora los sistemas de seguimiento de solicitantes y otros sitios de carreras para encontrar candidatos y eliminar sus nombres del proceso para reducir el sesgo.También crea un perfil para los atributos del candidato ideal en base a los datos y califica a los solicitantes al evaluarlos en relación con el perfil ideal en "ajuste de trabajo, asignación de habilidades, calidad de currículum y puntaje de percentil en comparación con otros candidatos".
Herramientas de inteligencia artificialque automatizan las tareas específicas de contratación para eliminar el sesgo, como crear procedimientos de entrevista que mejoran la experiencia de los posibles empleados y aumenten la diversidad al eliminar el sesgo de género. Por ejemplo, algunas herramientas utilizan filtros de IA y / o de realidad virtual para ocultar la apariencia o la voz de un candidato durante el proceso de la entrevista, lo que reduce el potencial de sesgo.
Las malas noticias: el sesgo en la IA puede ser una barrera para la inclusión
Aunque la IA tiene el potencial de tomar decisiones más eficientes y menos sesgadas, no es realmente una "pizarra en blanco". La inteligencia artificial es tan buena como la información que la alimenta. Su calidad depende de lo bien que los creadores lo programaron para pensar, decidir, aprender y actuar.Como resultado, la inteligencia artificial puede heredar, o incluso amplificar, los sesgos de sus creadores, que a menudo desconocen sus propios sesgos, o la IA puede estar utilizando datos sesgados. Las consecuencias de dicha tecnología pueden alterar vidas. En los lugares de trabajo, las brechas ya existentes en la contratación y promoción de mujeres y personas de color pueden aumentar si los sesgos se escriben involuntariamente en el código de IA, o si la IA aprende a discriminar.
Ejemplos de los sesgos en la IA
Un empleador estaba anunciando una vacante en una industria dominada por hombres a través de redes sociales. El algoritmo de publicidad de la plataforma mandó el anuncio solo a hombres para maximizar los retornos en el número y la calidad de los solicitantes.
Una empresa de tecnología pasó años creando una herramienta de contratación de IA a la cual alimentó con los currículos de los mejores candidatos. La función de la IA era revisar los currículos de los candidatos y recomendar a los candidatos más prometedores. Debido a que la industria está dominada por los hombres, la mayoría de los currículums utilizados para enseñar la inteligencia artificial fueron de hombres, lo que en última instancia llevó a la IA a discriminar en contra de recomendar a las mujeres (por ejemplo, currículos de puntuación baja que incluían palabras como "mujeres" o educación de " colegios de mujeres”). A pesar de los múltiples intentos fallidos de corregir el algoritmo, la compañía finalmente tuvo que descartar la IA porque no podía "desaprender" este sesgo.
Los programas de IA con análisis facial muestran sesgos de género y raza, lo que demuestra errores bajos para determinar el género de los hombres de piel más clara, pero errores altos en la determinación del género para las mujeres de piel más oscura.
Los algoritmos utilizados en los tribunales para realizar "evaluaciones de riesgo" sobre los acusados tienen prejuicios raciales. Esta IA predice la probabilidad de que los acusados cometan futuros delitos y sus evaluaciones se utilizan a lo largo del proceso de justicia penal, lo que influye en las decisiones sobre el monto de la fianza y condenas del acusado. Un estudio reciente descubrió que los pronósticos no eran confiables y estaban sesgados para señalar que los acusados negros, casi el doble que los acusados blancos, tienen más probabilidades de cometer futuros crimines. Se descubrió que los acusados negros en realidad no volvieron a reincidir en las tasas previstas. Los programas cometieron el error opuesto para los acusados blancos, dándoles puntuaciones de riesgo más bajas. Mientras tanto, los investigadores descubrieron que los acusados blancos reincidieron en una tasa más alta de lo previsto. Estas diferencias no pueden explicarse por antecedentes penales, edad o género.
Las máquinas programadas por el software de reconocimiento de imágenes y las fotografías aprendieron una visión sexista de las mujeres, asociando escenas como la cocina a las mujeres y los deportes asociados a los hombres, incluso cuando estas etiquetas eran incorrectas. Los investigadores también probaron los conjuntos de datos y descubrieron que la IA no solo reflejaba los sesgos de género inconscientes de sus creadores, sino que también los amplificaba.
La tecnología activada por voz en los autos puede ayudar a resolver el problema que presentan los conductores que manejan distraídos, pero los sistemas de muchos autos son sordos a las voces de las mujeres y tienen dificultades para reconocer acentos extranjeros.
Los creadores de inteligencia artificial deben ser más diversos
La inteligencia artificial no es verdaderamente objetiva. La IA y sus algoritmos pueden reflejar los sesgos de sus creadores, e incluso aquellos que son imparciales al inicio pueden aprender los sesgos de sus entrenadores humanos a lo largo del tiempo. Debe programarse, revisarse, monitorearse y auditarse para asegurarse de que no esté sesgado en función de sus algoritmos y datos.
Agregar más mujeres y trabajadores más diversos con habilidades técnicas en el campo de la IA es una forma de reducir el sesgo, proporcionando perspectivas adicionales y más sistemas de seguridad contra fallas, creando y capacitando a la IA para reflejar con mayor precisión una sociedad diversa e inclusiva.Una mayor diversidad también puede reducir el pensamiento grupal y mejorar la toma de decisiones en equipo, aprovechando una mayor variedad de perspectivas para tomar decisiones más rápidas y completas. Los equipos de IA homogéneos y los investigadores pueden no estar prestando la suficiente atención como para notar cuando el sesgo se ha deslizado e impactado en la AI que ellos han creado o entrenado.
Actualmente, las mujeres están muy poco representadas en el campo de la IA, un estudio encontró que solo el 12%de los principales investigadores de aprendizaje automático eran mujeres. Es de vital importancia que para el futuro se consigan que más mujeres y niñas ingresen a los campos STEM.
Preguntas a considerar
¿Qué estrategias existen para diversificar su grupo de talentos para formar una fuerza laboral diversa, con empleados de diferentes orígenes, perspectivas, visiones del mundo e idiomas?
¿Qué programas puede instituir para aumentar la conciencia de los sesgos inconscientes y cómo combatirlos en su fuerza laboral humana y en sus sistemas de inteligencia artificial? ¿cómo se asegurará de que sus sistemas de IA de contratación y gestión de talento estén libres de sesgos?
¿Qué procesos se implementan para garantizar que usted supervise rutinariamente los algoritmos y las máquinas para detectar sesgos? ¿Cómo puede abordar inmediatamente el sesgo si descubre que se está introduciendo en las decisiones, acciones o procesos de su IA?
¿Qué pasos está tomando para crear un lugar de trabajo inclusivo donde las personas se sientan seguras de hablar? ¿Cómo se asegura de que su cultura organizaciona valora el respeto y la responsabilidad? Puede ser más fácil para usted captar el sesgo de la IA si los humanos que interactúan con las herramientas saben que pueden ser críticos con los sistemas actuales implementados en su lugar sin repercusiones negativas.
¿Qué regulaciones, consideraciones éticas y mejores prácticas de vigilancia contra la perpetuación del sesgo se pueden defender en el espacio de la IA?
Artículo publicado por:Catalyst
Traducido por:Women for Women Ecuador
Link del artículo original:https://www.catalyst.org/research/trend-brief-gender-bias-in-ai/