miércoles, noviembre 30, 2022
spot_img
InicioTecnologiaLos algoritmos no son perfectos: sesgan por sexo y raza

Los algoritmos no son perfectos: sesgan por sexo y raza

El informe ‘Mujeres y Digitalización. De las brechas y los algoritmos del Instituto de la Mujer y para la Igualdad de Oportunidades’ apunta que muchos de los algoritmos que se utilizan en aplicaciones de reconocimiento de imagen o voz se basan en estereotipos de género a partir de la apariencia física de las personas que se suponen usuarias de las mismas.  Solo un 12% de las personas que participan en el desarrollo de este tipo de innovaciones con capacidad de decisión de alto nivel son mujeres. Según informaciones recientes, solo el 11% de las personas que programan código fuente (escriben software) son mujeres. El porcentaje más alto corresponde a Reino Unido, con 54,5%, seguido de España, (9,3%) y Australia (7,9%). A pesar de que ha habido un aumento positivo en el número de mujeres, en el sector se reconoce que hay un problema de género y se han puesto en marcha iniciativas para que las empresas sean más amigables con las mujeres. 

La falta de mujeres en el campo de la inteligencia artificial afecta a las experiencias que comparten día a día las personas que diseñan algoritmos, sistemas y aplicaciones, que acaban filtrándose en forma de sesgos de género y de otro tipo. Cada vez es más importante la igualdad en todos los aspectos, ya que las herramientas digitales están presentes en muchas situaciones de la vida cotidiana. 

“Dichos algoritmos reproducen falsas creencias en torno a cómo deberían ser los atributos físicos que definen a las personas según su sexo biológico, su procedencia étnica o cultural, o su orientación sexual”. A pesar de que los estudios apuntan a este tipo de problemas, parece que el patrón cultural dominante corresponde a un hombre blanco perteneciente a un grupo acomodado. Es a él a quien se tiene como público objetivo a la hora de diseñar y desarrollar herramientas de inteligencia artificial. Ello es así en gran medida porque es el reflejo de quienes las diseñan, que lo hacen de manera acorde con sus propias necesidades de productos y servicios.

“El hecho de que sean los hombres quienes diseñan los algoritmos hacen que se sitúe al género masculino como el valor predeterminado y al femenino, como el valor atípico”, apuntan en el informe de ClosinGap sobre brecha digital. En el estudio alertan de cómo la creciente adopción de la inteligencia artificial puede suponer la normalización de los sesgos algorítmicos y de la discriminación contra las mujeres.  Para ello, es necesario corregir con urgencia estas barreras con el fin de evitar que se acentúen las desigualdades de género en el futuro.

Solo un 12% de las personas que participan en el desarrollo de este tipo de innovaciones
con capacidad de decisión de alto nivel son mujeres

“La desigualdad de género no puede seguir transfiriéndose al entorno digital, sino que entre todos debemos construir una sociedad digital inclusiva”, afirma Marieta Jiménez, presidenta de ClosinGap y presidenta europea de Merck Healthcare. Remedios Orrantía, directora de recursos humanos de Vodafone, explica que el sesgo de los algoritmos también aparece cuando se autocompleta la búsqueda.

Por ello, Orrantía advierte de que hay que tener cuidado con los buscadores, “hay que tener en cuenta a la persona que está buscando no el perfil. A mi me gusta mucho el fútbol y soy mujer, pero no me saldrán propuestas de deporte”. 

Los algoritmos son unos códigos que permiten resolver problemas // pixabay

Posibles soluciones

El informe del Instituto de la Mujer señala que un recomendación fundamental sería la de incorporar la perspectiva de género en la formación inicial y continuada de las personas creadoras de tecnologías (programadores, creadores de códigos y algoritmos) para que sus diseños y producciones tecnológicas estén libres de sesgos de género y, por extensión de otros sesgos, que terminan reproduciendo las grandes desigualdades sociales de nuestras sociedades contemporáneas.

Remedios Orrantía resalta la importancia de formar en tecnología y en fomentar las carreras STEM. Por su parte, María Jesús González-Espejo, socia directora del Instituto de Innovación Legal, y la vicepresidenta de la Asociación Europea de Legaltech (ELTA), apunta que no solo hace falta fomentar la necesidad de formación digital entre las mujeres, sino también formar a los hombres que crean esos algoritmos en la igualdad. También considera necesario formar en materia jurídica y en derechos fundamentales.

Asimismo, González-Espejo apunta que falta un marco legal básico para que se establezca quién es el responsable de la transparencia en los algoritmos y qué política se va a seguir. “Es algo urgente porque los algoritmos están aquí”, puntualiza. Además, considera necesaria la creación de un consejo de expertos, formados en Derecho, Ética, Informática y Ciencia de Datos, para poder controlar esa transparencia.

EJEMPLOS

Hay varios ejemplos en empresas grandes e incluso en administraciones públicas que ponen de relieve el sesgo de sexo en los algoritmos. Así en Amazon crearon un algoritmo para automatizar el reclutamiento de trabajadores. Los creadores de ese código cogieron a los trabajadores más exitosos de la compañía de los últimos diez años, que en su mayoría eran hombres, por lo que el algoritmo estaba creado para que destacara a los hombres

El algoritmo no consideraba candidaturas de mujeres porque estaba entrenado para identificar el estándar masculino y básicamente replicaba las creencias culturales que animan a los hombres y desaniman a las mujeres para que ocupen puestos tecnológicos en entornos STEM. Ante tal situación, Amazon ha invertido grandes esfuerzos para procurar que este tipo de sesgos en los procesos de reclutamiento y selección de personas no vuelvan a ocurrir.

Por otro lado, el 5 de febrero de 2020, un tribunal holandés dictó una sentencia en respuesta a una demanda hecha por un grupo de personas y organizaciones en la que denunciaban falta de proporcionalidad en la utilización de una app creada por el Gobierno holandés basada en inteligencia artificial para evaluar el riesgo de fraude a la Seguridad Social.

La aplicación procesaba datos personales y de ella se extraían una serie de conclusiones sobre el nivel de riesgo de la persona. Ese nivel de riesgo era luego evaluado por una unidad que fijaba el nivel de riesgo definitivo. El tribunal ha considerado que el algoritmo no respetaba los principios de proporcionalidad y transparencia.

FUENTE

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Most Popular

Recent Comments