Solicita asesoramiento sin compromiso.

La igualdad de género y los algoritmos

Las formulas matemáticas que dirigen la inteligencia artificial replican y amplían los clichés de género aprendidos del análisis masivo e indiscriminado de datos.

Una de las claves para entender porqué un algoritmo puede presentar un sesgo de género y llegar a conclusiones machistas esta en su propio fundamento. Al estar basado en analizar información para alcanzar una conclusión y resolver los problemas que se le planteen, si los datos que chequean están viciados de origen los resultados replicarán (y ampliaran) esta tara.  

Esto puede suceder por dos motivos:

  • Porque la recopilación indiscriminada y sin tratamiento que hace la maquina de los datos masivos arrojados por infinitos usuarios de la red y sus aplicaciones reflejen ese sesgo impregnado en la propia sociedad
  • Porque la selección de esta información y la definición de modelos diseñados por los programadores ya están sesgadas de origen, al no haberse tenido en cuenta la perspectiva de género

Para Chema Alonso, reputado experto en Inteligencia Artificial y “hacker”, el problema está en el tratamiento y la configuración de los datos con los que se entrena esta Inteligencia Artificial. “Si el entrenamiento se hace con datos de internet sin analizar traemos lo que haya históricamente en la sociedad. Es decir, nos comemos la evolución y volvemos a tener problemas superados hace décadas, como racismo, sexismo, machismo, etc…, traídos por modelos de IA que no sabemos realmente qué y como han aprendido.

Casos paradigmáticos

  • Los algoritmos de herramientas que emplean la IA, como los traductores de Google o Microsoft, interpretan que los ingenieros son hombres y las enfermeras son mujeres
  • El CV de ellas penalizado por defecto. Amazon tuvo un problema reciente con su algoritmo, que demostró penalizar el CV de las mujeres que optaban a ofertas de empleo en la empresa, al descartarlas como no aptas. El motivo era que el algoritmo tomó como dato negativo para valorar la idoneidad del puesto el hecho de que la candidata registrarse periodos de tiempo sin trabajar, debido a las bajas maternales.
  • Anuncios de salarios altos solo para ellos. Posibilidades invisibles. Un equipo de la Universidad de Cornell desarrolló una aplicación para chequear los anuncios en Google. Se crearon 1.000 perfiles ficticios y descubrieron que a los femeninos se les ofrecía menos un anuncio relacionado con trabajos bien remunerados.

No hay que perder de vista, además, que el grueso del desarrollo de Inteligencia Artificial está en manos de solo cinco grandes: Apple, Amazon, IBM, Microsoft y Google. Para evitar que los algoritmos sigan creciendo torcidos hay dos corrientes: una que defiende la autorregulación de las compañías, la cual se ha visto deficiente y otra la ejercida por las instituciones en nuestro caso por la Unión Europea. Esta por ver quien ejercerá el control y que intereses prevalecerán

Fuente Rocio Mendoza. ABC. Sociedad

 

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada.