Exacta, rápida, y, por sobre todo, neutra. Así es la imagen ampliamente difundida de la Inteligencia Artificial. Los hechos, sin embargo, muestran otro panorama.

“Los sistemas de Inteligencia Artificial funcionan bien para un tipo de personas: blancas, heteronormadas, que hablan inglés, que tienen movilidad, que pueden entender cómo funcionan esos sistemas”, asegura al informativo alemán DW Español, Paola Ricaurte Quijano, profesora del Instituto Tecnológico y de Estudios Superiores de Monterrey.

“Para las demás personas, estos sistemas representan un tipo de tecnología que no está diseñada para ellas ni por ellas”, completa.

“La IA no es neutral porque es desarrollada por humanos, con sus visiones del mundo y sus sesgos”, afirma a su vez la experta brasileño-colombiana Joana Varón, fundadora de la organización Coding Rights, dedicada al tema.

“Muchos sistemas son diseñados por empresas que tienen como directores y desarrolladores, en su gran mayoría, a hombres blancos del norte global”, añade.

“Previsiblemente entonces, los resultados no van a tomar en cuenta las necesidades y particularidades de ser mujer en el mundo”.

Joana Varón, fundadora de Coding Rights

DISCRIMINACIÓN EN ACCIÓN

“Los sistemas de reconocimiento facial, por ejemplo, funcionan de manera más precisa cuando son aplicados a rostros de hombres blancos. Y tienen un nivel de error más alto cuando son aplicados en rostros negros, y más aún, si se trata de mujeres negras”, puntualiza Varón.

Las consecuencias pueden ser graves: “una mujer negra identificada de manera equivocada por un software de reconocimiento facial de la policía, va a tener muchas más dificultades que un hombre para probar que el resultado de la máquina es erróneo, y va a estar sujeta a abordajes de violencia policial, tan comunes en la región”, precisa Varón desde Río de Janeiro.

CONTRA MUJERES

“La discriminación contra las mujeres es muy visible cuando realizamos búsquedas de imágenes”, suma, por su parte, la docente mexicana Ricaurte Quijano.

“Si colocamos jefe y secretaria en el buscador, aparecerán imágenes sexualizadas que denigran a las mujeres”, critica.

Asimismo, hay oficios que son pensados como eminentemente masculinos, y eso también lo podemos ver en las imágenes que buscamos.

“Por ejemplo, si lo hacemos con el término ‘astronauta’, aparecerán solo hombres”, señala la también integrante de la cooperativa Tierra Común, dedicada a luchar contra “el colonialismo de datos”.

Y eso no es todo: “Este sesgo también podemos constatarlo con los traductores: si queremos traducir algo del inglés al español, siempre la herramienta va a ofrecer el resultado en masculino”, reprueba.

“No hay tal cosa como la objetividad de los datos o los algoritmos: siempre hay un sesgo”, concluye la docente, y en palabras de la matemática estadounidense Cathy O´Neil, refuerza: “Los algoritmos son opiniones embebidas en código”.

COMO ENTRENAS, DA RESULTADOS

“Los sistemas no predicen el futuro, como muchos creen, sino que sintetizan una probabilidad de ocurrencia de un evento a partir de grandes volúmenes de datos del pasado con los que son entrenados”, explica, por su parte, la experta argentina Beatriz Busaniche, directora de la Fundación Vía Libre, dedicada a “defender los derechos en el entorno digital”.

“Y estos datos muchas veces reflejan características de una sociedad que está estructurada alrededor de un sistema patriarcal y machista”, agrega.

“Así, por ejemplo, si un empleo de alto nivel empresarial históricamente fue cubierto por hombres, el sistema va a interpretar que eso es lo que debe buscar”, explica la investigadora.

La lista de sesgos, en tanto, es extensa. “Las minorías no están debidamente representadas en los sets de datos, hay poca representación de pueblos originarios, de países menos desarrollados, de idiomas con menor cantidad de hablantes”, enumera Busaniche.

(Fotos: Tomadas de DW Español)

Compartir