¿La IA es machista? Esto dicen expertas de la UNAM
Especialistas de la Universidad Nacional Autónoma de México dicen que la Inteligencia Artificial es machista al generar información. ¿Por qué? Aquí te decimos.
MILENIO
Aunque sus desarrolladores e impulsores han manifestado que la Inteligencia Artificial (IA) no tiene género, especialistas de la Universidad Nacional Autónoma de México (UNAM) señalan lo contrario y, que, de hecho, es “sutil o abiertamente” machista al generar información. Aquí te contamos la razón.
En un video compartido por la institución, se le cuestionó a Chat GPT si la IA posee capacidades de actuar conforme al machismo, a lo que respondió que:
“La Inteligencia Artificial (IA) en sí misma no tiene la capacidad de ser machista, ya que es simplemente un conjunto de algoritmos y datos diseñados por humanos. Sin embargo, los sesgos y prejuicios humanos pueden introducirse en los sistemas de IA (…)”
Dado que la IA recaba datos y dispone de información histórica para generar una nueva, ésta se mantiene sesgada, pues la IA no tiene la capacidad de modificarla y dotarla de una perspectiva incluyente y feminista. En cambio, se vale de un marco de discriminación y violencia contra las mujeres, el cual data de muchos años atrás.
¿Cómo opera para ser machista?
Los datos generados por el dominio masculino que ha predominado en la industria tecnológica, sirven para que la IA se nutra y genere otros conceptos; no obstante, no los modifica, pues es una tecnología programada.
“La respuesta está en la forma en que la IA es programada… por hombres. Por hombres que reproducen orientaciones machistas”, señalan especialistas.
Por ello, dicha innovación tecnológica no puede alterar la información, pues esa es la única de la que dispone a brindar, replicar o producir.
Un caso de machismo
La ingeniera en computación por la UNAM, Saiph Savage, explicó que, en el año 2014 y 2015, una empresa de comercio electrónico entrenó a la IA para elegir a qué persona quería contratar y resultó que, al darle el CV de una mujer, ésta lo rechazaba. ¿La razón? La IA se basaba en un algoritmo de valoración de los CV’s en un periodo de 10 años, en el que predominaba el sexo masculino.
¿De dónde provienen los sesgos?
La lingüista computacional Ximena Gutiérrez menciona que el enfoque de la IA se basa en aprender una cantidad de ejemplos que pueden estar sesgados. No obstante, dicho sesgo también podría venir de grupos de trabajo que trabajan con la tecnología.
“Por ejemplo, las principales compañías que hacen IA hoy en día: Meta AI, Google, Open AI, todas estas, en realidad tienen una representación muy del norte global, casi no hay inclusión de instituciones del sur global, ahí ya hay un sesgo y eso ya va más allá de los algoritmos o la programación”, comenta Ximena Gutiérrez.
Sin embargo, para los sesgos que, de por sí se acumulan por diversas cuestiones como la geografía y la presencia de los hombres en el ámbito tecnológico y de la ingeniería, también destaca la nula o poca participación de las comunidades y la diversidad en el diseño de la Inteligencia Artificial.
¿Cómo se trabaja ante este problema?
La UNAM cuenta con un curso de IA centrado en el ser humano. Dicho curso tiene como propósito terminar con los sesgos existentes y nutrir con información alejada de actos discriminatorios y estereotipados.
“La IA puede tener errores, es importante que permitas que haya personas que ayuden a corregirlos y percatarse de que es posible que los sesgos existan”, afirma, Saiph Savage.