/ martes 18 de junio de 2024

Por qué la IA no es feminista: los sesgos de género que puede reproducir

La Inteligencia Artificial (IA) todavía tiene sesgos de género que se deben, en parte, a la información con la que se entrena y en la que predomina el enfoque masculino

La Inteligencia Artificial (IA) es una herramienta que procesa grandes cantidades de información permitiendo que las operaciones en diferentes sectores sean más eficientes. Pero, dejando de lado los beneficios que tiene, esta tecnología se encuentra lejos de ser feminista porque todavía reproduce estereotipos de género y discriminación.

La IA no tiene género, aunque la información que genera en ocasiones puede ser machista y fomentar estereotipos que cosifican a las mujeres, de acuerdo con un texto publicado en la Gaceta UNAM.

La IA no tiene género, aunque la información que genera en ocasiones puede ser machista y fomentar estereotipos que cosifican a las mujeres, de acuerdo con un texto publicado en la Gaceta UNAM. Incluso, a pregunta expresa de la Máxima Casa de Estudios a Chat Gpt, respondió que sí pueden perpetuar roles de género.

La IA no tiene inherentemente género ni ideología. Sin embargo, en su desarrollo e implementación pueden influir cuestiones de género de diversas maneras. Por ejemplo, los sesgos en los conjuntos de datos utilizados para entrenar modelos de IA es posible que perpetúen estereotipos de género o discriminación”.

Sin embargo, la responsabilidad no recae en la tecnología, sino como el mismo Chat Gpt lo menciona, sus sesgos se deben a los datos con los que se entrenan los modelos. Es decir, en un mundo predominantemente dominado por hombres, la información disponible no ahondará en las mujeres, según explican especialista de la UNAM.

¿Por qué la Inteligencia Artificial no puede considerarse feminista?

Saiph Savage, ingeniera en computación por la UNAM y doctora en Ciencias de la Computación por la Universidad de California, explica que la IA generatica produce información con base en los datos que se le dan para prender conceptos, debido al machine learning (experiencia y aprendizaje de máquina).

Por su parte, María Ximena Gutiérrez, del programa Macrodatos, Inteligencia Artificial e Internet del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH), reconoce que lo que sefleja en la IA de la sociedad tiene muchos sesgos.

“Lo que está reflejado ahí de nosotros tal vez tiene muchos sesgos, reproduce estereotipos, incluidas cuestiones de género que se consideran machistas. El enfoque predominante de la IA se basa en aprender de una gran cantidad de ejemplos (data-driven). El sistema aprenderá de datos de origen que pueden estar sesgados”.

Entre los ejemplos que menciona la Universidad Nacional sobre las consecuencias que tiene el sesgo de datos con un enfoque pensado también es las mujeres, se encuentra la contratación.

➡️ Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante

Un ejemplo es una empresa multinacional especializada en comercio electrónico que entre 2014 y 2015 descubrió que sus motores de contratación discriminaban a mujeres. La razón es que sus herramienta de selección trabajaba con un algoritmo que aprendió a valorar C.V mayoritariamente de hombres, por lo que una candidata mujer tenía menor o nula posibilidad de pasar el filtro.

Pero ese no es el único caso de una IA machista, pues también puede contribuir en las agresiones a las mujeres, como la generación de imágenes, videos o sonidos en los que son representadas como objetos sexuales.

Estamos viendo casos terribles de violencia digital contra las mujeres que complejizan aún más el problema para ellas.Aimée Vega, especialista en feminismo y comunicación del CEIICH.


En el texto, la UNAM también menciona que la tecnología necesita representación femenina, como en el desarrollo de aplicaciones que se enfocan en la salud menstrual de las mujeres y que usualmente son hechas por hombres.

Asimismo, Aimée Vega expresó que la tecnología no es neutral.

“La tecnología no es neutral, es un dispositivo de poder y opera en un marco de relaciones donde se sostiene la desigualdad entre mujeres y hombres, la violación a los derechos humanos de ellas, así como la violencia y la discriminación en su contra”.

En ese sentido, Ximena Gutiérrez señala la importancia de tener representatividad de datos en un sistema de entrenamiento de IA.

“La representatividad de datos digitales que hay para entrenar un sistema, un modelo de lenguaje” ¿Por qué? Porque si “tienen un sesgo muy visible machista eso se verá reflejado”.


La Inteligencia Artificial (IA) es una herramienta que procesa grandes cantidades de información permitiendo que las operaciones en diferentes sectores sean más eficientes. Pero, dejando de lado los beneficios que tiene, esta tecnología se encuentra lejos de ser feminista porque todavía reproduce estereotipos de género y discriminación.

La IA no tiene género, aunque la información que genera en ocasiones puede ser machista y fomentar estereotipos que cosifican a las mujeres, de acuerdo con un texto publicado en la Gaceta UNAM.

La IA no tiene género, aunque la información que genera en ocasiones puede ser machista y fomentar estereotipos que cosifican a las mujeres, de acuerdo con un texto publicado en la Gaceta UNAM. Incluso, a pregunta expresa de la Máxima Casa de Estudios a Chat Gpt, respondió que sí pueden perpetuar roles de género.

La IA no tiene inherentemente género ni ideología. Sin embargo, en su desarrollo e implementación pueden influir cuestiones de género de diversas maneras. Por ejemplo, los sesgos en los conjuntos de datos utilizados para entrenar modelos de IA es posible que perpetúen estereotipos de género o discriminación”.

Sin embargo, la responsabilidad no recae en la tecnología, sino como el mismo Chat Gpt lo menciona, sus sesgos se deben a los datos con los que se entrenan los modelos. Es decir, en un mundo predominantemente dominado por hombres, la información disponible no ahondará en las mujeres, según explican especialista de la UNAM.

¿Por qué la Inteligencia Artificial no puede considerarse feminista?

Saiph Savage, ingeniera en computación por la UNAM y doctora en Ciencias de la Computación por la Universidad de California, explica que la IA generatica produce información con base en los datos que se le dan para prender conceptos, debido al machine learning (experiencia y aprendizaje de máquina).

Por su parte, María Ximena Gutiérrez, del programa Macrodatos, Inteligencia Artificial e Internet del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH), reconoce que lo que sefleja en la IA de la sociedad tiene muchos sesgos.

“Lo que está reflejado ahí de nosotros tal vez tiene muchos sesgos, reproduce estereotipos, incluidas cuestiones de género que se consideran machistas. El enfoque predominante de la IA se basa en aprender de una gran cantidad de ejemplos (data-driven). El sistema aprenderá de datos de origen que pueden estar sesgados”.

Entre los ejemplos que menciona la Universidad Nacional sobre las consecuencias que tiene el sesgo de datos con un enfoque pensado también es las mujeres, se encuentra la contratación.

➡️ Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante

Un ejemplo es una empresa multinacional especializada en comercio electrónico que entre 2014 y 2015 descubrió que sus motores de contratación discriminaban a mujeres. La razón es que sus herramienta de selección trabajaba con un algoritmo que aprendió a valorar C.V mayoritariamente de hombres, por lo que una candidata mujer tenía menor o nula posibilidad de pasar el filtro.

Pero ese no es el único caso de una IA machista, pues también puede contribuir en las agresiones a las mujeres, como la generación de imágenes, videos o sonidos en los que son representadas como objetos sexuales.

Estamos viendo casos terribles de violencia digital contra las mujeres que complejizan aún más el problema para ellas.Aimée Vega, especialista en feminismo y comunicación del CEIICH.


En el texto, la UNAM también menciona que la tecnología necesita representación femenina, como en el desarrollo de aplicaciones que se enfocan en la salud menstrual de las mujeres y que usualmente son hechas por hombres.

Asimismo, Aimée Vega expresó que la tecnología no es neutral.

“La tecnología no es neutral, es un dispositivo de poder y opera en un marco de relaciones donde se sostiene la desigualdad entre mujeres y hombres, la violación a los derechos humanos de ellas, así como la violencia y la discriminación en su contra”.

En ese sentido, Ximena Gutiérrez señala la importancia de tener representatividad de datos en un sistema de entrenamiento de IA.

“La representatividad de datos digitales que hay para entrenar un sistema, un modelo de lenguaje” ¿Por qué? Porque si “tienen un sesgo muy visible machista eso se verá reflejado”.


Política

Sedena resguardará Cámara de Diputados a partir del lunes por toma de protesta de Sheinbaum

Sedena asumirá el control de los accesos de la Cámara de Diputados y extenderá el perímetro de blindaje para garantizar la seguridad de los asistentes a la investidura de Claudia Sheinbaum

CDMX

Revisan inmuebles en CDMX tras microsismos

Myriam Urzúa, secretaria de Gestión Integral y Gestión de Riesgos y Protección Civil, informó que hay 14 solicitudes para revisar las estructura de inmuebles tras los microsismos en la capital

Justicia

Juez prohíbe afectar fideicomisos, remuneraciones y pensiones del PJF

La resolución también frena cualquier acción que eche a andar el proceso de elección extraordinaria 2025 establecido en la reforma judicial

Finanzas

Kamala Harris demuestra su desacuerdo al T-MEC

La vicepresidenta Harris expresó su intención de revisar el T-MEC con el fin de beneficiar la mano de obra, los empleos y las empresas estadounidenses

Justicia

Procesan a El Piyi, jefe de seguridad de Los Chapitos

Fernando Pérez Mendoza, cercano a Iván Archivaldo Guzmán Salazar, fue vinculado a proceso penal por un juez tras su detención en Culiacán

Finanzas

AMLO extiende regularización de autos chocolate; AMDA protesta

AMDA señala que la medida de regularización extendida por el gobierno de López Obrador se puede convertir en un estímulo al contrabando