/ jueves 14 de enero de 2021

¿La inteligencia artificial puede aumentar la desigualdad?

Los humanos son capaces de detectar sus errores, las máquinas no, por lo que si los cometen, los repetirán permanentemente

El uso cada vez más diversificado de servicios que se basan en la inteligencia artificial (IA), como podrían ser los buscadores de información o las compras en línea nos hacen pensar que podemos confiar plenamente en los algoritmos con los que estos sistemas trabajan.

Y es que, a diferencia de los seres humanos, que tenemos la capacidad de identificar nuestros errores, y en su caso corregirlos, los especialistas nos recuerdan que cuando un sistema de IA comete un error, este se repetirá una y otra vez, sin importar cuántas veces observe los mismos datos.

▶️ Mantente informado en nuestro canal de Google Noticias

Esto se debe a que los sistemas de inteligencia artificial se entrenan utilizando datos que inevitablemente reflejan el pasado, y si un conjunto de datos de entrenamiento contiene sesgos inherentes de decisiones humanas pasadas, estos sesgos son codificados y amplificados por el sistema.

De la misma manera, si el sistema contiene menos datos sobre un grupo minoritario en particular, las predicciones para ese grupo tenderán a ser peores. A esto se le llama "sesgo algorítmico".

El sesgo algorítmico puede surgir debido a la falta de datos de entrenamiento adecuados o como resultado de un diseño o configuración inadecuados del sistema.

▶️ WhatsApp, Telegram o Signal: ¿quién es quién en las apps de mensajería?

Por ejemplo, un sistema que ayuda a un banco a decidir si concede o no préstamos, normalmente se capacitaría utilizando un gran conjunto de datos de las decisiones de préstamos anteriores del banco, así como otros datos relevantes a los que el banco tiene acceso.

El sistema puede comparar el historial financiero, de empleo y la información demográfica de un nuevo solicitante con la información correspondiente de solicitantes anteriores. Y a partir de esto, intenta predecir si el nuevo solicitante podrá reembolsar el préstamo.

Pero ese enfoque puede resultar problemático. Una forma en que podría surgir un sesgo algorítmico en esta situación es a través de sesgos inconscientes de los administradores de préstamos que tomaron decisiones anteriores sobre las solicitudes de hipotecas.

▶️ "Usen Signal" la recomendación de Elon Musk para dejar atrás el WhatsApp

¿CÓMO SURGE?

Por ejemplo: Si a los clientes de grupos minoritarios se les negaron préstamos injustamente en el pasado, la IA considerará que la capacidad de pago general de estos grupos es menor de lo que en realidad puede ser.

Así, los jóvenes, las personas de color, las mujeres solteras, las personas con discapacidad y los trabajadores manuales, por mencionar solo algunos grupos, pueden estar en desventaja.

El sistema de inteligencia artificial sesgado descrito anteriormente plantea dos riesgos clave para el banco:

Primero, el banco podría perder clientes potenciales al enviar víctimas de prejuicios a sus competidores. Pero también podría ser considerado responsable en virtud de las leyes contra la discriminación.

AFP

Si un sistema de inteligencia artificial aplica continuamente un sesgo inherente en sus decisiones, será más fácil para el gobierno o los grupos de consumidores identificar este patrón sistemático. Esto puede dar lugar a fuertes multas y sanciones.

El Gradient Institute de Australia realizó un estudio que demuestra cómo las empresas pueden identificar el sesgo algorítmico en los sistemas de inteligencia artificial y lo más importante: cómo pueden mitigarlo.

El estudio, que fue realizado en colaboración con la Comisión de Derechos Humanos de Australia, el Centro de Investigación de Políticas del Consumidor y organizaciones no gubernamentales como Data61 y CHOICE, también proporciona orientación técnica sobre cómo se puede eliminar este sesgo, para que los sistemas de inteligencia artificial produzcan resultados éticos que no discriminen en función de características como la raza, la edad, el sexo o la discapacidad.

▶️ Telegram gana usuarios tras recientes políticas de privacidad en WhatsApp

The Conversation realizó una simulación de un minorista de electricidad hipotético que utiliza una herramienta impulsada por IA para decidir cómo ofrecer productos a los clientes y en qué condiciones. La simulación se entrenó en datos históricos ficticios compuestos por individuos ficticios.

Con base en sus resultados, identificaron cinco enfoques para corregir el sesgo. Ese conjunto de herramientas se puede aplicar a empresas de una variedad de sectores para ayudar a garantizar que los sistemas de inteligencia artificial sean justos y precisos:

Obtener mejores datos. El riesgo de sesgo algorítmico se puede reducir al obtener puntos de datos adicionales o nuevos tipos de información sobre las personas, especialmente aquellas que están subrepresentadas (minorías) o aquellas que pueden aparecer de manera inexacta en los datos existentes.

▶️ Microsoft quiere participar en aplicación de vacunas contra Covid-19

Procesar previamente la información. Consiste en editar un conjunto de datos para enmascarar o eliminar información sobre atributos asociados con las protecciones bajo la ley contra la discriminación, como la raza o el género.

Incrementar la complejidad del modelo. Un modelo de IA más simple puede ser más fácil de probar, monitorear e interrogar. Pero también puede ser menos precisa y dar lugar a generalizaciones que favorezcan a la mayoría sobre las minorías.

Modificar el sistema. La lógica y los parámetros de un sistema de inteligencia artificial se pueden ajustar de forma proactiva para contrarrestar directamente el sesgo algorítmico.

▶️ AMD presenta nueva familia de procesadores Ryzen 5000 Series Mobile

Cambiar el objetivo de predicción. La medida específica elegida para guiar un sistema de IA influye directamente en cómo toma decisiones en diferentes grupos. Encontrar una medida más justa para usar como objetivo de predicción ayudará a reducir el sesgo mencionado.

Con las herramientas de toma de decisiones de IA cada vez más comunes, ahora tenemos la oportunidad no solo de aumentar la productividad, sino de crear una sociedad más equitativa y justa.



Escucha el podcast ▼

Apple Podcasts

Google Podcasts

Spotify

Acast

Deezer

Amazon Music



Lee también otros contenidos de Normal ⬇️

El uso cada vez más diversificado de servicios que se basan en la inteligencia artificial (IA), como podrían ser los buscadores de información o las compras en línea nos hacen pensar que podemos confiar plenamente en los algoritmos con los que estos sistemas trabajan.

Y es que, a diferencia de los seres humanos, que tenemos la capacidad de identificar nuestros errores, y en su caso corregirlos, los especialistas nos recuerdan que cuando un sistema de IA comete un error, este se repetirá una y otra vez, sin importar cuántas veces observe los mismos datos.

▶️ Mantente informado en nuestro canal de Google Noticias

Esto se debe a que los sistemas de inteligencia artificial se entrenan utilizando datos que inevitablemente reflejan el pasado, y si un conjunto de datos de entrenamiento contiene sesgos inherentes de decisiones humanas pasadas, estos sesgos son codificados y amplificados por el sistema.

De la misma manera, si el sistema contiene menos datos sobre un grupo minoritario en particular, las predicciones para ese grupo tenderán a ser peores. A esto se le llama "sesgo algorítmico".

El sesgo algorítmico puede surgir debido a la falta de datos de entrenamiento adecuados o como resultado de un diseño o configuración inadecuados del sistema.

▶️ WhatsApp, Telegram o Signal: ¿quién es quién en las apps de mensajería?

Por ejemplo, un sistema que ayuda a un banco a decidir si concede o no préstamos, normalmente se capacitaría utilizando un gran conjunto de datos de las decisiones de préstamos anteriores del banco, así como otros datos relevantes a los que el banco tiene acceso.

El sistema puede comparar el historial financiero, de empleo y la información demográfica de un nuevo solicitante con la información correspondiente de solicitantes anteriores. Y a partir de esto, intenta predecir si el nuevo solicitante podrá reembolsar el préstamo.

Pero ese enfoque puede resultar problemático. Una forma en que podría surgir un sesgo algorítmico en esta situación es a través de sesgos inconscientes de los administradores de préstamos que tomaron decisiones anteriores sobre las solicitudes de hipotecas.

▶️ "Usen Signal" la recomendación de Elon Musk para dejar atrás el WhatsApp

¿CÓMO SURGE?

Por ejemplo: Si a los clientes de grupos minoritarios se les negaron préstamos injustamente en el pasado, la IA considerará que la capacidad de pago general de estos grupos es menor de lo que en realidad puede ser.

Así, los jóvenes, las personas de color, las mujeres solteras, las personas con discapacidad y los trabajadores manuales, por mencionar solo algunos grupos, pueden estar en desventaja.

El sistema de inteligencia artificial sesgado descrito anteriormente plantea dos riesgos clave para el banco:

Primero, el banco podría perder clientes potenciales al enviar víctimas de prejuicios a sus competidores. Pero también podría ser considerado responsable en virtud de las leyes contra la discriminación.

AFP

Si un sistema de inteligencia artificial aplica continuamente un sesgo inherente en sus decisiones, será más fácil para el gobierno o los grupos de consumidores identificar este patrón sistemático. Esto puede dar lugar a fuertes multas y sanciones.

El Gradient Institute de Australia realizó un estudio que demuestra cómo las empresas pueden identificar el sesgo algorítmico en los sistemas de inteligencia artificial y lo más importante: cómo pueden mitigarlo.

El estudio, que fue realizado en colaboración con la Comisión de Derechos Humanos de Australia, el Centro de Investigación de Políticas del Consumidor y organizaciones no gubernamentales como Data61 y CHOICE, también proporciona orientación técnica sobre cómo se puede eliminar este sesgo, para que los sistemas de inteligencia artificial produzcan resultados éticos que no discriminen en función de características como la raza, la edad, el sexo o la discapacidad.

▶️ Telegram gana usuarios tras recientes políticas de privacidad en WhatsApp

The Conversation realizó una simulación de un minorista de electricidad hipotético que utiliza una herramienta impulsada por IA para decidir cómo ofrecer productos a los clientes y en qué condiciones. La simulación se entrenó en datos históricos ficticios compuestos por individuos ficticios.

Con base en sus resultados, identificaron cinco enfoques para corregir el sesgo. Ese conjunto de herramientas se puede aplicar a empresas de una variedad de sectores para ayudar a garantizar que los sistemas de inteligencia artificial sean justos y precisos:

Obtener mejores datos. El riesgo de sesgo algorítmico se puede reducir al obtener puntos de datos adicionales o nuevos tipos de información sobre las personas, especialmente aquellas que están subrepresentadas (minorías) o aquellas que pueden aparecer de manera inexacta en los datos existentes.

▶️ Microsoft quiere participar en aplicación de vacunas contra Covid-19

Procesar previamente la información. Consiste en editar un conjunto de datos para enmascarar o eliminar información sobre atributos asociados con las protecciones bajo la ley contra la discriminación, como la raza o el género.

Incrementar la complejidad del modelo. Un modelo de IA más simple puede ser más fácil de probar, monitorear e interrogar. Pero también puede ser menos precisa y dar lugar a generalizaciones que favorezcan a la mayoría sobre las minorías.

Modificar el sistema. La lógica y los parámetros de un sistema de inteligencia artificial se pueden ajustar de forma proactiva para contrarrestar directamente el sesgo algorítmico.

▶️ AMD presenta nueva familia de procesadores Ryzen 5000 Series Mobile

Cambiar el objetivo de predicción. La medida específica elegida para guiar un sistema de IA influye directamente en cómo toma decisiones en diferentes grupos. Encontrar una medida más justa para usar como objetivo de predicción ayudará a reducir el sesgo mencionado.

Con las herramientas de toma de decisiones de IA cada vez más comunes, ahora tenemos la oportunidad no solo de aumentar la productividad, sino de crear una sociedad más equitativa y justa.



Escucha el podcast ▼

Apple Podcasts

Google Podcasts

Spotify

Acast

Deezer

Amazon Music



Lee también otros contenidos de Normal ⬇️

México

Condados de mayoría mexicana en Texas se vuelcan con Trump

Por primera vez en 30 años, los republicanos ganaron 14 de las 18 demarcaciones texanas que limitan con nuestro país y tienen una población en su mayoría de origen mexicano

República

Atacan al Ejército y Guardia Nacional en colonia Las Mañanitas de Mazatlán

Se trata de la primera agresión que sufren las fuerzas armadas en el puerto; al repeler la agresión hieren al atacante

Metrópoli

Reprueban exámenes para la licencia permanente; “las preguntas fueron confusas”

Daniela es una de las aspirantes que reprobaron el examen teórico de 20 preguntas para conseguir la licencia permanente durante el primer día del trámite en la CdMx

México

Presupuesto 2025: Menos recursos para género, infancia y cuidados

Recortan fondos al Inmujeres y nulo presupuesto para la Secretaría de las Mujeres; expertos advierten retrocesos en igualdad de género

Metrópoli

La Perpetua, historia viva de la Inquisición en el corazón de la CDMX

La prisión, que fue escenario de tortura en nombre de la fe católica, hoy cobra brillo como centro cultural de la UNAM

Mundo

Comienza el G20 con resistencias internas

La agenda incluye un impuesto a los superricos y medidas contra el cambio climático, pero sin promesas de concesiones entre los asistentes