La prisa por implementar nuevas y poderosas tecnologías de Inteligencia Artificial (IA) generativa, ha generado alarmas sobre posibles daños y mal uso, por lo que se espera que las empresas desarrollen tecnologías de manera ética
Pero, ¿qué significa exactamente eso? La respuesta directa sería alinear las operaciones de una empresa con uno o más de las docenas de conjuntos de principios éticos de IA que han producido gobiernos, grupos de múltiples partes interesadas y académicos. Pero eso es más fácil decirlo que hacerlo.
Te puede interesar: La IA generativa nos hará repensar la idea de la autenticidad
Nosotros y nuestros colegas pasamos dos años entrevistando y encuestando a profesionales de la ética de la IA en una variedad de sectores para tratar de comprender cómo buscaban lograr una IA ética, y qué es lo que podrían estar perdiendo.
Aprendimos que perseguir la ética de la IA en el terreno se trata menos de mapear principios éticos en acciones corporativas que de implementar estructuras y procesos de gestión que permitan a una organización detectar y mitigar amenazas.
Es probable que esta sea una noticia decepcionante para las organizaciones que buscan una guía inequívoca que evite las áreas grises y para los consumidores que esperan estándares claros y protectores. Pero apunta a una mejor comprensión de cómo las empresas pueden buscar una IA ética.
Lidiando con las incertidumbres
Nuestro estudio, que es la base de un próximo libro, se centró en los responsables de gestionar los problemas de ética de la IA en las principales empresas que la utilizan. Desde finales de 2017 hasta principios de 2019, entrevistamos a 23 de estos gerentes. Sus títulos iban desde oficial de privacidad y asesor de privacidad hasta uno que era nuevo en ese momento, pero cada vez más común en la actualidad: oficial de ética de datos. Nuestras conversaciones con estos gerentes de ética de IA produjeron cuatro conclusiones principales.
Primero, además de sus muchos beneficios, el uso comercial de la IA presenta riesgos sustanciales, y las empresas lo saben. Los gerentes de ética de AI expresaron su preocupación por la privacidad, la manipulación, el sesgo, la opacidad, la desigualdad y el desplazamiento laboral. En un ejemplo bien conocido, Amazon desarrolló una herramienta de inteligencia artificial para ordenar los currículos y la capacitó para encontrar candidatos similares a los que había contratado en el pasado.
El uso comercial de la IA presenta riesgos sustanciales, y las empresas lo saben
El dominio masculino en la industria tecnológica significó que la mayoría de los empleados de Amazon fueran hombres. En consecuencia, la herramienta aprendió a rechazar candidatas. Incapaz de solucionar el problema, Amazon finalmente tuvo que desechar el proyecto.
En segundo lugar, las empresas que persiguen una IA ética lo hacen en gran medida por razones estratégicas. Quieren mantener la confianza entre los clientes, socios comerciales y empleados. Y quieren adelantarse o prepararse para las regulaciones emergentes.
Las empresas que persiguen una IA ética lo hacen en gran medida por razones estratégicas
El escándalo de Facebook-Cambridge Analytica, en el que Cambridge Analytica usó datos de usuarios de Facebook, compartidos sin consentimiento, para inferir los tipos psicológicos de los usuarios y atacarlos con anuncios políticos manipuladores, mostró que el uso poco ético de análisis avanzados puede destruir la reputación de una empresa o incluso, como en el caso de la propia Cambridge Analytica, derribarlo.
El desafío que enfrentaron los gerentes de ética de la IA fue descubrir la mejor manera de lograr una "IA ética". Primero examinaron los principios éticos de la IA, en particular los que tienen sus raíces en la bioética o los principios de los derechos humanos, pero los encontraron insuficientes.
La justicia, la equidad, la beneficencia, la autonomía y otros principios similares son impugnados y sujetos a interpretación y pueden entrar en conflicto entre sí
No se trataba simplemente de que hubiera muchos conjuntos de principios en competencia. Era que la justicia, la equidad, la beneficencia, la autonomía y otros principios similares son impugnados y sujetos a interpretación y pueden entrar en conflicto entre sí.
Esto llevó a nuestra tercera conclusión: los gerentes necesitaban más que principios de IA de alto nivel para decidir qué hacer en situaciones específicas.
Los gerentes necesitaban más que principios de IA de alto nivel para decidir qué hacer en situaciones específicas
En cuarto lugar, los profesionales que se enfrentaban a incertidumbres éticas recurrieron a estructuras y procedimientos organizativos para llegar a juicios sobre qué hacer. Algunos de estos eran claramente inadecuados. Pero otros, aunque todavía estaban en gran parte en desarrollo, fueron más útiles, como:
➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevan
Contratar a un oficial de ética de AI para construir y supervisar el programa; establecer un comité de ética interno de IA para sopesar y decidir cuestiones difíciles; elaborar listas de verificación de ética de datos y exigir que los científicos de datos de primera línea las completen, y llegar a académicos, ex reguladores y defensores de perspectivas alternativas.
De momento, y en ausencia de requisitos legales explícitos, las empresas, al igual que las personas, solo pueden hacer todo lo posible para ser conscientes de cómo la IA afecta a las personas y al medio ambiente y mantenerse al tanto de las preocupaciones del público y las últimas investigaciones e ideas de los expertos.
* Catedráticos de Informática y Filosofía, Universidad Estatal de Ohio.