/ sábado 14 de septiembre de 2024

¿Qué es la ética de la Inteligencia Artificial?

Desde Metrópolis (1927) a Blade Runner (1982 y 2017), pasando por la obra de Isaac Asimov y WALL-E (2008) por sólo mencionar unas pocas, las preocupaciones acerca de los alcances éticos en relación con lo que hoy conocemos como inteligencia artificial (IA) han estado presentes en la cultura popular, la literatura y el cine, al menos, casi desde el inicio del siglo XX –y si somos algo quisquillosos, incluso podríamos estirar los ejemplos e incorporar la extraordinaria la obra de Mary Shelley, Frankenstein, de 1818. En cambio, el campo académico que hoy conocemos como ética de la IA, si bien tuvo menciones esporádicas desde los años 40 y se comenzó a publicar a mediados de los 80, realmente es un área de conocimiento cuyo desarrollo ha sido muy reciente.

Pero, ¿de qué se trata y qué discusiones abarca? De forma general, podríamos decir que la ética de la IA tiene que ver con la reflexión acerca de las consecuencias, alcances y riesgos de esta tecnología para la vida humana en el sentido más amplio. Sin embargo, aunque hay cierto consenso acerca de este punto de partida, la verdad es que es posible notar, al menos, dos grandes enfoques que buscan dar respuesta al tipo de problemas a los que debería enfocarse la ética de la IA. Por un lado, tenemos a aquellos expertos que señalan la urgente necesidad de atender las repercusiones más inmediatas de la IA en ámbitos como la seguridad, la privacidad, la equidad, el desplazamiento laboral, la salud o la educación. Por el otro, tenemos a otros grupos de expertos para quienes los problemas son mucho más de fondo y se relacionan con las amenazas a los derechos humanos, al frágil equilibrio climático o potencialmente a la propia existencia humana que implican los desarrollos sin frenos ni límites de estas tecnologías.

Recientemente se ha publicado el libro Handbook on the Ethics of Artificial Intelligence (Manual sobre la ética de la IA), editado por David Gunkel, académico experto en cibercultura y comunicación que, en sus 21 capítulos reúne una serie de discusiones y reflexiones de lo más actual y pertinente en este campo por parte de reconocidas figuras internacionales. Expongo a continuación una muy breve síntesis de las principales ideas de las contribuciones del propio Gunkel y las del capítulo primero de Sven Nyholm, “What is This Thing Called the Ethics of AI and What Calls for It?” (¿Qué es eso llamado ética de la IA y qué exige?).

Gunkel comienza por señalar que, dado que el desarrollo tecnológico está encabezado por una industria occidental, asimismo las reflexiones que guían las discusiones éticas correspondientes también lo están. En este sentido, hasta ahora, los valores que se deben seguir en estas reflexiones han estado marcados por una mirada etnocéntrica occidental, que refleja las principales preocupaciones de Estados Unidos y Europa, pero no necesariamente las del resto del mundo. Por tanto, para pensar una auténtica ética de la IA que sea incluyente (y dado que terminará por afectar a todo el mundo), propone partir de una base: la ética es diversa y dinámica, pues responde a la historia y los contextos. Pero para evitar ahora un relativismo paralizante, es necesario mirar la ética a través de un pluralismo abierto al diálogo, al intercambio, al entendimiento y a la construcción conjunta de estándares y principios que se puedan compartir y adecuar a las diferentes realidades humanas. Así, Gunkel propone colocar las diferencias sobre la mesa y establecer, cooperativamente, y de acuerdo con las preocupaciones de las diversas sociedades, las áreas de prioritaria atención de una ética de la IA que tome en cuenta esta pluralidad en la creación de consensos globales.

Por su parte, Nyholm señala que, por lo general, la mayor parte de la discusión sobre la ética de la IA se ha enfocado en lo que él llama un enfoque estrecho de la ética, cuyo énfasis se ha puesto en identificar qué tipo de prácticas, acciones y usos de la IA deben permitirse y qué otros deberían prohibirse o limitarse. Sin embargo, Nyholm argumenta en favor de cambiar la mirada hacia enfoques más amplios de la ética de la IA. En este sentido, argumenta que una visión más amplia no sólo tendría que incluir las preocupaciones de los enfoques más estrechos, sino que debería ir más allá al plantear cuestionamientos acerca de cómo promover una IA que fomente el bienestar humano, contribuya a desarrollar relaciones realmente significativas con otros seres humanos, o nos ayude a crecer como personas tanto en lo individual como en lo comunitario y colectivo.

De la discusión de los dos autores se desprende la necesidad de considerar la ética de la IA como un campo que no sólo debe estar circunscrito a la reflexión de los expertos, sino que, al incidir en nuestras vidas cotidianas (desde las adaptaciones de IA a los buscadores en las plataformas y ahora en las redes sociales, hasta las nuevas funciones de asistentes tecnológicos y Chatbots en los servicios de cualquier tipo), todos y todas debemos reflexionar acerca de qué sucede mientras usamos esta tecnología para ”hacer nuestra vida más fácil”. ¿Qué pasa con nuestros datos personales, nuestra privacidad, o nuestra seguridad? Y también, ¿cómo queremos usar esta tecnología para construir mejores relaciones con nuestros entornos, nuestras familias y amigos, nuestros círculos sociales y laborales? La ética de la IA es, por tanto, un campo que, al afectarnos, reclama una responsabilidad también de nuestra parte.

Desde Metrópolis (1927) a Blade Runner (1982 y 2017), pasando por la obra de Isaac Asimov y WALL-E (2008) por sólo mencionar unas pocas, las preocupaciones acerca de los alcances éticos en relación con lo que hoy conocemos como inteligencia artificial (IA) han estado presentes en la cultura popular, la literatura y el cine, al menos, casi desde el inicio del siglo XX –y si somos algo quisquillosos, incluso podríamos estirar los ejemplos e incorporar la extraordinaria la obra de Mary Shelley, Frankenstein, de 1818. En cambio, el campo académico que hoy conocemos como ética de la IA, si bien tuvo menciones esporádicas desde los años 40 y se comenzó a publicar a mediados de los 80, realmente es un área de conocimiento cuyo desarrollo ha sido muy reciente.

Pero, ¿de qué se trata y qué discusiones abarca? De forma general, podríamos decir que la ética de la IA tiene que ver con la reflexión acerca de las consecuencias, alcances y riesgos de esta tecnología para la vida humana en el sentido más amplio. Sin embargo, aunque hay cierto consenso acerca de este punto de partida, la verdad es que es posible notar, al menos, dos grandes enfoques que buscan dar respuesta al tipo de problemas a los que debería enfocarse la ética de la IA. Por un lado, tenemos a aquellos expertos que señalan la urgente necesidad de atender las repercusiones más inmediatas de la IA en ámbitos como la seguridad, la privacidad, la equidad, el desplazamiento laboral, la salud o la educación. Por el otro, tenemos a otros grupos de expertos para quienes los problemas son mucho más de fondo y se relacionan con las amenazas a los derechos humanos, al frágil equilibrio climático o potencialmente a la propia existencia humana que implican los desarrollos sin frenos ni límites de estas tecnologías.

Recientemente se ha publicado el libro Handbook on the Ethics of Artificial Intelligence (Manual sobre la ética de la IA), editado por David Gunkel, académico experto en cibercultura y comunicación que, en sus 21 capítulos reúne una serie de discusiones y reflexiones de lo más actual y pertinente en este campo por parte de reconocidas figuras internacionales. Expongo a continuación una muy breve síntesis de las principales ideas de las contribuciones del propio Gunkel y las del capítulo primero de Sven Nyholm, “What is This Thing Called the Ethics of AI and What Calls for It?” (¿Qué es eso llamado ética de la IA y qué exige?).

Gunkel comienza por señalar que, dado que el desarrollo tecnológico está encabezado por una industria occidental, asimismo las reflexiones que guían las discusiones éticas correspondientes también lo están. En este sentido, hasta ahora, los valores que se deben seguir en estas reflexiones han estado marcados por una mirada etnocéntrica occidental, que refleja las principales preocupaciones de Estados Unidos y Europa, pero no necesariamente las del resto del mundo. Por tanto, para pensar una auténtica ética de la IA que sea incluyente (y dado que terminará por afectar a todo el mundo), propone partir de una base: la ética es diversa y dinámica, pues responde a la historia y los contextos. Pero para evitar ahora un relativismo paralizante, es necesario mirar la ética a través de un pluralismo abierto al diálogo, al intercambio, al entendimiento y a la construcción conjunta de estándares y principios que se puedan compartir y adecuar a las diferentes realidades humanas. Así, Gunkel propone colocar las diferencias sobre la mesa y establecer, cooperativamente, y de acuerdo con las preocupaciones de las diversas sociedades, las áreas de prioritaria atención de una ética de la IA que tome en cuenta esta pluralidad en la creación de consensos globales.

Por su parte, Nyholm señala que, por lo general, la mayor parte de la discusión sobre la ética de la IA se ha enfocado en lo que él llama un enfoque estrecho de la ética, cuyo énfasis se ha puesto en identificar qué tipo de prácticas, acciones y usos de la IA deben permitirse y qué otros deberían prohibirse o limitarse. Sin embargo, Nyholm argumenta en favor de cambiar la mirada hacia enfoques más amplios de la ética de la IA. En este sentido, argumenta que una visión más amplia no sólo tendría que incluir las preocupaciones de los enfoques más estrechos, sino que debería ir más allá al plantear cuestionamientos acerca de cómo promover una IA que fomente el bienestar humano, contribuya a desarrollar relaciones realmente significativas con otros seres humanos, o nos ayude a crecer como personas tanto en lo individual como en lo comunitario y colectivo.

De la discusión de los dos autores se desprende la necesidad de considerar la ética de la IA como un campo que no sólo debe estar circunscrito a la reflexión de los expertos, sino que, al incidir en nuestras vidas cotidianas (desde las adaptaciones de IA a los buscadores en las plataformas y ahora en las redes sociales, hasta las nuevas funciones de asistentes tecnológicos y Chatbots en los servicios de cualquier tipo), todos y todas debemos reflexionar acerca de qué sucede mientras usamos esta tecnología para ”hacer nuestra vida más fácil”. ¿Qué pasa con nuestros datos personales, nuestra privacidad, o nuestra seguridad? Y también, ¿cómo queremos usar esta tecnología para construir mejores relaciones con nuestros entornos, nuestras familias y amigos, nuestros círculos sociales y laborales? La ética de la IA es, por tanto, un campo que, al afectarnos, reclama una responsabilidad también de nuestra parte.