Cualquiera que haya seguido la retórica en torno a la inteligencia artificial en los últimos años ha escuchado la afirmación de que la IA es inevitable.
En el mundo empresarial, educativo, científico y de muchos otros sectores, los defensores de la IA dicen a las empresas y a los trabajadores que se quedarán atrás si no logran integrar la IA generativa en sus operaciones.
El argumento en estos diferentes dominios es esencialmente el mismo: La tecnología dará forma al futuro, te guste o no.
Sin embargo, mis colegas y yo en el Centro de Ética Aplicada de la Universidad de Massachusetts hemos estado estudiando las cuestiones éticas que plantea la adopción generalizada de la IA, y creo que el argumento de la inevitabilidad es engañoso.
“La IA debería adoptarse poco a poco y con un enfoque matizado en lugar de sujetarla a afirmaciones generales de inevitabilidad”
De hecho, esa afirmación es la versión más reciente de una visión determinista del desarrollo tecnológico. Es la creencia de que las innovaciones son imparables una vez que la gente comienza a trabajar en ellas.
Ese enfoque determinista de la tecnología tiene una larga historia. Se ha aplicado a la influencia de la imprenta, así como al auge de los automóviles y la infraestructura que requieren, entre otros desarrollos.
Pero creo que cuando se trata de IA, el argumento del determinismo tecnológico es exagerado y simplificado.
Consideremos la afirmación de que las empresas no pueden darse el lujo de mantenerse al margen del juego de la IA. De hecho, todavía no se ha demostrado que la IA esté generando importantes ganancias de productividad a las empresas que la utilizan. Un informe de The Economist de julio de 2024 sugiere que, hasta ahora, la tecnología casi no ha tenido impacto económico.
El papel de la IA en la educación superior también sigue siendo una cuestión muy abierta. Aunque las universidades han invertido mucho en iniciativas relacionadas con la IA en los últimos dos años, la evidencia sugiere que pueden haberse adelantado.
Según The Economist, hasta ahora, la IA casi no ha tenido impacto económico en las empresas que la utilizan
La tecnología puede servir como una herramienta pedagógica interesante. Por ejemplo, crear un chatbot de Platón que permita a los estudiantes tener una conversación de texto con un bot que se hace pasar por Platón es un truco genial.
Pero la IA ya está empezando a desplazar algunas de las mejores herramientas que tienen los profesores para evaluar y desarrollar el pensamiento crítico, como las tareas de escritura. El ensayo universitario está desapareciendo a medida que más profesores renuncian a la capacidad de saber si sus alumnos están escribiendo sus trabajos por sí mismos. ¿Cuál es el argumento de costo-beneficio para renunciar a la escritura, una habilidad tradicional importante y útil?
En las ciencias y en la medicina, el uso de la IA parece prometedor. Su papel en la comprensión de la estructura de las proteínas, por ejemplo, probablemente será significativo para curar enfermedades. La tecnología también está transformando la imagenología médica y ha sido útil para acelerar el proceso de descubrimiento de fármacos.
Pero el entusiasmo puede llegar a ser exagerado. Por ejemplo, las predicciones basadas en IA sobre qué casos de COVID-19 se volverían graves han fracasado rotundamente, y los médicos confían excesivamente en la capacidad de diagnóstico de la tecnología, a menudo en contra de su propio mejor juicio clínico. Y por eso, incluso en esta área, donde el potencial es grande, el impacto final de la IA no está claro.
En algunos casos, el entusiasmo sobre esta tecnología puede llegar a ser exagerado
En seguridad nacional, el argumento para invertir en el desarrollo de la IA es convincente. Como lo que está en juego puede ser mucho, el argumento de que si los chinos y los rusos están desarrollando armas autónomas impulsadas por IA, Estados Unidos no puede permitirse el lujo de quedarse atrás, tiene mucho peso.
➡️ Suscríbete a nuestro Newsletter y recibe noticias relevantes sobre más ideas disruptivas
Pero una rendición total a esta forma de razonamiento, aunque tentadora, probablemente lleve a Estados Unidos a pasar por alto el impacto desproporcionado de estos sistemas en naciones que son demasiado pobres para participar en la carrera armamentista de la IA. Las grandes potencias podrían utilizar la tecnología en conflictos en esas naciones. Y, lo que es igualmente importante, este argumento resta importancia a la posibilidad de colaborar con los adversarios para limitar los sistemas militares de IA, favoreciendo la carrera armamentista por sobre el control de armas.
Hay que ir un paso a la vez. Estudiar la importancia y los riesgos potenciales de la IA en estos diferentes dominios merece cierto escepticismo sobre la tecnología. Creo que la IA debería adoptarse poco a poco y con un enfoque matizado en lugar de sujetarla a afirmaciones generales de inevitabilidad.
* El autor es académico de la Universidad de Massachusetts. Traducción de El Sol de México.