La IA es un factor de transformación cuyo potencial en la mejora de la vida humana es prometedor y, en muchos sentidos, supera nuestras expectativas. Aunque el desarrollo de la IA se está aplicando en campos diversos que abarcan la ciencia, las finanzas, la programación o el diseño, también está siendo utilizada con fines antiéticos y delictivos que deben ser considerados en el desarrollo de nuevas tecnologías y en la promoción de medidas de seguridad y detección de fraudes, estafas y contenido creado por IA que se hace pasar por humano.
Como es lógico, el desarrollo de lenguajes a través de redes neuronales facilita la creación de contenido, lo que es especialmente curioso en los procesos educativos, donde los alumnos la emplean para sustituirlos en sus labores en vez de para fortalecer sus habilidades creativas. El uso de IA para tareas escolares produce textos bien escritos, pero de estudiantes incapaces de escribir y pensar por sí mismos: páginas llenas y cerebros vacíos. Desafortunadamente, no solo ocurre en el ámbito escolar, también el contenido de internet se está produciendo más y más con IA, lo que, si bien no afecta al lector, definitivamente sí demuestra la poca capacidad creativa de los autores.
Cuando pasamos un texto cualquiera de internet por la propia IA para identificar textos, imágenes y videos con la finalidad de saber si han sido creados por humanos, es común la decepción al darnos cuenta de que este contenido ha sido creado sin ética, profundidad, sentido crítico y mucho menos preocupaciones epistemológicas u ontológicas. Las redes se han llenado de personas que se hacen pasar por creadores a los que es fácil desenmascarar. El verdadero problema surge cuando esto ocurre además en ámbitos científicos.
Sin embargo, la popularización del uso de la IA se ha usado con fines todavía peores, fines delictivos, como se ha viralizado en las últimas semanas con respecto al caso de los migrantes desaparecidos en las redes sociales. La búsqueda de personas desaparecidas en la frontera se ha visto ensombrecida por el uso de la IA para engañar y extorsionar a familiares, aprovechando el dolor y la desesperación. Las personas que desconocen cómo se genera el contenido con IA suelen ser las víctimas favoritas de estos criminales.
Los deepfakes de voz también son más frecuentes. Los mensajes de voz o videos de redes sociales pueden usarse en la generación de voces por medio de la IA, lo que permite fraudes bancarios, supuestos secuestros, obtención ilegal de información, extorsión cibernética, simulación de interacciones o de compra y venta de productos, entre otros delitos. Especialmente preocupante es la suplantación de identidad a través de deepfakes de video, que son utilizados para la creación de contenido íntimo y sextorsión; una forma de ataque que afecta más a las mujeres y que, a pesar de estar penada por la ley en algunos países, como el nuestro, no lo está a nivel internacional y los marcos legislativos siguen siendo muy difusos.
La IA también se utiliza para phishing avanzado, pues permite crear texto personalizado que parece auténtico y facilita que las víctimas compartan información personal. De hecho, la IA permite hacer más efectivos los ataques de ingeniería social a través del análisis de patrones de comportamiento y lenguaje, el robo de datos mediante análisis masivo, así como la simulación de funcionarios públicos o de seguridad estatal o privada. Las posibilidades de uso parecen infinitas, desde el espionaje automatizado a gran escala, hasta la manipulación de mercados o los ataques DDoS, que logran que un sitio web colapse al no poder manejar una cantidad simultánea de solicitudes.
Todos estos ejemplos hablan menos de la IA que de la condición humana. Cuando la IA comenzaba a aparecer, se volvió popular regresar a los ejemplos de la ciencia ficción sobre el dominio de la humanidad y la falta de ética de la IA, consecuencia de programaciones ambiguas o la conciencia de superioridad física y moral. Lo que debió preocuparnos, en cambio, no era la IA, sino la falta de ética humana que la emplea con fines perversos, de manipulación, engaño, violencia y abuso. Como diría Nietzsche, “no hay hechos morales, sino interpretaciones morales de los hechos”.
Afortunadamente, hemos encontrado en la propia inteligencia artificial la solución a muchos de estos problemas, desde identificadores de texto creado por IA hasta sistemas de ciberseguridad y de creación de contenido transmedia. La realidad demuestra que la IA no es el problema, sino la educación, la incapacidad creativa, la falta de ética y de sistemas capaces de regular los ciberdelitos, es momento de pensar en conceptos más amplios que el de nación: en el mundo digital la transglobalidad está tocando a la puerta.
Hilo de telaraña. El 19 de octubre se cumplen 54 años de la muerte de Lázaro Cárdenas. Los arquetipos históricos de cambio y continuidad siguen vigentes hasta nuestros días. La imagen del el general Cárdenas para bien de los mexicanos y nuestra alegría goza de cabal salud .