En los últimos años, la inteligencia artificial (IA) ha experimentado un aumento sin precedentes en todo el mundo, y es en donde las empresas tecnológicas han invertido enormes cantidades de recursos para su desarrollo.
Sin embargo, el uso creciente de la IA también ha generado preocupaciones acerca de la privacidad de los datos, la seguridad y la ética.
Te puede interesar: Google presenta una "varita mágica" para redactar textos con inteligencia artificial
Por este motivo, el empresario Elon Musk, junto con un grupo de expertos en inteligencia artificial, solicitaron una pausa de mínimo medio año en la investigación de sistemas de IA más potentes que ChatGPT 4, debido a los "grandes riesgos para la humanidad" que representa.
La carta fue firmada por varios expertos y académicos de IA, así como por ingenieros ejecutivos de Microsoft y miembros del laboratorio de AI DeepMind de Google, los cuales hacen un llamado a todos los laboratorios de IA para que detengan el desarrollo de sistemas a gran escala.
IA, ¿si es un riesgo para la humanidad?
Los expertos en tecnología pidieron poner un alto en el desarrollo de la inteligencia artificial más avanzada debido a los riesgos que puede suponer para la humanidad.
La petición fue publicada en el sitio futureoflife.org y exige que además de la pausa en el desarrollo de IA, se establezca sistemas de seguridad y nuevas autoridades reguladoras para supervisarlas.
Asimismo, se pide que los mismos desarrolladores de esta tecnología creen técnicas que ayuden a distinguir entre lo real y lo artificial, además de la creación de instituciones capaces de hacer frente a la "dramática perturbación económica y política que causará la IA".
Entre los firmantes de la petición se encuentran personalidades que han expresado sus temores sobre una IA incontrolable que supere a los humanos, como Elon Musk, dueño de Twitter y fundador de SpaceX y Tesla, y el historiador Yuval Noah Harari.
Sam Altman, director de OpenAI y que diseñó ChatGPT, ha admitido tener "un poco de miedo" de que su creación se utilice para "desinformación a gran escala o ciberataques".
La petición es un llamado a los laboratorios de inteligencia artificial para que detengan el desarrollo de sistemas a gran escala durante al menos seis meses.
Los expertos aseguran que estos laboratorios están en una "carrera descontrolada" para desarrollar sistemas cada vez más avanzados que nadie puede controlar. Se cuestiona si debemos permitir que las máquinas manipulen nuestra información con propaganda y mentiras, o si debemos automatizar todos los trabajos, incluidos los gratificantes.
Los firmantes de la petición también piden una revisión independiente de los futuros sistemas de IA para garantizar que cumplan con los estándares de seguridad, y que se implementen protocolos de seguridad compartidos que sean rigurosamente auditados y supervisados por expertos externos independientes.
➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo
La carta destaca la necesidad de una pausa en la carrera de la IA para desarrollar sistemas seguros más allá de toda duda razonable.