El algoritmo de Instagram ayuda a conectar y promover una gran red de cuentas dedicadas a la pedofilia y compra de contenido sexual de menores, según una investigación conjunta de The Wall Street Journal (WSJ) e investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst.
Instagram es una red social muy popular entre los adolescentes, en donde suelen subir fotos y videos de su rutina diaria, no obstante, la red social también albergua algoritmos que promueve el material de abuso sexual infatil.
Te recomendamos: La trata de personas en el mundo
Los investigadores se guiaron del sistema de recomendación de esta red social y que vincula a aquellos que comparten intereses en común.
Ellos crearon cuentas de prueba con las cuales comenzaron a explorar. En su búsqueda, señalaron que con sólo ver una sola cuenta de contenido de contenido de menores recibieron de inmediato recomendaciones "sugeridas para usted" de supuestos vendedores y compradores de contenido sexual infantil, así como cuentas que se vinculan a sitios de comercio de contenido fuera de la plataforma.
Seguir solo unas de estas recomendaciones fue suficiente para inundar una cuenta de prueba de los investigadores con contenido que sexualiza a los niños.
Los investigadores registraron al menos cinco etiquetas que dirigían a cuentas que promovían material de abuso sexual infantil.
También descubrieron que Instagram permitía a las personas buscar emoticones que los conectaban a cuentas que usaban los términos para anunciar la venta de material sexual infantil y "reuniones", es decir encuentros, con los menores.
Meta, foco rojo de contenido sexual de menores
En Estados Unidos hay organizaciones que luchan contra la pedofilia y la circulación de este contenido, por ejemplo el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro que trabaja junyo al gobierno. Ambos mantienes una base de datos de huellas digitales para imágenes y videos con material sexual infantil, así como una plataforma para compartir dichos datos entre compañías de Internet.
Si se llega a dar algún, las empresas comparten los algoritmos y comparan las huellas digitales y si es el caso informan al centro cuando las detectan. No obstante, tan sólo en 2022, el centro recibió 31.9 millones de denuncias de material sexual infantil, en su mayoría de empresas de Internet, un 47 por cientomás que dos años antes.
De estas denuncias Meta representó el 85 por ciento de los informes de material sexual infantil, incluidos 5 millones de Instagram.
En su investigación, el Observatorio de Internet de Stanford usó etiquetas asociadas con el sexo con menores y encontró 405 vendedores.
"La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram", escribieron los expertos en un informe que se publica hoy.
Si bien no es la única cuenta donde ocurre esto, como Twitter, si es la de menor respuesta y donde prolifera más este tipo de contenido.
Muestra de ello fue que el equipo de Stanford encontró 128 cuentas que ofrecían vender material de abuso sexual infantil en Twitter, menos de un tercio del número que encontraron en Instagram, que tiene una base de usuarios mucho más grande que Twitter.
Según el estudio, Twitter no recomendó este tipo de cuentas en la misma medida que Instagram, y esta plataforma, además, las eliminó mucho más rápido.
La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram
Investigadores del estudio
¿Cómo ha sido la respuesta ante las denuncias?
El estudio señaló que con con frecuencia los reportes de desnudez que involcuraba a menores quedaban sin respuesta durante varios meses.
Tal fue el caso de una activista contra la pedofilia quien descubrió una cuenta de Instagram que afirmaba pertenecer a una niña que vendía contenido sexual para menores. Tras hacer la denuncia, Instagram respondió con un mensaje automático que decía: “Debido al gran volumen de informes que recibimos, nuestro equipo no ha podido revisar esta publicación”
Después de que el mismo activista informara sobre otra publicación, la activista realizó otra denuncia al ver una imagen aún más gráfica sin embarg Instagram respondió: “Nuestro equipo de revisión descubrió que la publicación no va en contra de nuestras pautas de la comunidad”. La única solución fue ocultar este tipo de contenido. Además, un portavoz de Meta reconoció que Meta había recibido los informes y no actuó en consecuencia.
Dentro de una revisión más exhaustiva de cómo la compañía manejó los informes de abuso sexual infantil encontró que había una falla de software que impedía que se procesara gran parte de los informes de los usuarios, y que el personal de moderación de la compañía no estaba aplicando adecuadamente las reglas de la plataforma.
Tras el reporte de este error. la compañía dijo que solucionó el error en su sistema de informes y aseguró que está brindando nueva capacitación a sus moderadores de contenido.
Meta admite erroes y dice que trabaja para eliminar este tipo de contenido
Meta reconoció los problemas dentro de sus operaciones de cumplimiento y dijo al WSJ que ha establecido un grupo de trabajo interno para abordar los problemas planteados, también dijo que en los últimos dos años eliminó 27 redes de pedófilos.
"La explotación infantil es un crimen horrible", dijo la compañía, y agregó que está "investigando continuamente formas de defenderse activamente contra este comportamiento".
Un portavoz de Meta dijo que actualmente se están construyendo sus sistemas para evitar que Instagram brinde tales recomendaciones, además, aseguró que se han bloqueado miles de etiquetas que sexualizan a los niños, algunas con millones de publicaciones. También dijo que se restringeron los sistemas que recomiendan a los usuarios que busquen términos que se sabe que están asociados con el abuso sexual.
➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo
En coclusión, los investigadores de Stanford encontraron una actividad similar de explotación sexual en otras redes sociales más pequeñas, pero dijeron que el problema en Instagram es particularmente grave y recomendaron a Meta que implemente nuevas herramientas de seguridad, más estrictas, ya que el volúmen de denuncias es particularmente grande y es sumamente sencillo dar con este tipo de contenido.
|| Con información de EFE ||