/ jueves 8 de junio de 2023

Algoritmo de Instagram promueve el material sexual infantil, revela estudio

Investigadores descubrieron que Instagram permitía a las personas buscar etiquetas explícitas y en ocasiones hasta emoticones que los conectaban a cuentas pedófilas

El algoritmo de Instagram ayuda a conectar y promover una gran red de cuentas dedicadas a la pedofilia y compra de contenido sexual de menores, según una investigación conjunta de The Wall Street Journal (WSJ) e investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst.

Instagram es una red social muy popular entre los adolescentes, en donde suelen subir fotos y videos de su rutina diaria, no obstante, la red social también albergua algoritmos que promueve el material de abuso sexual infatil.

Te recomendamos: La trata de personas en el mundo

Los investigadores se guiaron del sistema de recomendación de esta red social y que vincula a aquellos que comparten intereses en común.

Ellos crearon cuentas de prueba con las cuales comenzaron a explorar. En su búsqueda, señalaron que con sólo ver una sola cuenta de contenido de contenido de menores recibieron de inmediato recomendaciones "sugeridas para usted" de supuestos vendedores y compradores de contenido sexual infantil, así como cuentas que se vinculan a sitios de comercio de contenido fuera de la plataforma.

Seguir solo unas de estas recomendaciones fue suficiente para inundar una cuenta de prueba de los investigadores con contenido que sexualiza a los niños.

Los investigadores registraron al menos cinco etiquetas que dirigían a cuentas que promovían material de abuso sexual infantil.

También descubrieron que Instagram permitía a las personas buscar emoticones que los conectaban a cuentas que usaban los términos para anunciar la venta de material sexual infantil y "reuniones", es decir encuentros, con los menores.


Meta, foco rojo de contenido sexual de menores

En Estados Unidos hay organizaciones que luchan contra la pedofilia y la circulación de este contenido, por ejemplo el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro que trabaja junyo al gobierno. Ambos mantienes una base de datos de huellas digitales para imágenes y videos con material sexual infantil, así como una plataforma para compartir dichos datos entre compañías de Internet.

Si se llega a dar algún, las empresas comparten los algoritmos y comparan las huellas digitales y si es el caso informan al centro cuando las detectan. No obstante, tan sólo en 2022, el centro recibió 31.9 millones de denuncias de material sexual infantil, en su mayoría de empresas de Internet, un 47 por cientomás que dos años antes.

De estas denuncias Meta representó el 85 por ciento de los informes de material sexual infantil, incluidos 5 millones de Instagram.

En su investigación, el Observatorio de Internet de Stanford usó etiquetas asociadas con el sexo con menores y encontró 405 vendedores.


Foto: Reuters




"La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram", escribieron los expertos en un informe que se publica hoy.

Si bien no es la única cuenta donde ocurre esto, como Twitter, si es la de menor respuesta y donde prolifera más este tipo de contenido.

Muestra de ello fue que el equipo de Stanford encontró 128 cuentas que ofrecían vender material de abuso sexual infantil en Twitter, menos de un tercio del número que encontraron en Instagram, que tiene una base de usuarios mucho más grande que Twitter.

Según el estudio, Twitter no recomendó este tipo de cuentas en la misma medida que Instagram, y esta plataforma, además, las eliminó mucho más rápido.



La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram

Investigadores del estudio


¿Cómo ha sido la respuesta ante las denuncias?

El estudio señaló que con con frecuencia los reportes de desnudez que involcuraba a menores quedaban sin respuesta durante varios meses.

Tal fue el caso de una activista contra la pedofilia quien descubrió una cuenta de Instagram que afirmaba pertenecer a una niña que vendía contenido sexual para menores. Tras hacer la denuncia, Instagram respondió con un mensaje automático que decía: “Debido al gran volumen de informes que recibimos, nuestro equipo no ha podido revisar esta publicación”

Después de que el mismo activista informara sobre otra publicación, la activista realizó otra denuncia al ver una imagen aún más gráfica sin embarg Instagram respondió: “Nuestro equipo de revisión descubrió que la publicación no va en contra de nuestras pautas de la comunidad”. La única solución fue ocultar este tipo de contenido. Además, un portavoz de Meta reconoció que Meta había recibido los informes y no actuó en consecuencia.

Dentro de una revisión más exhaustiva de cómo la compañía manejó los informes de abuso sexual infantil encontró que había una falla de software que impedía que se procesara gran parte de los informes de los usuarios, y que el personal de moderación de la compañía no estaba aplicando adecuadamente las reglas de la plataforma.

Tras el reporte de este error. la compañía dijo que solucionó el error en su sistema de informes y aseguró que está brindando nueva capacitación a sus moderadores de contenido.



Meta admite erroes y dice que trabaja para eliminar este tipo de contenido

Meta reconoció los problemas dentro de sus operaciones de cumplimiento y dijo al WSJ que ha establecido un grupo de trabajo interno para abordar los problemas planteados, también dijo que en los últimos dos años eliminó 27 redes de pedófilos.

"La explotación infantil es un crimen horrible", dijo la compañía, y agregó que está "investigando continuamente formas de defenderse activamente contra este comportamiento".

Un portavoz de Meta dijo que actualmente se están construyendo sus sistemas para evitar que Instagram brinde tales recomendaciones, además, aseguró que se han bloqueado miles de etiquetas que sexualizan a los niños, algunas con millones de publicaciones. También dijo que se restringeron los sistemas que recomiendan a los usuarios que busquen términos que se sabe que están asociados con el abuso sexual.

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

En coclusión, los investigadores de Stanford encontraron una actividad similar de explotación sexual en otras redes sociales más pequeñas, pero dijeron que el problema en Instagram es particularmente grave y recomendaron a Meta que implemente nuevas herramientas de seguridad, más estrictas, ya que el volúmen de denuncias es particularmente grande y es sumamente sencillo dar con este tipo de contenido.

|| Con información de EFE ||

El algoritmo de Instagram ayuda a conectar y promover una gran red de cuentas dedicadas a la pedofilia y compra de contenido sexual de menores, según una investigación conjunta de The Wall Street Journal (WSJ) e investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst.

Instagram es una red social muy popular entre los adolescentes, en donde suelen subir fotos y videos de su rutina diaria, no obstante, la red social también albergua algoritmos que promueve el material de abuso sexual infatil.

Te recomendamos: La trata de personas en el mundo

Los investigadores se guiaron del sistema de recomendación de esta red social y que vincula a aquellos que comparten intereses en común.

Ellos crearon cuentas de prueba con las cuales comenzaron a explorar. En su búsqueda, señalaron que con sólo ver una sola cuenta de contenido de contenido de menores recibieron de inmediato recomendaciones "sugeridas para usted" de supuestos vendedores y compradores de contenido sexual infantil, así como cuentas que se vinculan a sitios de comercio de contenido fuera de la plataforma.

Seguir solo unas de estas recomendaciones fue suficiente para inundar una cuenta de prueba de los investigadores con contenido que sexualiza a los niños.

Los investigadores registraron al menos cinco etiquetas que dirigían a cuentas que promovían material de abuso sexual infantil.

También descubrieron que Instagram permitía a las personas buscar emoticones que los conectaban a cuentas que usaban los términos para anunciar la venta de material sexual infantil y "reuniones", es decir encuentros, con los menores.


Meta, foco rojo de contenido sexual de menores

En Estados Unidos hay organizaciones que luchan contra la pedofilia y la circulación de este contenido, por ejemplo el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro que trabaja junyo al gobierno. Ambos mantienes una base de datos de huellas digitales para imágenes y videos con material sexual infantil, así como una plataforma para compartir dichos datos entre compañías de Internet.

Si se llega a dar algún, las empresas comparten los algoritmos y comparan las huellas digitales y si es el caso informan al centro cuando las detectan. No obstante, tan sólo en 2022, el centro recibió 31.9 millones de denuncias de material sexual infantil, en su mayoría de empresas de Internet, un 47 por cientomás que dos años antes.

De estas denuncias Meta representó el 85 por ciento de los informes de material sexual infantil, incluidos 5 millones de Instagram.

En su investigación, el Observatorio de Internet de Stanford usó etiquetas asociadas con el sexo con menores y encontró 405 vendedores.


Foto: Reuters




"La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram", escribieron los expertos en un informe que se publica hoy.

Si bien no es la única cuenta donde ocurre esto, como Twitter, si es la de menor respuesta y donde prolifera más este tipo de contenido.

Muestra de ello fue que el equipo de Stanford encontró 128 cuentas que ofrecían vender material de abuso sexual infantil en Twitter, menos de un tercio del número que encontraron en Instagram, que tiene una base de usuarios mucho más grande que Twitter.

Según el estudio, Twitter no recomendó este tipo de cuentas en la misma medida que Instagram, y esta plataforma, además, las eliminó mucho más rápido.



La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram

Investigadores del estudio


¿Cómo ha sido la respuesta ante las denuncias?

El estudio señaló que con con frecuencia los reportes de desnudez que involcuraba a menores quedaban sin respuesta durante varios meses.

Tal fue el caso de una activista contra la pedofilia quien descubrió una cuenta de Instagram que afirmaba pertenecer a una niña que vendía contenido sexual para menores. Tras hacer la denuncia, Instagram respondió con un mensaje automático que decía: “Debido al gran volumen de informes que recibimos, nuestro equipo no ha podido revisar esta publicación”

Después de que el mismo activista informara sobre otra publicación, la activista realizó otra denuncia al ver una imagen aún más gráfica sin embarg Instagram respondió: “Nuestro equipo de revisión descubrió que la publicación no va en contra de nuestras pautas de la comunidad”. La única solución fue ocultar este tipo de contenido. Además, un portavoz de Meta reconoció que Meta había recibido los informes y no actuó en consecuencia.

Dentro de una revisión más exhaustiva de cómo la compañía manejó los informes de abuso sexual infantil encontró que había una falla de software que impedía que se procesara gran parte de los informes de los usuarios, y que el personal de moderación de la compañía no estaba aplicando adecuadamente las reglas de la plataforma.

Tras el reporte de este error. la compañía dijo que solucionó el error en su sistema de informes y aseguró que está brindando nueva capacitación a sus moderadores de contenido.



Meta admite erroes y dice que trabaja para eliminar este tipo de contenido

Meta reconoció los problemas dentro de sus operaciones de cumplimiento y dijo al WSJ que ha establecido un grupo de trabajo interno para abordar los problemas planteados, también dijo que en los últimos dos años eliminó 27 redes de pedófilos.

"La explotación infantil es un crimen horrible", dijo la compañía, y agregó que está "investigando continuamente formas de defenderse activamente contra este comportamiento".

Un portavoz de Meta dijo que actualmente se están construyendo sus sistemas para evitar que Instagram brinde tales recomendaciones, además, aseguró que se han bloqueado miles de etiquetas que sexualizan a los niños, algunas con millones de publicaciones. También dijo que se restringeron los sistemas que recomiendan a los usuarios que busquen términos que se sabe que están asociados con el abuso sexual.

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

En coclusión, los investigadores de Stanford encontraron una actividad similar de explotación sexual en otras redes sociales más pequeñas, pero dijeron que el problema en Instagram es particularmente grave y recomendaron a Meta que implemente nuevas herramientas de seguridad, más estrictas, ya que el volúmen de denuncias es particularmente grande y es sumamente sencillo dar con este tipo de contenido.

|| Con información de EFE ||

Metrópoli

Reprueban exámenes para la licencia permanente; “las preguntas fueron confusas”

Daniela es una de las aspirantes que reprobaron el examen teórico de 20 preguntas para conseguir la licencia permanente durante el primer día del trámite en la CdMx

México

Presupuesto 2025: Menos recursos para género, infancia y cuidados

Recortan fondos al Inmujeres y nulo presupuesto para la Secretaría de las Mujeres; expertos advierten retrocesos en igualdad de género

Metrópoli

La Perpetua, historia viva de la Inquisición en el corazón de la CDMX

La prisión, que fue escenario de tortura en nombre de la fe católica, hoy cobra brillo como centro cultural de la UNAM

Mundo

Comienza el G20 con resistencias internas

La agenda incluye un impuesto a los superricos y medidas contra el cambio climático, pero sin promesas de concesiones entre los asistentes

Metrópoli

Exigen solucionar problemas de movilidad en Xoco

Vecinos identifican falta de cruces seguros, señalamientos y tráfico en la zona

República

Marchan por la paz en Querétaro tras masacre en el bar Los Cantaritos

La familia de una de las víctimas del ataque, Jorge Gómez, participó en la marcha en la que acusaron a las autoridades estatales de no brindarles apoyo