Conforme avanza la tecnología, la Inteligencia Artificial (IA) se va perfeccionando y mejorando la calidad de los resultados que nos brinda, por tanto, puede resultar un tanto complicado identificar si una imagen ha sido generada mediante esta tecnología.
Muestra de ello es la creciente flujo de imágenes sacadas de contexto o manipuladas sobre la guerra en la Franja de Gaza. Debido a que las redes sociales son la manera en qué las personas pueden conocer lo que pasa en el mundo, con frecuencia, algunos usuarios o grupos tienden a manipular la información para privilegiar una visión de lo que ocurre en el conflicto.
Por dar algunos ejemplos, se ha hecho uso de fotos sobre Gaza en el 2022, videos sobre Siria que nada tienen que ver con la actualidad e incluso recreaciones con videojuegos que los usuarios hacen pasar como enfrentamientos en la Franja de Gaza aunque no sea cierto. Es por ello que diversos medios de comunicación o agencias, como AFP, han comenzado a verificar con más precisión la procedencia del material gráfico que circula en redes.
Alessandro Accorsi, analista senior del grupo Crisis Group, dijo para AFP que "la enorme cantidad de videos e imágenes falsos y antiguos de ataques que circulan (por Internet) está dificultando la comprensión de lo que está ocurriendo" en Israel y Gaza.
La situación se complica debido a que la redes sociales han reducido su personal debido a fuertes recortes, lo que ha compicado la consolidación de equipos de verificación y de seguridad. El panorama igualmente se ensombrece por actitudes como las de Elon Musk dueño X, antes Twitter, que ha implementado una serie de medidas polémicas, como la restauración de cuentas que difunden conspiraciones falsas y un programa de reparto de ingresos publicitarios con los creadores de contenidos que, según los investigadores, incentiva la participación en lugar de la precisión.
En este sentido, la verificación de imágenes se vuelve imperante para no caer en engaños y así conocer de manera más imparcial lo que está pasando en determinada parte del mundo.
Así puedes identificar una imagen generada por IA
El medio especializado en tecnología Wired se ha dado a la tarea de entrevistar a un experto en análisis de imágenes. Eliot Higgins, fundador de Bellingcat, empresa dedicada a la verificación de fuentes e imágenes, señala que se debe prestar atención al foco de la imagen. El experto señala que lo más común en imágenes creadas con IA es que el foco de la fotografía luce con más nitidez, mientras los elementos a su alrededor parecen haber sido colocados posteriormente, y lucen con menos detalles o distorsionados.
Asimismo, Higgins comenta que otros detalles a ubicar son el texto desordenado y con poco sentido lo cual diferencia las imágenes falsas de las fotos reales.
"A primera vista se pueden ver letras en la imagen pero con una inspección más minuciosa, se aprecia que las palabras carecen de sentido, no dicen nada concreto", señala el experto.
Otra forma de saber si una imagen fue creada con IA son las expresiones faciales exageradas.
"Me he dado cuenta de que si le pides expresiones, Midjourney (un generador de imágenes IA) tiende a representarlas de forma exagerada, con pliegues de la piel muy pronunciados por ejemplo al sonreír", dice Higgins.
El analista dice que hay que prestar a cuando son fotos de famosos y las de personas comúnes. En el caso de las celebridades, hay una gran base de datos en Internet de donde se alimenta la IA y su imagen genarada tiende a ser más parecida a una verdadera.; sin embargo, cuando son personas no muy conocidas, la IA tiene menos de donde extraer información, por lo que pueden lucir torcidas.
A inicios de año se hicieron muy populares las imágenes creadas por IA del Papa Francisco II utilizando prendas de Balenciaga y del expresidente de Estados Unidos, Donald Trump, mientras era arrestado en su juicio al llegar a la ciudad de Nueva York. Las imágenes, aunque por su contexto tenían poca credibilidad, evidencian un gran avance en la generación de contenido gráfico, lo cual puede ser problemático para el flujo de información en redes sociales.
Finalmente, el experto de Bellingcat dice que hay que prestar atención a las proporciones de su cuerpo, si estas parecen contorsionadas o fundidas es posible que se trate de una imagen generada por IA.
Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante
Higgins recomienda que hay que tener cuidado con este tipo de contenido, si bien antes era más complicado manipular o crear una imagen tan creíble, con el avance de la tecnología y la IA, es más fácil caer en engaños. Por tanto, el experto recomienda que antes de comsumir o compartir el contenido en redes sociales, hay que verificarlo y así evitar circular información falsa.