Consejos para detectar imágenes falsas generadas con IA
Cada día más contenidos son manipulados con esta herramienta en las distintas plataformas de internet. Los peligros del uso indebido y las recomendaciones para evitar caer en el engaño.
¿Cuánto de lo que vemos en internet es real? Los contenidos falsos creados con inteligencia artificial se convirtieron en uno de los mayores problemas a los que nos enfrentamos en la actualidad. Las imágenes, videos y audios engañosos se multiplican como resultado del aumento y el uso indebido de estas herramientas.
Con la aparición de materiales manipulados digitalmente con IA, es cada vez más difícil distinguir lo que es real de lo que no lo es. Generadores de video e imágenes facilitan que cualquier persona pueda crear imágenes de tipo deepfake. Solo basta con escribir un texto y el sistema responde automáticamente. Estas acciones podrían parecer inofensivas pero no lo son, sobre todo por el uso que estos contenidos pueden tener una vez que fueron creados. En ese contexto, la agencia AP citó una serie de recomendaciones para evitar caer en el engaño por estas herramientas.
En las primeras deepfakes, la tecnología distaba mucho de ser perfecta y de vez en cuando dejaba señales bastante claras. Los verificadores señalaron, por ejemplo, imágenes con errores obvios, como manos con seis dedos o anteojos con cristales distintos entre sí.
Sin embargo, a medida que la IA fue mejorando, se volvió mucho más difícil detectar las manipulaciones. Algunos consejos, como buscar patrones de parpadeo poco naturales entre las personas que aparecen en videos, ya no son válidos, advirtió Henry Ajder experto en IA generativa, citado por la agencia internacional. Aun así, hay algunas cosas que hay que tener en cuenta.
IA: indicios de imágenes falsas
Muchas de las fotos deepfake creadas con IA, especialmente de personas, tienen un brillo electrónico, una especie de “efecto estético de suavizado” que hace que la piel parezca “increíblemente reluciente”, agregó Ajder. Sin embargo, a veces, un toque creativo puede eliminar los indicios de manipulación. Por eso, se debe verificar la coherencia de las sombras y la iluminación. Si el sujeto está bien enfocado y parece realista, los elementos del fondo pueden darnos una pista.
El intercambio de rostros es uno de los métodos de deepfake más comunes. Los expertos aconsejan mirar bien los bordes de la cara. ¿El tono de la piel del rostro coincide con el del resto de la cabeza o el cuerpo? ¿Los bordes de la cara son nítidos o borrosos?
Si se sospecha que el video de una persona que está hablando fue distorsionado, deberíamos también centrarnos en la boca. ¿Los movimientos de los labios coinciden perfectamente con el audio? Ajder también sugirió algo llamativo: mirar los dientes. ¿Son claros o están borrosos y de alguna forma no coinciden con su aspecto en la vida real?
La empresa de ciberseguridad Norton aseguró que es posible que los algoritmos aún no sean lo suficientemente sofisticados como para generar dientes individuales. Por eso la falta de contornos de dientes individuales podría ser una pista.
El contexto también es importante. Debemos tomarnos un tiempo para saber si lo que se ve es verosímil. El sitio web Poynter recordó que si se ve a un personaje público haciendo algo que parece “exagerado, poco realista o incongruente con su personalidad” podría tratarse de un deepfake. ¿Realmente el papa Francisco llevaría una extravagante campera como se muestra en la famosa foto falsa? Si fuera así, ¿No habría más fotos o videos publicados por fuentes legítimas?
La lucha contra la IA
OpenAI anunció que lanzará una herramienta para detectar contenido hecho con DALL-E 3, la última versión de su generador de imágenes de IA. Microsoft desarrolló una herramienta para autenticar que puede analizar fotos o videos para dar una puntuación de confianza sobre si han sido manipulados. Fake Catcher, de Intel, utiliza algoritmos para analizar los pixeles de una imagen con el fin de determinar si es real.
Hay herramientas en internet que prometen detectar las falsificaciones si se sube un archivo o se le pega un link al material sospechoso. Pero algunas, como la herramienta de OpenAI y el autentificador de Microsoft no están disponibles para el público en general. Esto se debe, en parte, a que los investigadores no quieren alertar a los delincuentes y darles una mayor ventaja en la carrera contra los deepfakes.
“El acceso abierto a las herramientas de detección también podría darle a la gente la impresión de que son tecnologías milagrosas que pueden realizar el pensamiento crítico por nosotros. En realidad debemos ser conscientes de sus limitaciones”, señaló Ajder.
Sin dudas la IA avanza a un ritmo vertiginoso y los modelos están siendo entrenados para producir contenidos cada vez de mayor calidad. Lamentablemente no hay garantía de que estos consejos sean válidos con el paso del tiempo. Resta involucrarnos cada vez más.
Comentarios