No te dejes engañar: las claves para detectar un deepfake en las redes sociales 

Algunas de las estrategias se resumen en desconfiar de la inhumana perfección como también analizar los movimientos, las partes del cuerpo, la duración de los videos y audios. En un año electoral, empresas como Meta y OpenAI prometen estar comprometidos y lanzan ciertas iniciativas para confrontar este fenómeno.

Con la proliferación de la inteligencia artificial el año pasado, las redes sociales y plataformas en línea se llenaron de contenido y muchos de ellos no eran reales sino más bien deepfakes. Claros ejemplos de esto se ilustran con las imágenes del Papa usando una campera de Balenciaga, Macron en las protestas o incluso Trump arrestado. 

Pero ¿qué es concretamente un deepfake? De acuerdo con un artículo de SEON, una empresa que se dedica a prevenir el fraude, un deepfake es un video, imagen o audio generado que imita la apariencia y el sonido de una persona y que es tan convincente a la hora de imitar lo real que puede engañar tanto a las personas como a los algoritmos. 

Ahora bien, a partir de esta definición sabemos de qué tipo de contenidos estamos hablando y como en el mundo hay gente con malas intenciones en el corto plazo la cantidad de fotos, videos y audios falsos en redes sociales solo parece que van a aumentar. Entonces, ¿cómo identificamos un deepfake?

El año pasado todo el mundo buscaba ciertas inconsistencias en las fotos como, por ejemplo, manos con cuatro dedos, u otras partes del cuerpo deformadas. Pero, si bien puede ser una buena técnica, parece haber quedado vieja ya que muchos sistemas se sofisticaron y resolvieron estos problemas. 

Hoy, de acuerdo con un artículo de Science, la clara señal de un deepfake es la (sobre) perfección. Hay que desconfiar de un alto nivel de perfeccionismo en los contenidos porque omite la cualidad imperfecta e inusual que todos los humanos tenemos y que se evidencian en la vida real.  

“La gente considera que las caras normales son más atractivas y dignas de confianza», afirma para el medio el neurocientífico computacional Tijl Grootswagers, de la Universidad de Western Sydney (Australia). “Lo mismo ocurre con las falsificaciones de audio: el habla generada por la IA no suele contener, por ejemplo, los chasquidos de labios o la mala calidad de grabación que caracterizan al habla real”, profundiza el profesional. 

Además de esta primera pauta, en detalle, el LISA Institute, un centro academico español especializado en tecnología, y la empresa SEON, brindan algunos otros consejos más específicos para tener en cuenta.

El parpadeo: en un video deepfake, la persona parpadea menos veces de las que lo haría una persona real. Esto, según el instituto, se debe a que el algoritmo no es capaz de parpadear sin evidenciar indicios de falsedad, por lo menos igual de rápido que un ser humano.

Duración corta: tanto en audio como en video, todos los deepfakes no tienen una gran extensión. Duran algunos segundos, o quizás un minuto.

Detalles: tanto en imágenes como en videos hay que estar atentos a la incongruencias en la piel (demasiado lisa o demasiado arrugada), las sombras apagadas alrededor de los ojos, vello facial o lunares de aspecto poco realista, color de labios fuera de lugar en comparación con la cara.

Los movimientos: cuando vemos videos, es aconsejable ser estricto con los movimientos. Muchas veces suelen ser poco realistas y alejados de como se movería un humano. 

El sonido: en los deepfake, es común que la tecnología que modifica el archivo original del video no ajuste de manera correcta el sonido a la imagen. No hay una sincronización exacta entre el movimiento de los labios y el sonido.

Estos contenidos están levantando cada vez más alarmas por parte de los Gobiernos y líderes mundiales, en especial en un año donde habrá más de 50 elecciones democráticas, incluidas la de Estados Unidos, Rusia e India, que definirán el contexto geopolítico. 

Ciertas empresas, como OpenAI y Meta están trabajando para combatir los deepfakes tanto desde la creación como por la difusión en sus plataformas. De hecho, Meta anunció esta semana que estaba trabajando para que en los próximos meses todas las fotos generadas con inteligencia artificial tengan una etiqueta que lo avise. 

Open AI, por su lado, anunció ciertas medidas que incluyen no permitir la creación de chatbots que imiten a alguna persona o institución real como también la incorporación de las marcas de agua a contenidos visuales generados por la inteligencia artificial. Su objetivo es que la tecnología proteja la integridad de las elecciones. 

Mekela Panditharatne, asesora del programa de democracia del Centro Brennan para la Justicia, expresó para Quartz que los planes de OpenAI son un paso positivo hacia la lucha contra la desinformación electoral, pero dependerá de cómo se apliquen. «Por ejemplo, ¿hasta qué punto serán exhaustivos y completos los filtros a la hora de señalar cuestiones sobre el proceso electoral? ¿Habrá elementos que se escapen?», planteó.


Este contenido fue originalmente publicado en RED/ACCIÓN y se republica como parte del programa «Periodismo Humano», una alianza por el periodismo de calidad entre RÍO NEGRO y RED/ACCIÓN.


Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Certificado según norma CWA 17493 <br><strong>Journalism Trust Initiative</strong></span>

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios