Imágenes de abuso sexual infantil con IA: los desafíos de la Justicia ante una tendencia que crece

El caso en Roca encendió las alarmas que cada vez suenan más fuerte a nivel mundial. En Río Negro se investigan dos casos, pero a nivel nacional aún hay muy pocas causas resueltas. Para colmo, las fotografías alteradas con IA están dando paso a los videos.

Son dos casos, pero la tendencia no deja de crecer y ya es tema de conversación en distintos niveles. Lo que ocurrió en Roca, con un grupo de adolescentes que fue denunciado en la Justicia de Río Negro por generar imágenes de abuso sexual infantil con las caras de sus compañeras por medio de la inteligencia artificial (IA), actuó como disparador de una realidad que ya llegó.


El 8 de agosto, la noticia comenzó a extenderse en Roca primero, la provincia después y llegó incluso a ser noticia nacional. Al menos cuatro adolescentes alteraron con IA imágenes de compañeras y generaron fotografías de abuso sexual infantil, la tipificación que se aplica para estos casos.
El hecho generó situaciones de tensión en las escuelas entre los propios alumnos, los padres y las autoridades educativas.

El caso está siendo investigado con mucho hermetismo en los tribunales de Roca, ya que los involucrados, tanto quienes generaron las imágenes como las víctimas de la alteración de las fotografías, son menores. Una de las posibilidades que se investigan es si en la maniobra, por el tipo de programa de edición que se uso, también participaron familiares mayores de los adolescentes acusados.


Un dato no menor que también se denunció en la causa que se investiga es si esas imágenes fueron vendidas por Telegram y Whatsapp. Incluso el abogado que patrocina la denuncia de una de las familias de Roca, planteó que el dinero recaudado era para comprar fichas en casinos virtuales.

En este contexto, en Argentina no se cuenta con ninguna normativa que regule la inteligencia artificial específicamente. El 10 de junio pasado, el diputado nacional Juan Brügge presentó un proyecto de ley en la Cámara de Diputados que lleva el título: “Régimen jurídico aplicable para el uso responsable de la inteligencia artificial en la República Argentina”. La iniciativa persigue establecer un marco legal para el uso ético de la IA. El proyecto no ha sido tratado todavía.


Según informaron fuentes judiciales del Superior Tribunal de Justicia, actualmente “hay dos casos sobre este tema en el poder judicial de Río Negro y hasta ahora no han concluido las pericias pertinentes” que llevan adelante técnicos forenses del Poder Judicial.

Los metadatos de las fotografías utilizadas, según se explicó, son la clave para intentar echar luz sobre las imágenes alteradas con inteligencia artificial.

Encontrar la «huella digital de la fotografía», la clave en los peritajes de imágenes alteradas con IA



“Encontrar la huella digital de la fotografía”, ejemplificaron las fuentes del Poder Judicial de Río Negro consultadas.
En el Poder Judicial rionegrino hay dos estructuras periciales que trabajan en estos casos. Por un lado está la Oficina de Investigación en Telecomunicaciones (OiTel), dependiente de la Procuración General, y que hace la trazabilidad de las comunicaciones y la extracción de información de los celulares.


Por otra parte está la Dirección de Informática Forense, que depende del Superior Tribunal de Justicia de la provincia, y se dedica a las pericias informáticas y digitales.


Estos dos cuerpos se complementan en las investigaciones que lleva adelante la Justicia, y en este caso específico de Roca tendrán una relevancia aún mayor, por la complejidad de la producción de imágenes y a quiénes involucró, y para seguir el rastro de las fotos entre los celulares.

La poca cantidad de casos resueltos en el país lleva a que las imágenes alteradas con IA sea motivo de consulta constante entre los informáticos forenses de los distintos poderes judiciales de Argentina.

Las técnicas de detección para saber cómo y quién utilizó la IA en imágenes se están depurando a medida que aparecen nuevos casos.

Un tema que se trató en reuniones de técnicos informáticos forenses que abordaron la alteración de imágenes con IA tiene dos vertientes: una, cuando se coloca, por ejemplo, la cara de un menor en una imagen de abuso sexual infantil. Allí la Justicia busca proteger al menor vulnerado.


Pero ahora surgió otra tendencia que es la creación lisa y llana de imágenes o escenas de abuso sexual infantil desde cero, lo que genera un debate que no sería informático forense, si no jurídico.

La alerta de IWF por las cantidad de fotos de menores de edad


Justamente estas temáticas ya están siendo abordadas desde hace dos años por la la Internet Watch Foundation (IWF), una organización internacional que combate el abuso sexual infantil online.

IWF alertó sobre el impacto del uso de la IA para manipular imágenes de menores de edad en distintos lugares del mundo, provocando un aumento del 360% de las fotos sexuales publicadas en la web de niños y niñas entre los 7 a 10 años.

Además, este riesgo incrementa en la población femenina, debido a que el 50% de las imágenes manipuladas por IA que fueron reportadas en 2022 por IWF, aparecían menores de 11 a 13 años de edad.

Los videos de abuso sexual infantil con IA, la nueva preocupación de los especialistas


Según la Internet Watch Foundation (IWF) el “informe de octubre de 2023 reveló la presencia de más de 20.000 imágenes generadas por inteligencia artificial en un foro de la “dark web” en un mes, donde más de 3.000 mostraban actividades delictivas de abuso sexual infantil. Desde entonces, el problema se ha intensificado y sigue evolucionando”, advirtió la organización.


“Las imágenes de abuso sexual infantil generadas por inteligencia artificial han progresado a un ritmo tan acelerado que la IWF ahora está viendo los primeros ejemplos realistas de videos de IA que muestran el abuso sexual de niños”. advirtió IWF.


“Los primeros videos de AI CSAM (material de abuso sexual infantil) ya están en circulación. En su mayoría son videos parcialmente sintéticos (parte real y parte artificial), aunque también existen algunos videos primitivos totalmente sintéticos (totalmente artificiales)”, advirtió la organización.


La IWF se ha encontrado con una cantidad cada vez mayor de contenido generado por IA, incluido AI CSAM, en la web transparente o legal.


Dado que la generación de imágenes se considera casi “resuelta”, se están invirtiendo recursos para tratar de abordar la próxima frontera: la generación de videos. “Podemos vislumbrar las capacidades futuras del modelo en las vistas previas de 2024 de Sora de OpenAI y Veo de Google”, señalaron sobre los futuros generadores de video con IA de estas empresas.

Necesidad urgente de seguridad infantil



En este contexto, nunca ha habido una necesidad más urgente de seguridad infantil desde el diseño en todas las etapas de desarrollo y distribución del modelo, y entre todos los actores del ecosistema de IA, señala la organización en su último infirme.


Los videos de AI CSAM encontrados en el curso de la investigación para la actualización de este informe, probablemente creados con herramientas primitivas de código abierto, «son los canarios en la mina de carbón», la señal de alerta que se usaba antiguamente en las minas para advertir sobre la presencia de gases tóxicos.


Adherido a los criterios de
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Adherido a los criterios de <br><strong>Journalism Trust Initiative</strong></span>

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios

Registrate gratis

Disfrutá de nuestros contenidos y entretenimiento

Suscribite desde $0 ¿Ya estás suscripto? Ingresá ahora