EL LADO OSCURO DE LA IA: ALERTAN POR ‘EXPLOSIÓN’ DE IMÁGENES FALSAS DE ABUSO INFANTIL

La ya alarmante proliferación de imágenes de abuso sexual infantil en Internet podría empeorar mucho si no se hace algo para controlar las herramientas de inteligencia artificial que generan fotografías ultrafalsas, advirtió esta semana una agencia de vigilancia.

En un informe escrito, la Internet Watch Foundation, con sede en el Reino Unido, insta a los gobiernos y proveedores de tecnología a actuar rápidamente antes de que una avalancha de imágenes de abuso sexual infantil generadas por IA abrume a los investigadores encargados de hacer cumplir la ley y amplíe enormemente el grupo de víctimas potenciales.

“No estamos hablando del daño que podría causar”, dijo Dan Sexton, director de tecnología del grupo de vigilancia. “Esto está sucediendo ahora mismo y es necesario abordarlo ahora mismo”.

En un caso único en su tipo en Corea del Sur, un hombre fue condenado en septiembre a dos años y medio de prisión por utilizar inteligencia artificial para crear imágenes virtuales de abuso infantil en 360°, según el Tribunal de Distrito de Busan, en el sureste del país. .

En algunos casos, los niños utilizan estas herramientas entre sí. En una escuela del suroeste de España, la policía ha estado investigando el presunto uso de una aplicación telefónica por parte de adolescentes para hacer que sus compañeros de escuela completamente vestidos aparecieran desnudos en las fotografías.

El informe expone un lado oscuro de la carrera por construir sistemas de inteligencia artificial generativa que permitan a los usuarios describir con palabras lo que quieren producir (desde correos electrónicos hasta obras de arte o videos novedosos) y hacer que el sistema lo escupe.

Si no se detiene, la avalancha de imágenes falsas de abuso sexual infantil podría atascar a los investigadores que intentan rescatar a niños que resultan ser personajes virtuales. Los perpetradores también podrían utilizar las imágenes para preparar y coaccionar a nuevas víctimas.

Sexton dijo que los analistas de la IWF descubrieron rostros de niños famosos en línea, así como una “demanda masiva para la creación de más imágenes de niños que ya han sido abusados, posiblemente hace años”.

“Están tomando contenido real existente y usándolo para crear contenido nuevo para estas víctimas”, dijo. “Eso es increíblemente impactante”.

Sexton dijo que su organización benéfica, que se centra en combatir el abuso sexual infantil en línea, comenzó a recibir informes sobre imágenes abusivas generadas por IA a principios de este año. Eso llevó a una investigación sobre los foros de la llamada web oscura, una parte de Internet alojada dentro de una red cifrada y accesible sólo a través de herramientas que brindan anonimato.

Lo que los analistas de la IWF encontraron fueron abusadores que compartían consejos y se maravillaban de lo fácil que era convertir las computadoras de sus casas en fábricas para generar imágenes sexualmente explícitas de niños de todas las edades. Algunos también comercializan e intentan sacar provecho de este tipo de imágenes que parecen cada vez más realistas.

“Lo que estamos empezando a ver es esta explosión de contenido”, dijo Sexton.

Si bien el informe de la IWF pretende señalar un problema creciente más que ofrecer recetas, insta a los gobiernos a fortalecer las leyes para facilitar la lucha contra los abusos generados por la IA. Se dirige particularmente a la Unión Europea, donde hay un debate sobre las medidas de vigilancia que podrían escanear automáticamente las aplicaciones de mensajería en busca de imágenes sospechosas de abuso sexual infantil, incluso si las autoridades no conocen previamente las imágenes.

Uno de los objetivos del trabajo del grupo es evitar que víctimas anteriores de abuso sexual vuelvan a ser abusadas mediante la redistribución de sus fotografías.

El informe dice que los proveedores de tecnología podrían hacer más para dificultar que los productos que han creado se utilicen de esta manera, aunque es complicado por el hecho de que algunas de las herramientas son difíciles de volver a guardar en la botella.

El año pasado se introdujo una serie de nuevos generadores de imágenes de IA que sorprendieron al público con su capacidad de evocar imágenes caprichosas o fotorrealistas cuando se les ordenaba. Pero la mayoría de ellos no son favorecidos por los productores de material sobre abuso sexual infantil porque contienen mecanismos para bloquearlo.

Los proveedores de tecnología que han cerrado modelos de IA, con control total sobre cómo se entrenan y utilizan (por ejemplo, el generador de imágenes DALL-E de OpenAI) han tenido más éxito en bloquear el uso indebido, dijo Sexton.

Por el contrario, una herramienta preferida por los productores de imágenes de abuso sexual infantil es Stable Diffusion, de código abierto, desarrollada por la startup Stability AI, con sede en Londres. Cuando Stable Diffusion irrumpió en escena en el verano de 2022, un subconjunto de usuarios aprendió rápidamente a usarlo para generar desnudos y pornografía. Si bien la mayor parte de ese material representaba a adultos, a menudo no era consensuado, como cuando se usaba para crear fotografías de desnudos inspiradas en celebridades.

Posteriormente, Stability implementó nuevos filtros que bloquean contenido inseguro e inapropiado, y una licencia para usar el software de Stability viene con la prohibición de usos ilegales.

En un comunicado publicado el martes, la compañía dijo que “prohíbe estrictamente cualquier uso indebido con fines ilegales o inmorales” en sus plataformas. “Apoyamos firmemente los esfuerzos de aplicación de la ley contra quienes hacen un mal uso de nuestros productos con fines ilegales o nefastos”, se lee en la declaración.

Sin embargo, los usuarios aún pueden acceder a versiones anteriores de Stable Diffusion, que son “abrumadoramente el software preferido… para las personas que crean contenido explícito que involucra a niños”, dijo David Thiel, jefe de tecnología del Observatorio de Internet de Stanford, otro grupo de vigilancia que estudia el problema. .

El informe de la IWF reconoce la dificultad de intentar criminalizar las propias herramientas de generación de imágenes de IA, incluso aquellas “afinadas” para producir material abusivo.

“No se puede regular lo que la gente hace en sus computadoras, en sus dormitorios. No es posible”, añadió Sexton. “Entonces, ¿cómo se llega al punto en el que no pueden utilizar software disponible abiertamente para crear contenido dañino como este?”

La mayoría de las imágenes de abuso sexual infantil generadas por IA se considerarían ilegales según las leyes vigentes en los EE. UU., el Reino Unido y otros lugares, pero aún está por verse si las autoridades tienen las herramientas para combatirlas.

Un funcionario de la policía británica dijo que el informe muestra el impacto ya presenciado por los agentes que trabajan para identificar a las víctimas.

“Estamos viendo niños preparados, vemos a perpetradores crear sus propias imágenes según sus propias especificaciones, estamos viendo la producción de imágenes de IA para obtener ganancias comerciales, todo lo cual normaliza la violación y el abuso de niños reales”, dijo Ian en un comunicado. Critchley, líder de protección infantil del Consejo de Jefes de Policía Nacional.

El informe de la IWF está programado antes de una reunión global sobre seguridad de la IA la próxima semana organizada por el gobierno británico que incluirá asistentes de alto perfil, incluida la vicepresidenta de los Estados Unidos, Kamala Harris, y líderes tecnológicos.

“Si bien este informe presenta un panorama sombrío, soy optimista”, dijo la directora ejecutiva de la IWF, Susie Hargreaves, en una declaración escrita preparada. Dijo que es importante comunicar la realidad del problema a “una amplia audiencia porque necesitamos debatir sobre el lado más oscuro de esta asombrosa tecnología”.

+ There are no comments

Add yours