La empresa de vigilancia de Internet Internet Watch Foundation (IWF), con sede en el Reino Unido, vuelve a hacer sonar la alarma sobre la rápida difusión de material de abuso sexual infantil (CSAM) generado por IA. En un nuevo informe publicado el miércoles, el grupo informó que se encontraron más de 20.254 imágenes CSAM generadas por IA en un solo foro de la darkweb en solo un mes, y que una avalancha de contenido tan abominable podría “abrumar” Internet.

A medida que los generadores de imágenes de IA generativa se vuelven más avanzados, la capacidad de crear réplicas realistas de seres humanos ha crecido a pasos agigantados. Los generadores de imágenes de IA como Midjourney, Runway, Stable Diffusion y Dall-E de OpenAI son solo algunas de las plataformas capaces de evocar imágenes realistas.

Estas plataformas basadas en la nube, que son ampliamente accesibles al público, han implementado restricciones, reglas y controles sustanciales para evitar que actores nefastos utilicen sus herramientas para crear contenido abusivo. Pero los entusiastas de la IA buscan regularmente formas de eludir estas barreras.

“Es importante que comuniquemos las realidades de AI CSAM a una amplia audiencia porque necesitamos debatir sobre el lado más oscuro de esta asombrosa tecnología”, dijo en el informe la directora ejecutiva de la fundación, Susie Hargreaves.

Al afirmar que su “peor pesadilla” se había hecho realidad, la IWF dijo que ahora está rastreando casos de CSAM generados por IA de víctimas reales de abuso sexual. El grupo británico también destacó imágenes de celebridades a las que se les envejece y manipuladas para que parezcan víctimas de abuso, así como fotografías manipuladas de niños famosos.

“Como si no fuera suficiente que las víctimas sepan que su abuso puede estar siendo compartido en algún rincón oscuro de Internet, ahora corren el riesgo de enfrentarse a nuevas imágenes de ellos mismos siendo abusados ​​de maneras nuevas y horrendas que nunca antes habían imaginado”, dijo Hargreaves.

Un problema importante con la proliferación de CSAM realistas generados por IA es que podría distraer a los recursos policiales de la detección y eliminación de abusos reales, afirma la IWF.

Fundada en 1996, la fundación es una organización sin fines de lucro dedicada a monitorear Internet en busca de contenido de abuso sexual, específicamente dirigido a niños.

En septiembre, la IWF advirtió que las redes de pedófilos están discutiendo e intercambiando consejos sobre cómo crear imágenes ilegales de niños utilizando modelos de inteligencia artificial de código abierto que pueden descargarse y ejecutarse localmente en computadoras personales.

“Los perpetradores pueden descargar legalmente todo lo que necesitan para generar estas imágenes y luego pueden producir tantas imágenes como quieran, sin conexión, sin posibilidad de ser detectados”, dijo la IWF.

El grupo del Reino Unido pidió colaboración internacional para luchar contra el flagelo del CSAM, proponiendo un enfoque de varios niveles, que incluye cambios en las leyes pertinentes, actualización de la capacitación policial y establecimiento de supervisión regulatoria para los modelos de IA.

Para los desarrolladores de IA, la IWF recomienda prohibir el uso de su IA para crear material de abuso infantil, desindexar modelos relacionados y priorizar la eliminación de material de abuso infantil de sus modelos.

“Este es un problema global que requiere que los países trabajen juntos y garanticen que la legislación sea adecuada para su propósito”, dijo Hargreaves en una declaración previamente compartida con Descifrarseñalando que la IWF ha sido eficaz a la hora de limitar el CSAM en su país de origen.

“El hecho de que menos del 1% del contenido delictivo esté alojado en el Reino Unido indica nuestras excelentes asociaciones de trabajo con las fuerzas y agencias policiales del Reino Unido, y también colaboraremos activamente con las autoridades en esta nueva y alarmante tendencia”, dijo Hargreaves. “Instamos al primer ministro del Reino Unido a que incluya esto firmemente en la agenda de la cumbre mundial sobre seguridad de la IA que se celebrará en el Reino Unido en noviembre”.

Si bien la IWF dice que se están eliminando foros de la darkweb que albergan CSAM ilegal en el Reino Unido, el grupo dijo que la eliminación podría ser más complicada si el sitio web está alojado en otros países.

Existen numerosos esfuerzos concertados para combatir el abuso de la IA. En septiembre, el presidente de Microsoft, Brad Smith, sugirió utilizar políticas KYC inspiradas en las empleadas por las instituciones financieras para ayudar a identificar a los delincuentes que utilizan modelos de inteligencia artificial para difundir información errónea y abuso.

El estado de Luisiana aprobó en julio una ley que aumenta la pena por la venta y posesión de pornografía infantil generada por IA, según la cual cualquier persona condenada por crear, distribuir o poseer imágenes ilegales deepfake que representen a menores podría enfrentarse a una pena obligatoria de cinco a 20 años de prisión. una multa de hasta $10,000, o ambas.

En agosto, el Departamento de Justicia de EE. UU. actualizó su página Guía del ciudadano sobre la ley federal de EE. UU. sobre pornografía infantil. En caso de que hubiera alguna confusión, el Departamento de Justicia enfatizó que las imágenes de pornografía infantil no están protegidas por la Primera Enmienda y son ilegales según la ley federal.

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada.





Fuente Traducida decrypt.co