Un grupo de vigilancia de Internet con sede en el Reino Unido está haciendo sonar la alarma sobre un aumento en la cantidad de material de abuso sexual infantil generado por IA (CSAM) que circula en línea, según un informe por El Guardián.

La Internet Watch Foundation (IWF) dijo que las redes de pedofilia están discutiendo e intercambiando consejos sobre la creación de imágenes ilegales de niños utilizando modelos de inteligencia artificial de código abierto que se pueden descargar y ejecutar localmente en computadoras personales en lugar de ejecutar la nube donde los controles generalizados y las herramientas de detección pueden interceder.

Fundada en 1996, Internet Watch Foundation es una organización sin fines de lucro dedicada a monitorear Internet en busca de contenido de abuso sexual, específicamente dirigido a niños.

“Hay una comunidad técnica dentro del espacio de los delincuentes, particularmente los foros de la web oscura, donde están discutiendo esta tecnología”, dijo el Director de Tecnología de IWF. Dan Sexton relatado el Guardián. “Están compartiendo imágenes, están compartiendo [AI] modelos. Están compartiendo guías y consejos”.

La proliferación de CSAM falso complicaría las prácticas actuales de aplicación.

“Nuestra preocupación es que, si las imágenes de IA de abuso sexual infantil se vuelven indistinguibles de las imágenes reales, existe el peligro de que los analistas de IWF puedan perder un tiempo precioso tratando de identificar y ayudar a las fuerzas del orden a proteger a los niños que no existen”, dijo Sexton en un IWF anterior. informe.

Los ciberdelincuentes que utilizan plataformas generativas de IA para crear contenido falso o deepfakes de todo tipo son una preocupación creciente para las fuerzas del orden y los responsables políticos. Los deepfakes son videos, imágenes o audio generados por IA que fabrican personas, lugares y eventos.

Para algunos en los Estados Unidos, el tema también es lo más importante. En julio, el gobernador de Louisiana, John Bel Edwards, firmó el proyecto de ley SB175 que sentenciaría a cualquier persona condenada por crear, distribuir o poseer imágenes ilegales de deepfake que representen a menores a una prisión obligatoria de cinco a 20 años, una multa de hasta $ 10,000, o ambos.

Con la preocupación de que los deepfakes generados por IA puedan llegar a las elecciones presidenciales estadounidenses de 2024, los legisladores están redactando proyectos de ley para detener la práctica antes de que pueda despegar.

El martes, los senadores estadounidenses Amy Klobuchar (D-MN), Josh Hawley (R-MO), Chris Coons (D-DE) y Susan Collins (R-ME) presentaron el Proteger las elecciones de la engañosa Ley de IA destinado a detener el uso de la tecnología de IA para crear material de campaña de engaño.

Durante una audiencia del Senado de los Estados Unidos sobre IA, el presidente de Microsoft, Brad Smith, sugirió usar políticas de Conozca a su cliente similares a las utilizadas en el sector bancario para identificar a los delincuentes que usan plataformas de IA con fines nefastos.

“Hemos sido defensores de esos”, dijo Smith. “De modo que si hay abuso de sistemas, la empresa que está ofreciendo el [AI] El servicio sabe quién lo está haciendo y está en una mejor posición para evitar que suceda”.

La IWF aún no ha respondido a Descifrar Solicitud de comentarios.

Manténgase al tanto de las noticias criptográficas, obtenga actualizaciones diarias en su bandeja de entrada.



Fuente Traducida

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *