El flagelo de la creación maliciosa de deepfake se ha extendido mucho más allá del ámbito de las celebridades y figuras públicas, y un nuevo informe sobre imágenes íntimas no consensuales (NCII) encuentra que la práctica solo crece a medida que los generadores de imágenes evolucionan y proliferan.

El “desnudo mediante IA” está en aumento, según indicó el viernes un informe de la firma de análisis de redes sociales Graphika, que describe la práctica como el uso de herramientas de IA generativa ajustadas para quitar la ropa de las imágenes cargadas por los usuarios.

La comunidad de juegos y streaming de Twitch se enfrentó al problema a principios de este año cuando el destacado locutor Brandon 'Atrioc' Ewing reveló accidentalmente que había estado viendo pornografía deepfake generada por IA de streamers femeninas a las que llamaba sus amigas, según un informe de Mi ciudad.

Ewing regresó a la plataforma en marzo, arrepentido e informando sobre semanas de trabajo que había realizado para mitigar el daño que había causado. Pero el incidente abrió las compuertas para toda una comunidad en línea.

El informe de Graphika muestra que el incidente fue sólo una gota en el mar.

“Utilizando los datos proporcionados por Meltwater, medimos la cantidad de comentarios y publicaciones en Reddit y X que contienen enlaces de referencia a 34 sitios web y 52 canales de Telegram que brindan servicios sintéticos NCII”, escribió el analista de inteligencia de Graphika, Santiago Lakatos. “Estos totalizaron 1.280 en 2022 en comparación con los más de 32.100 en lo que va del año, lo que representa un aumento del volumen del 2.408% año tras año”.

Graphika, con sede en Nueva York, dice que la explosión en NCII muestra que las herramientas han pasado de foros de discusión especializados a una industria artesanal.

“Estos modelos permiten que un mayor número de proveedores creen NCII fotorrealistas a escala de forma fácil y económica”, dijo Graphika. “Sin dichos proveedores, sus clientes necesitarían alojar, mantener y ejecutar sus propios modelos de difusión de imágenes personalizados, un proceso que requiere mucho tiempo y, a veces, es costoso”.

Graphika advierte que el aumento de la popularidad de las herramientas de inteligencia artificial para desvestirse podría conducir no solo a material pornográfico falso, sino también a acoso dirigido, sextorsión y generación de material de abuso sexual infantil (CSAM).

Según el informe Graphika, los desarrolladores de herramientas de desnudez de IA se anuncian en las redes sociales para llevar a los usuarios potenciales a sus sitios web, al chat privado de Telegram o a los servidores de Discord donde se pueden encontrar las herramientas.

“Algunos proveedores son abiertos en sus actividades, afirmando que brindan servicios de 'desnudar' y publicando fotos de personas que afirman haber sido 'desnudas' como prueba”, escribió Graphika. “Otros son menos explícitos y se presentan como servicios de arte de IA o galerías de fotografías Web3, al tiempo que incluyen términos clave asociados con NCII sintético en sus perfiles y publicaciones”.

Si bien las IA para desnudar normalmente se centran en imágenes, la IA también se ha utilizado para crear videos deepfakes utilizando la imagen de celebridades, incluida la personalidad de YouTube Mr. Beast y el icónico actor de Hollywood Tom Hanks.

Algunos actores como Scarlett Johansson y el actor indio Anil Kapoor están recurriendo al sistema legal para combatir la amenaza actual de los deepfakes de IA. Aún así, si bien los artistas convencionales pueden obtener más atención de los medios, los artistas adultos dicen que sus voces rara vez se escuchan.

“Es realmente difícil”, dijo la legendaria actriz adulta y directora de relaciones públicas de Star Factory, Tanya Tate. Descifrar más temprano. “Si alguien pertenece a la corriente principal, estoy seguro de que es mucho más fácil”.

Incluso sin el auge de la inteligencia artificial y la tecnología deepfake, Tate explicó que las redes sociales ya están llenas de cuentas falsas que utilizan su probabilidad y contenido. Lo que no ayuda es el estigma constante que enfrentan las trabajadoras sexuales, lo que las obliga a ellas y a sus fanáticos a permanecer en las sombras.

En octubre, la Internet Watch Foundation (IWF), una empresa de vigilancia de Internet con sede en el Reino Unido, señaló en un informe separado que se encontraron más de 20.254 imágenes de abuso infantil en un solo foro de la darkweb en solo un mes. La IWF advirtió que la pornografía infantil generada por IA podría “abrumar” a Internet.

Gracias a los avances en imágenes generativas de IA, la IWF advierte que la pornografía deepfake ha avanzado hasta el punto en que diferenciar entre imágenes generadas por IA e imágenes auténticas se ha vuelto cada vez más complejo, dejando a las fuerzas del orden persiguiendo fantasmas en línea en lugar de víctimas reales de abuso.

“Así que existe esa cosa constante de que no puedes confiar en si las cosas son reales o no”, dijo el director de tecnología de Internet Watch Foundation, Dan Sexton. descifrart. “Las cosas que nos dirán si las cosas son reales o no no lo son al 100% y, por lo tanto, tampoco puedes confiar en ellas”.

En cuanto a Ewing, Kotaku informó que el transmisor regresó diciendo que estaba trabajando con reporteros, tecnólogos, investigadores y mujeres afectadas por el incidente desde su transgresión en enero. Ewing también dijo que envió fondos al bufete de abogados de Ryan Morrison con sede en Los Ángeles, Morrison Cooper, para brindar servicios legales a cualquier mujer en Twitch que necesitara su ayuda para emitir avisos de eliminación de sitios que publican imágenes de ellas.

Ewing agregó que recibió una investigación sobre la profundidad del problema de los deepfakes de la misteriosa investigadora de deepfakes Genevieve Oh.

“Traté de encontrar los 'puntos brillantes' en la lucha contra este tipo de contenido”, dijo Ewing.

Editado por Ryan Ozawa.

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada.



Fuente Traducida decrypt.co