Los controles comunes implementados para combatir el fraude financiero (medidas contra el lavado de dinero (AML) y requisitos de conocimiento del cliente (KYC)) pueden haber cumplido su equivalente en IA.

Un servicio clandestino llamado OnlyFake está aprovechando las “redes neuronales” para crear identificaciones falsas de alta calidad y, según un informe de 404 Media, cualquiera puede obtener identificaciones falsas generadas instantáneamente con un realismo sorprendente por solo $15, lo que potencialmente facilita una variedad de actividades ilícitas.

La cuenta original de OnlyFake Telegram, su principal plataforma de atención al cliente, fue cerrada. Pero su nueva cuenta declara el fin de la era de Photoshop, alardeando de su capacidad para producir documentos en masa utilizando “generadores” avanzados.

El propietario del sitio, utilizando el alias John Wick, dijo que el servicio puede generar por lotes cientos de documentos a partir de un conjunto de datos de Excel.

Las imágenes son tan buenas que 404 Media pudo superar las medidas KYC de OKX, un intercambio de criptomonedas que utiliza el servicio de verificación externo Jumio para verificar los documentos de sus clientes. Un investigador de ciberseguridad le dijo al medio de comunicación que los usuarios enviaban identificaciones OnlyFake para abrir cuentas bancarias y desbloquear sus cuentas criptográficas.

Cómo está hecho

El servicio OnlyFake utiliza tecnología de inteligencia artificial en gran medida básica, aunque con gran sofisticación.

Utilizando Generative Adversarial Networks (GAN), una forma de IA, los desarrolladores pueden diseñar una red neuronal optimizada para engañar a otra construida para detectar generaciones falsas. Sin embargo, con cada interacción, ambas redes evolucionan y mejoran en la creación y detección de falsificaciones.

Otro enfoque es entrenar un modelo basado en difusión con un conjunto de datos masivo y bien seleccionado de identificaciones reales. Estos modelos son expertos en sintetizar imágenes extremadamente realistas entrenándose con vastos conjuntos de datos de elementos específicos. Aprenden a replicar detalles minuciosos que hacen que las falsificaciones sean casi indistinguibles de los documentos auténticos, burlando los métodos tradicionales de detección de falsificaciones.

¿Deberías arriesgarte?

Para aquellos que buscan evitar tener que usar sus identidades reales, OnlyFake probablemente sea tentador. Pero contratar el servicio conlleva cuestiones tanto éticas como legales. Bajo el barniz de anonimato y el atractivo de un fácil acceso, estas operaciones se encuentran en un terreno muy inestable.

Debido a que distribuye identificaciones falsas de muchos países (incluidos Estados Unidos, Italia, China, Rusia, Argentina, República Checa y Canadá), la empresa abiertamente criminal sin duda ha llamado la atención de las agencias policiales de todo el mundo.

En otras palabras, es posible que el Gran Hermano ya esté observando.

Los riesgos van más allá. John Wick, por ejemplo, podría mantener una lista de clientes; esto sería catastrófico para OnlyFake y sus usuarios. Además, el nuevo grupo OnlyFake Telegram tiene más de 600 miembros, la mayoría de los cuales pueden rastrearse hasta sus números de teléfono vinculados.

Y aunque es obvio, vale la pena mencionar que pagar a OnlyFake con métodos de pago digitales tradicionales es un gran fracaso.

Aunque los pagos con criptomonedas proporcionan una capa de privacidad, tampoco son completamente seguros frente a la exposición de la identidad. Innumerables servicios afirman ser capaces de rastrear transacciones criptográficas y, por lo tanto, las monedas digitales están comenzando a perder el anonimato asociado a ellas.

Y no, OnlyFake no acepta el token de privacidad criptográfico Monero.

Lo más importante es que la compra de una identificación falsa está en contradicción directa con las políticas AML y KYC, que al menos aparentemente están vigentes para combatir la financiación del terrorismo y otras actividades delictivas.

Puede que el negocio esté en auge, pero ¿valen la pena las posibles ramificaciones por la conveniencia rápida y asequible?

Regulaciones en evolución

Los reguladores ya están intentando hacer frente a esta nueva amenaza. El 29 de enero, el Departamento de Comercio de EE. UU. propuso un conjunto de reglas titulado “Tomar medidas adicionales para abordar la emergencia nacional con respecto a actividades cibernéticas maliciosas significativas”.

El departamento quiere exigir a los proveedores de infraestructura que denuncien a las personas extranjeras que intentan entrenar grandes modelos de IA, independientemente del motivo, pero ciertamente el foco se centra en los casos en los que los deepfakes podrían usarse con fines de fraude o espionaje.

Es posible que estas medidas todavía no sean suficientes.

“La caída de KYC fue inevitable, ya que la IA ahora crea identificaciones falsas que pasan rápidamente por las verificaciones”, Torsten Stüber, CTO de Satoshi Pay, dicho en Twitter. “Es hora de un cambio: si es imprescindible una regulación rigurosa, los gobiernos deben deshacerse de la burocracia obsoleta en favor de la tecnología criptográfica, permitiendo una verificación de identidad segura por parte de terceros”.

Por supuesto, el uso de la IA para engañar va más allá de las identificaciones falsas. Los bots de Telegram ahora ofrecen servicios que van desde videos deepfake personalizados, donde los rostros de las personas se superponen a imágenes existentes, hasta la creación de imágenes de personas desnudas inexistentes, conocidas como deepnudes.

A diferencia de los servicios anteriores, estos no requieren mucho conocimiento ni siquiera hardware potente, lo que hace que la tecnología esté ampliamente disponible sin siquiera tener que descargar herramientas gratuitas de edición de imágenes.

Editado por Ryan Ozawa.

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada.





Fuente Traducida decrypt.co