Los abogados de Scarlett Johansson anunciaron el miércoles que la actriz planea emprender acciones legales contra una empresa de inteligencia artificial que usó su nombre y su imagen en un anuncio sin permiso, agregando a la estrella A a una creciente facción de estrellas y políticos frustrados por la proliferación de Impostores creados por IA. Pero a medida que las figuras públicas comienzan a intentar acabar con los imitadores engañosos en línea a través del sistema judicial, pueden enfrentar desafíos cada vez mayores derivados de la naturaleza sin fronteras de Internet.

En el caso de Johansson, según un informe publicado hoy en Variedad, la actriz planea emprender acciones legales contra Lisa AI, una aplicación de generación de imágenes que publicó un anuncio en Twitter el mes pasado con un deepfake de Johansson respaldando vigorosamente el producto. Sin embargo, la empresa propietaria de Lisa AI (Convert Yazılım Limited Şirket, según los términos de servicio de la aplicación) es una empresa turca con sede en Estambul. Y aunque los abogados de Hollywood ciertamente no son ajenos a las disputas internacionales, la variable añadida de la IA podría suponer un obstáculo en el asunto.

Aunque los políticos en Estados Unidos parecen cada vez más decididos a crear una marco legal federal para regular las falsificaciones profundas generadas por IA, y los tribunales de países como India ya se han pronunciado sobre el asunto, poniéndose del lado contra los creadores de falsificaciones de IA—No todos los demás gobiernos del mundo han sido igualmente agresivos en sus esfuerzos por controlar la nueva tecnología. En Japón, por ejemplo, los reguladores anunciado a principios de este año que el uso de obras protegidas por derechos de autor para entrenar un sistema de inteligencia artificial no viola las leyes de derechos de autor.

Si bien la cuestión de la IA y los derechos de autor está separada de la de la IA y las falsificaciones profundas, la postura ofrece una ventana al apetito actual de Japón por regular la IA: según un estudio reciente informe elaborado por la Biblioteca de Derecho del Congreso, en Japón no se han propuesto ni adoptado leyes relacionadas con la IA. Este tipo de leyes tampoco existen en Turquía, ni se prevé que existan en un futuro próximo.

En el caso de Johansson, la aplicación infractora, Lisa AI, parece haber retirado voluntariamente el anuncio de Twitter, probablemente como resultado del acercamiento del abogado de la actriz. Pero, ¿qué sucede si una empresa que opera desde un país sin regulación de la IA se niega a cumplir con un ultimátum similar en el futuro? En la mayoría de los países, incluido Estados Unidos, las figuras públicas generalmente están sujetas a menos protecciones con respecto a su derechos de publicidad.

En una zona legal gris, tales disputas pueden comenzar a centrarse en las plataformas en línea en las que se publican estas falsificaciones profundas, como en este caso, Twitter. Pero desde la adquisición de la plataforma por parte de Elon Musk el año pasado, Twitter ha aflojó muchas de sus políticas en materia de difusión de información falsa.

Mientras que una gran cantidad de senadores estadounidenses están buscando hacer ilegal cualquier representación generada por IA de una persona creada sin su permiso, independientemente del contexto adicional, la política de Twitter sobre el tema actualmente parece mucho más relajada.

Según la empresa política permanente En medios engañosos, que se actualizó en abril, una publicación que incluya audio, video o imágenes que se muestren falsas solo es elegible para ser eliminada si “es probable que resulte en una confusión generalizada sobre temas públicos, afecte la seguridad pública o cause daños graves”. .”

Scarlett Johansson puede ser una de las personas vivas más famosas, pero un anuncio falso que pretenda mostrarla respaldando una aplicación de fotografía para el anuario probablemente no constituiría una emergencia nacional.

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada.





Fuente Traducida decrypt.co