Na semana passada, imagens explícitas de Taylor Swift criadas com IA foram compartilhadas no Twitter (X), com algumas postagens ganhando milhões de visualizações. O pânico jurídico que se seguiu pode ter ramificações para o uso de imagens de celebridades e de imagens de IA em geral.
Taylor Swift foi vítima da geração de imagens de IA na semana passada. Imagens pornográficas explícitas foram criadas sem o seu consentimento e compartilhadas no X (formalmente Twitter) por milhares de usuários.
As postagens foram visualizadas dezenas de milhões de vezes antes de serem removidas e apagadas da plataforma.
As consequências que se seguiram foram rápidas, com X ajustando seus filtros de censura no fim de semana para remover qualquer menção às imagens. Os políticos dos EUA estão pedindo novas leis criminalizar deepfakes como resultado direto, e A Microsoft comprometeu-se para impor mais proteções em seu aplicativo Designer IP, a fim de evitar incidentes futuros.
A publicação de imagens de nudez não consensual (NCN) é estritamente proibida no X e temos uma política de tolerância zero em relação a esse tipo de conteúdo. Nossas equipes estão removendo ativamente todas as imagens identificadas e tomando as medidas apropriadas contra as contas responsáveis por publicá-las. Estamos de perto…
- Segurança (@Segurança) 26 de janeiro de 2024
Esses últimos desenvolvimentos na controvérsia do deepfake seguem-se a muitos anos de conteúdo pornográfico antiético online, a maioria dos quais priva as vítimas da autonomia sobre sua imagem. É um problema que preocupa tanto as celebridades como as pessoas comuns, à medida que as ferramentas de IA se tornam mais comuns e acessíveis para qualquer pessoa usar.
O estatuto de destaque e a base de fãs devotados de Taylor ajudaram a colocar esta questão no primeiro plano das notícias atuais e, sem dúvida, alertarão os decisores políticos, as plataformas de redes sociais e as empresas tecnológicas de uma forma que não vimos até agora.
Embora mudanças e leis mais rigorosas já devessem ter sido implementadas há muito tempo, é provável que vejamos um progresso muito necessário nas próximas semanas e meses. As ramificações podem ser abrangentes e afetar a geração de imagens de IA em geral – não apenas imagens de celebridades ou conteúdo explícito.
Como as consequências legais poderiam afetar a geração de imagens de IA no futuro?
Então, o que especificamente está acontecendo legalmente para combater o conteúdo deepfake de IA de Taylor?
Na terça-feira, um grupo bipartidário de senadores dos EUA introduziu uma conta isso criminalizaria a disseminação de imagens sexualizadas e não consensuais geradas pela IA. Isto permitiria às vítimas solicitar uma sanção civil contra “indivíduos que produziram ou possuíram a falsificação com a intenção de a distribuir”.
Além disso, qualquer pessoa que receba imagens ou materiais sabendo que não foram criados com consentimento também será afetada.
Dick Durbin, líder da maioria no Senado dos EUA, e os senadores Lindsey Graham, Amy Klobuchar e Josh Hawley estão por trás do projeto. Ela está sendo chamada de 'Lei de interrupção de imagens forjadas explícitas e edições não consensuais de 2024', ou 'Lei de Desafio' abreviado.
As fotos explícitas de Taylor também chegaram à Casa Branca. A secretária de imprensa Karine Jean-Pierre disse à ABC News na sexta-feira que o governo estava “alarmado com relatos de imagens circulando”.
Tudo isto decorre de outra projeto de lei denominado Lei No AI FRAUD, que foi apresentado em 10 de janeiroth 2024.
O objetivo é criar uma “proteção básica federal contra o abuso de IA” e defender os direitos da Primeira Emenda online. Coloca particular ênfase nos direitos de um indivíduo à sua imagem e voz contra falsificações de IA. Se aprovada, a Lei No AI FRAUD “reafirmaria que a imagem e a voz de todos são protegidas e daria aos indivíduos o direito de controlar o uso das suas características de identificação”.
É claro que a protecção jurídica é uma coisa, na verdade impor em toda a rede é outra. Há também a controversa questão da liberdade de expressão e expressão – e determinar onde reside a punição.
As plataformas de software de mediação que tornam possíveis as imagens de IA devem ser restringidas ou punidas? Não limitamos o Photoshop, por exemplo, apesar de ser uma ferramenta importante para criar imagens enganosas. Onde as empresas de IA deveriam se posicionar legalmente aqui? Atualmente não está claro.
Legisladores propõem projeto de lei anti-não consensual sobre pornografia de IA após controvérsia de Taylor Swift https://t.co/3PS8h0ULxO
- The Verge (@verge) 31 de janeiro de 2024