Menu Menu

Imagens explícitas de Taylor Swift AI causam pânico legal

Na semana passada, imagens explícitas de Taylor Swift criadas com IA foram compartilhadas no Twitter (X), com algumas postagens ganhando milhões de visualizações. O pânico jurídico que se seguiu pode ter ramificações para o uso de imagens de celebridades e de imagens de IA em geral.

Taylor Swift foi vítima da geração de imagens de IA na semana passada. Imagens pornográficas explícitas foram criadas sem o seu consentimento e compartilhadas no X (formalmente Twitter) por milhares de usuários.

As postagens foram visualizadas dezenas de milhões de vezes antes de serem removidas e apagadas da plataforma.

As consequências que se seguiram foram rápidas, com X ajustando seus filtros de censura no fim de semana para remover qualquer menção às imagens. Os políticos dos EUA estão pedindo novas leis criminalizar deepfakes como resultado direto, e A Microsoft comprometeu-se para impor mais proteções em seu aplicativo Designer IP, a fim de evitar incidentes futuros.

Esses últimos desenvolvimentos na controvérsia do deepfake seguem-se a muitos anos de conteúdo pornográfico antiético online, a maioria dos quais priva as vítimas da autonomia sobre sua imagem. É um problema que preocupa tanto as celebridades como as pessoas comuns, à medida que as ferramentas de IA se tornam mais comuns e acessíveis para qualquer pessoa usar.

O estatuto de destaque e a base de fãs devotados de Taylor ajudaram a colocar esta questão no primeiro plano das notícias atuais e, sem dúvida, alertarão os decisores políticos, as plataformas de redes sociais e as empresas tecnológicas de uma forma que não vimos até agora.

Embora mudanças e leis mais rigorosas já devessem ter sido implementadas há muito tempo, é provável que vejamos um progresso muito necessário nas próximas semanas e meses. As ramificações podem ser abrangentes e afetar a geração de imagens de IA em geral – não apenas imagens de celebridades ou conteúdo explícito.


Como as consequências legais poderiam afetar a geração de imagens de IA no futuro?

Então, o que especificamente está acontecendo legalmente para combater o conteúdo deepfake de IA de Taylor?

Na terça-feira, um grupo bipartidário de senadores dos EUA introduziu uma conta isso criminalizaria a disseminação de imagens sexualizadas e não consensuais geradas pela IA. Isto permitiria às vítimas solicitar uma sanção civil contra “indivíduos que produziram ou possuíram a falsificação com a intenção de a distribuir”.

Além disso, qualquer pessoa que receba imagens ou materiais sabendo que não foram criados com consentimento também será afetada.

Dick Durbin, líder da maioria no Senado dos EUA, e os senadores Lindsey Graham, Amy Klobuchar e Josh Hawley estão por trás do projeto. Ela está sendo chamada de 'Lei de interrupção de imagens forjadas explícitas e edições não consensuais de 2024', ou 'Lei de Desafio' abreviado.

As fotos explícitas de Taylor também chegaram à Casa Branca. A secretária de imprensa Karine Jean-Pierre disse à ABC News na sexta-feira que o governo estava “alarmado com relatos de imagens circulando”.

Tudo isto decorre de outra projeto de lei denominado Lei No AI FRAUD, que foi apresentado em 10 de janeiroth 2024.

O objetivo é criar uma “proteção básica federal contra o abuso de IA” e defender os direitos da Primeira Emenda online. Coloca particular ênfase nos direitos de um indivíduo à sua imagem e voz contra falsificações de IA. Se aprovada, a Lei No AI FRAUD “reafirmaria que a imagem e a voz de todos são protegidas e daria aos indivíduos o direito de controlar o uso das suas características de identificação”.

É claro que a protecção jurídica é uma coisa, na verdade impor em toda a rede é outra. Há também a controversa questão da liberdade de expressão e expressão – e determinar onde reside a punição.

As plataformas de software de mediação que tornam possíveis as imagens de IA devem ser restringidas ou punidas? Não limitamos o Photoshop, por exemplo, apesar de ser uma ferramenta importante para criar imagens enganosas. Onde as empresas de IA deveriam se posicionar legalmente aqui? Atualmente não está claro.


Por que deveríamos nos preocupar com a geração não consensual de imagens de IA? 

Há uma série de problemas associados à geração de imagens de IA e à falsificação profunda não consensual, muitos dos quais provavelmente são óbvios.

A maior parte da pornografia gerada por IA é de mulheres e é feita sem o consentimento do sujeito. Um estudo 2019 descobriram que 96% de todos os vídeos deepfake eram explícitos, apresentavam mulheres e foram feitos sem aprovação. Aquilo é um enorme maioria e indica que o conteúdo gerado por IA é em grande parte enraizado na misoginia aberta e assédio sexual.

Para ser mais claro, os quadros jurídicos não conseguiram acompanhar o conteúdo da IA ​​e os riscos a ele associados. As mulheres estão cada vez mais sob ameaça, sejam elas celebridades de alto nível como Taylor Swift ou membros despretensiosos do público. Este risco potencial também aumenta continuamente, à medida que o software se torna mais fácil de usar e mais prontamente disponível.

Já sabemos que existem muitas comunidades online, muitas vezes através de fóruns como 4chan, Telegram e Discord, que geram e divulgam conteúdo pornográfico de mulheres famosas sem permissão. Não é regulamentado e é quase impossível reprimir totalmente, independentemente de qualquer projeto de lei bem-intencionado do Congresso dos EUA.

Tudo isto sem considerar as consequências das imagens e vídeos profundamente falsos nas nossas esferas políticas, onde a desinformação provavelmente se tornará ainda mais generalizada do que já é. Sem nenhuma responsabilidade legal adequada por roubo de identidade online, como podemos impedir qualquer celebridade de dizer ou fazer qualquer coisa?

Já é bastante difícil fazer com que nossos avós dissecem o que é real e o que não é online. Agora que a IA explodiu em áudio, vídeo e até mesmo em direitos autorais, compreender o conteúdo humano e o conteúdo do bot é quase um campo minado incompreensível. Está a falhar com as mulheres, a desgastar a propriedade sobre a nossa própria imagem e, em última análise, a prejudicar a nossa capacidade de comunicar online.

Taylor Swift pode estar liderando essa questão por enquanto, mas a realidade é que o conteúdo deepfake e a pornografia de IA já circulam na Internet há muito tempo, apodrecendo em cantos decadentes de fóruns e sendo autorizados a permanecer sem controle. É um problema enorme e substancial, que não pode ser resolvido com um único projeto de lei ou moção.

Mais precisa ser feito para proteger todos, não apenas os ultrafamosos.

Acessibilidade