Menu Menu

A comoção fotográfica da realeza destaca o desafio de discernir conteúdo falso

À medida que a inteligência artificial torna cada vez mais complicado discernir entre imagens reais e falsas, as pessoas estão, sem dúvida, a confiar menos nos meios de comunicação que lhes são apresentados. Podemos cortar esse ceticismo crescente pela raiz?

O limiar da sociedade para o que se qualifica como “vale misterioso” em 2024 está a tornar-se mais discutível a cada mês. A confiança pública, entretanto, está claramente a diminuir.

Graças à inteligência artificial e à sua capacidade de criar retratos infalivelmente realistas de fotos e vídeos da vida real, as pessoas suspeitam claramente mais da mídia que lhes é apresentada e se ela é ou não totalmente autêntica.

Se a sugestão de que os algoritmos criariam confusão e histeria em massa fosse anteriormente considerado 'tempestade em copo d'água', o caso em curso em torno de Catherine Middleton aponta o contrário.

Se você ainda não sabia, a Princesa de Gales postou uma foto de família para o Instagram no Dia das Mães. Embora parecesse inócua a olho nu, as pessoas examinaram a foto forensemente e identificaram vários exemplos de suposta manipulação digital.

Dada a especulação frenética nas redes sociais já estava furioso sobre a falta de aparições públicas de Kate nos meses que antecederam a postagem - com #WhereisKate sendo tendência por dias - as pessoas rapidamente tiraram conclusões precipitadas.

Após relatos em dezembro de 2023 de que Kate havia conseguido passou por cirurgia abdominal e estava em período de recuperação, conspirações infundadas se espalharam sobre o bem-estar físico e mental da realeza. O tio de Kate, Gary Goldsmith, foi até questionado sobre o assunto na semana passada por Ekin Su no Celebridade big brother casa.

Eu pessoalmente ouvi uma discussão memorável em que alguém alegou que Kate havia desaparecido para fazer uma cirurgia BBL (elevação de bunda brasileira). Respostas em um cartão postal explicando por que isso exigiria a edição de uma parte da manga de sua filha em uma foto de família.

Como parte das políticas gerais para impedir a circulação de “mídia manipulada”, agências fotográficas, incluindo Reuters, Associated Press e Getty, rapidamente retirou a foto de suas respectivas bibliotecas de estoque. Como você pode imaginar, isso não reprimiu exatamente as conspirações.

Nos dias que se seguiram à postagem, entretanto, Kate esclareceu abertamente que, como fotógrafa amadora, ela tentou retocar o retrato de família usando software digital. Também não foi encontrado uso de ferramentas de geração de IA, apesar do trabalho de vários especialistas em deepfake.

“Como muitos fotógrafos amadores, ocasionalmente faço experiências com edição”, escreveu a princesa. 'Quero expressar minhas desculpas por qualquer confusão que a fotografia de família que compartilhamos ontem causou.' Ela era manchado publicamente naquela mesma segunda-feira (11 de março).

Embora uma parte dos britânicos defenda obedientemente Kate e seu direito de fazer o que milhões de outras pessoas fazem diariamente, especialmente no Instagram, a foto mostrou inadvertidamente o quão prejudicial a mídia manipulada pode ser em termos de diminuição da confiança do público.

Este é um ponto importante, visto que 2024 foi apontado como o 'super ano eleitoral' com metade do mundo indo às urnas. À medida que a IA explode na sua forma mais sofisticada através de fotografia, vídeo e áudio, o potencial de proliferação de propaganda adulterada é enorme.

As instituições de comunicação social estão supostamente em alerta vermelho para minimizar a propagação através das redes oficiais, mas o recente deslize das agências fotográficas sugere que as actuais salvaguardas de verificação talvez não sejam adequadas.

No entanto, é difícil culpar alguém. O volume e a velocidade incessantes com que o conteúdo gerado pela IA aparece online são praticamente impossíveis de policiar.

Ofensas de alto perfil, como o deepfake de 2022, que mostrou Presidente da Ucrânia Volodymyr Zelensky rendendo-se na TV nacional, ou a mais recente disseminação de imagens pornográficas explícitas usando A semelhança de Taylor Swift aceleramos os esforços para reformas e salvaguardas bipartidárias, mas ainda não estamos a vencer a batalha.

Em uma conferência de tecnologia em Londres esta semana, a secretária de tecnologia do Reino Unido, Michelle Donelan, esclareceu que as tentativas de impedir deepfakes de IA “não têm uma solução tecnológica que seja a resposta para tudo”.

Um esforço notável da indústria para mitigar usos nefastos da IA, apelidado de Coalizão para Proveniência e Autenticidade de Conteúdo, inclui Adobe, BBC, Microsoft e Google.

Este consórcio está a desenvolver padrões para identificar a desinformação, enquanto todas as plataformas Meta começaram a denotar fotos e vídeos gerados por IA. O Google também está testando uma ferramenta capaz de sinalizar imagens criadas digitalmente ou alteradas por suas próprias ferramentas.

Embora estas iniciativas irão, sem dúvida, frustrar futuras tentativas de enganar ou causar danos, pode-se argumentar que o pior dano já está feito. Por padrão, as pessoas parecem notavelmente mais relutantes em aceitar a mídia pelo seu valor nominal, por medo de serem enganadas por uma tecnologia ambígua.

Temos muito tempo para os memes inofensivos que circulam atualmente no Twitter – e, meu Deus, existem alguns Bom estado, com sinais de uso uns - mas a reação online à queda inicial da foto foi genuinamente preocupante. A histeria em massa é a única maneira de descrevê-la.

Olhando para o futuro próximo, à medida que as explorações da IA ​​se tornam mais difíceis de distinguir da realidade genuína, as pessoas estão destinadas a ficar mais atentas e cautelosas sobre aquilo em que escolhem acreditar. Não parece uma maneira saudável de viver, certo?

Acessibilidade