Menu Menu

Le immagini esplicite dell'intelligenza artificiale di Taylor Swift causano panico legale

La settimana scorsa, immagini esplicite di Taylor Swift create utilizzando l'intelligenza artificiale sono state condivise su Twitter (X), con alcuni post che hanno ottenuto milioni di visualizzazioni. Il conseguente panico legale potrebbe avere conseguenze sull’uso delle sembianze di celebrità e delle immagini IA in generale.

Taylor Swift è stata vittima della generazione di immagini tramite intelligenza artificiale la scorsa settimana. Immagini pornografiche esplicite sono state create senza il suo consenso e condivise su X (formalmente Twitter) da migliaia di utenti.

I post sono stati visualizzati decine di milioni di volte prima di essere rimossi e cancellati dalla piattaforma.

La conseguente ricaduta è stata rapida, con X che ha modificato i suoi filtri di censura durante il fine settimana per rimuovere qualsiasi menzione delle immagini. I politici americani lo sono chiedendo nuove leggi criminalizzare i deepfake come conseguenza diretta e Microsoft si è impegnata a introdurre più guardrail sulla sua app Designer IP per prevenire incidenti futuri.

Questi ultimi sviluppi nella controversia sui deepfake fanno seguito a molti anni di contenuti pornografici non etici online, la maggior parte dei quali priva le vittime dell’autonomia riguardo alle loro sembianze. È un problema che riguarda sia le celebrità che la gente comune, poiché gli strumenti di intelligenza artificiale diventano più comuni e accessibili a chiunque.

Lo status di alto profilo di Taylor e la devota base di fan hanno contribuito a portare questo problema in prima linea nelle notizie attuali e senza dubbio allerteranno i politici, le piattaforme di social media e le aziende tecnologiche in un modo mai visto prima.

Anche se il cambiamento e leggi più severe avrebbero dovuto essere messi in atto molto tempo fa, è probabile che vedremo i progressi tanto necessari nelle prossime settimane e nei prossimi mesi. Le ramificazioni potrebbero essere di vasta portata e influenzare la generazione di immagini dell’intelligenza artificiale in generale, non solo le somiglianze di celebrità o contenuti espliciti.


In che modo le ricadute legali potrebbero influenzare la generazione di immagini AI in futuro?

Allora, che cosa in particolare sta accadendo legalmente per combattere i contenuti deepfake dell'intelligenza artificiale di Taylor?

Martedì si è riunito un gruppo bipartisan di senatori americani ha presentato una proposta di legge ciò criminalizzerebbe la diffusione di immagini non consensuali e sessualizzate generate dall’intelligenza artificiale. Ciò consentirebbe alle vittime di richiedere una sanzione civile contro "gli individui che hanno prodotto o posseduto il falso con l'intento di distribuirlo".

Inoltre, sarebbe interessato anche chiunque riceva immagini o materiale sapendo che non sono stati creati con il consenso.

Dietro il disegno di legge ci sono Dick Durbin, presidente della maggioranza al Senato americano, e i senatori Lindsey Graham, Amy Klobuchar e Josh Hawley. Si chiama "Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024", o "Legge di sfida" in breve.

Le foto esplicite di Taylor sono arrivate anche alla Casa Bianca. La portavoce Karine Jean-Pierre ha detto venerdì alla ABC News che il governo è "allarmato dalle notizie di immagini in circolazione".

Tutto ciò deriva da un altro disegno di legge chiamato No AI FRAUD Act, introdotto il 10 gennaioth 2024.

L’obiettivo è creare una “protezione federale di base contro l’abuso dell’intelligenza artificiale” e sostenere i diritti del Primo Emendamento online. Pone particolare enfasi sui diritti di un individuo alla propria immagine e voce contro le contraffazioni dell'intelligenza artificiale. Se approvato, il No AI FRAUD Act "riaffermerebbe che l'immagine e la voce di ognuno sono protette e darebbe agli individui il diritto di controllare l'uso delle proprie caratteristiche identificative".

Naturalmente la tutela giuridica è una cosa far rispettare esso su base netta è un altro. C'è anche la controversa questione della libertà di parola ed espressione – e determinare dove si trova la punizione.

Le piattaforme software intermediarie che rendono possibili le immagini di intelligenza artificiale dovrebbero essere limitate o punite? Non limitiamo Photoshop, ad esempio, nonostante sia uno strumento importante per creare immagini fuorvianti. Dove dovrebbero posizionarsi legalmente le aziende di intelligenza artificiale? Al momento non è chiaro.


Perché dovremmo preoccuparci della generazione di immagini IA non consensuali? 

Ci sono un sacco di problemi che derivano dalla generazione di immagini AI e dal deep faking non consensuale, la maggior parte dei quali sono probabilmente ovvi.

La maggior parte della pornografia generata dall'intelligenza artificiale riguarda donne e viene realizzata senza il consenso del soggetto. Uno studio 2019 ha scoperto che il 96% di tutti i video deepfake erano espliciti, presentavano donne e venivano realizzati senza approvazione. Cioè un Enorme maggioranza e indica che il contenuto generato dall'intelligenza artificiale lo è in gran parte radicato nella misoginia palese e molestie sessuali.

Per dirla chiaramente, i quadri giuridici non sono riusciti a tenere il passo con i contenuti dell’intelligenza artificiale e i rischi ad essi associati. Le donne sono sempre più minacciate, che si tratti di celebrità di alto livello come Taylor Swift o di membri del pubblico senza pretese. Anche questo rischio potenziale è in costante aumento, poiché il software diventa più facile da usare e più facilmente disponibile.

Sappiamo già che esistono molte comunità online, spesso tramite forum come 4chan, Telegram e Discord, che generano e diffondono contenuti pornografici di donne famose senza permesso. Non è regolamentato ed è quasi impossibile reprimerlo del tutto, indipendentemente da qualsiasi disegno di legge ben intenzionato del Congresso americano.

Tutto ciò senza considerare le conseguenze di immagini e video profondamente falsi nelle nostre sfere politiche, dove la disinformazione diventerà probabilmente ancora più dilagante di quanto non sia già. Senza alcuna responsabilità legale adeguata per il furto di identità online, come possiamo impedire a qualsiasi celebrità di dire o fare qualcosa?

È già abbastanza difficile convincere i nostri nonni a analizzare cosa è reale online e cosa non lo è. Ora che l’intelligenza artificiale è esplosa nell’audio, nei video e persino nel copywriting, la comprensione dei contenuti umani e dei bot lo è ancora di più quasi un campo minato incomprensibile. Sta deludendo le donne, erodendo la proprietà sulla nostra immagine e, in ultima analisi, danneggiando la nostra capacità di comunicare online.

Taylor Swift potrebbe essere a capo di questo problema per ora, ma la realtà è che i contenuti deepfake e la pornografia basata sull'intelligenza artificiale circolano su Internet da molto tempo, marcindo negli angoli squallidi dei forum e potendo rimanere incontrollati. È un problema enorme, sostanziale, che non può essere risolto con una sola legge o mozione.

Occorre fare di più per proteggerlo tutti, non solo gli ultra famosi.

Accessibilità