Menu Menu

Les images explicites de Taylor Swift AI provoquent une panique juridique

La semaine dernière, des images explicites de Taylor Swift créées à l'aide de l'IA ont été partagées sur Twitter (X), certaines publications ayant été vues des millions de fois. La panique juridique qui s’ensuit pourrait avoir des conséquences sur l’utilisation de l’image de célébrités et des images d’IA en général.

Taylor Swift a été victime de la génération d'images IA la semaine dernière. Des images explicites et pornographiques ont été créées sans son consentement et partagées sur X (anciennement Twitter) par des milliers d'utilisateurs.

Les messages ont été consultés des dizaines de millions de fois avant d’être supprimés et effacés de la plateforme.

Les retombées ont été rapides, X ayant peaufiné ses filtres de censure au cours du week-end pour supprimer toute mention des images. Les hommes politiques américains sont réclamer de nouvelles lois pour criminaliser les deepfakes en conséquence directe, et Microsoft s'est engagé à pousser davantage de garde-fous sur son application Designer IP afin de prévenir de futurs incidents.

Ces derniers développements dans la controverse sur les deepfakes font suite à de nombreuses années de contenu pornographique contraire à l’éthique en ligne, dont la plupart privent les victimes de leur autonomie quant à leur image. C’est un problème qui concerne à la fois les célébrités et les gens ordinaires, à mesure que les outils d’IA deviennent de plus en plus courants et accessibles à tous.

Le statut de haut niveau de Taylor et ses fans dévoués ont contribué à placer cette question au premier plan de l'actualité et alerteront sans aucun doute les décideurs politiques, les plateformes de médias sociaux et les entreprises technologiques d'une manière que nous n'avons jamais vue jusqu'à présent.

Même si des changements et des lois plus strictes auraient dû être mis en place depuis longtemps, nous verrons probablement des progrès indispensables dans les semaines et les mois à venir. Les conséquences pourraient être considérables et affecter la génération d’images IA en général – et pas seulement les ressemblances de célébrités ou le contenu explicite.


Comment les conséquences juridiques pourraient-elles affecter la génération d’images IA à l’avenir ?

Alors, qu'est- spécifiquement Est-ce que cela se passe légalement pour lutter contre le contenu deepfake AI de Taylor ?

Mardi, un groupe bipartisan de sénateurs américains présenté un projet de loi cela criminaliserait la diffusion d’images sexualisées et non consensuelles générées par l’IA. Cela permettrait aux victimes de demander une sanction civile contre « les individus qui ont produit ou possédé le faux dans l'intention de le distribuer ».

De plus, toute personne recevant des images ou du matériel sachant qu’ils n’ont pas été créés avec le consentement serait également concernée.

Dick Durbin, whip de la majorité au Sénat américain, et les sénateurs Lindsey Graham, Amy Klobuchar et Josh Hawley sont à l'origine du projet de loi. Il s'agit de la « Loi de 2024 sur la perturbation des images falsifiées explicites et des modifications non consensuelles », ou « Loi de défi » pour faire court.

Les photos explicites de Taylor sont également parvenues à la Maison Blanche. La secrétaire de presse Karine Jean-Pierre a déclaré vendredi à ABC News que le gouvernement était "alarmé par les informations faisant état de la circulation d'images".

Tout cela fait suite à une projet de loi appelé No AI FRAUD Act qui a été présenté le 10 janvierth 2024.

Cela vise à créer une « protection fédérale de base contre les abus de l’IA » et à faire respecter les droits en ligne du premier amendement. Il met particulièrement l’accent sur les droits des individus à leur image et à s’exprimer contre les contrefaçons d’IA. Si elle est adoptée, la loi No AI FRAUD Act « réaffirmerait que l'image et la voix de chacun sont protégées et donnerait aux individus le droit de contrôler l'utilisation de leurs caractéristiques d'identification ».

Bien sûr, la protection juridique est une chose. l'application le faire à l'échelle du réseau en est une autre. Il y a aussi la question controversée de la liberté d'expression et d’expression – et déterminer où se situe la punition.

Les plateformes logicielles de médiation qui rendent possibles les images d’IA devraient-elles être restreintes ou sanctionnées ? Nous ne limitons pas Photoshop, par exemple, bien qu'il s'agisse d'un outil important pour créer des images trompeuses. Quelle devrait être la position juridique des entreprises d’IA dans ce domaine ? Ce n’est pas clair actuellement.


Pourquoi devrions-nous nous inquiéter de la génération d’images IA non consensuelles ? 

La génération d’images IA et la falsification profonde non consensuelle posent de nombreux problèmes, dont la plupart sont probablement évidents.

La plupart de la pornographie générée par l’IA concerne des femmes et est réalisée sans le consentement du sujet. Une étude 2019 a découvert que 96 % de toutes les vidéos deepfakes étaient explicites, mettaient en vedette des femmes et avaient été réalisées sans approbation. C'est un majeur majorité et indique que le contenu généré par l’IA est largement enraciné dans une misogynie manifeste et le harcèlement sexuel.

En clair, les cadres juridiques n’ont pas réussi à suivre le contenu de l’IA et les risques qui y sont associés. Les femmes sont de plus en plus menacées, qu’il s’agisse de célébrités de premier plan comme Taylor Swift ou de membres modestes du public. Ce risque potentiel augmente également continuellement, à mesure que les logiciels deviennent plus faciles à utiliser et plus facilement disponibles.

Nous savons déjà qu'il existe de nombreuses communautés en ligne, souvent via des forums tels que 4chan, Telegram et Discord, qui génèrent et diffusent du contenu pornographique de femmes célèbres sans autorisation. Il n’est pas réglementé et il est presque impossible de le réprimer entièrement, indépendamment de tout projet de loi bien intentionné du Congrès américain.

Tout cela sans tenir compte des conséquences des images et des vidéos truquées dans nos sphères politiques, où la désinformation deviendra probablement encore plus répandue qu’elle ne l’est déjà. En l’absence de responsabilité légale en cas d’usurpation d’identité en ligne, comment pouvons-nous empêcher une célébrité de dire ou de faire quoi que ce soit ?

Il est déjà assez difficile d'amener nos grands-parents à disséquer ce qui est réel en ligne et ce qui ne l'est pas. Maintenant que l’IA a explosé dans les domaines de l’audio, de la vidéo et même de la rédaction, comprendre le contenu humain et le contenu des robots est presque un champ de mines incompréhensible. Cela laisse tomber les femmes, érode la propriété de notre propre image et, en fin de compte, nuit à notre capacité à communiquer en ligne.

Taylor Swift est peut-être à l'avant-garde de ce problème pour l'instant, mais la réalité est que le contenu deepfake et la pornographie IA circulent sur Internet depuis longtemps, s'infectant dans les coins miteux des forums et étant autorisés à ne pas être contrôlés. Il s’agit d’un problème énorme et substantiel qui ne peut être résolu par un seul projet de loi ou une seule motion.

Il faut faire davantage pour protéger tout le monde, pas seulement les ultra-célèbres.

Accessibilité