Menu Menu

L'agitation photo des Royals met en évidence le défi de discerner le faux contenu

Alors que l’intelligence artificielle rend de plus en plus difficile la distinction entre les images réelles et fausses, les gens font sans aucun doute de moins en moins confiance aux médias qui leur sont présentés. Pouvons-nous tuer dans l’œuf ce scepticisme croissant ?

Le seuil de la société pour ce qui est qualifié de « vallée étrange » en 2024 devient de plus en plus discutable de mois en mois. Pendant ce temps, la confiance du public est clairement en déclin.

Grâce à l'intelligence artificielle et à sa capacité à créer des représentations infailliblement réalistes de photos et de vidéos réelles, les gens se méfient nettement plus des médias qui leur sont présentés et de leur authenticité ou non.

Si la suggestion selon laquelle les algorithmes créeraient une confusion et une hystérie massives était précédemment considéré "Une tempête dans une tasse de thé", l'affaire en cours autour de Catherine Middleton montre le contraire.

Si vous ne le saviez pas déjà, la princesse de Galles a posté une photo de famille sur Instagram pour la fête des mères. Bien qu’elle paraisse inoffensive à l’œil nu, les gens ont examiné la photo de manière médico-légale et ont trouvé plusieurs exemples de prétendues manipulations numériques.

Compte tenu de la frénésie des spéculations sur les réseaux sociaux, déjà fait rage à propos du manque d'apparitions publiques de Kate au cours des mois précédant la publication – avec la tendance #WhereisKate depuis des jours – les gens ont rapidement tiré des conclusions farfelues.

Suite à des informations en décembre 2023 selon lesquelles Kate avait réussi subi une chirurgie abdominale et était dans une période de convalescence, des conspirations infondées se sont répandues sur le bien-être physique et mental du royal. L'oncle de Kate, Gary Goldsmith, a même été interrogé à ce sujet la semaine dernière par Ekin Su dans le Célébrité Big Brother maison.

J'ai personnellement entendu une discussion mémorable au cours de laquelle quelqu'un affirmait que Kate avait disparu pour subir une opération BBL (Brazilian Butt Lift). Réponses sur une carte postale expliquant pourquoi cela nécessiterait de modifier une partie de la manche de sa fille sur une photo de famille.

Dans le cadre de politiques globales visant à empêcher la circulation des « médias manipulés », les agences photo, notamment Reuters, Associated Press et Getty, ont rapidement a retiré la photo à partir de leurs bibliothèques de stock respectives. Comme vous pouvez l’imaginer, cela n’a pas vraiment mis fin aux complots.

Cependant, dans les jours qui ont suivi cette publication, Kate a ouvertement précisé qu'en tant que photographe amateur, elle avait tenté de retoucher le portrait de famille à l'aide d'un logiciel numérique. Aucune utilisation d’outils de génération d’IA n’a été trouvée non plus, malgré les travaux de plusieurs experts en deepfake.

"Comme beaucoup de photographes amateurs, j'expérimente occasionnellement le montage", a écrit la princesse. "Je voulais exprimer mes excuses pour toute confusion causée par la photo de famille que nous avons partagée hier." Elle était repéré publiquement ce même lundi (11 mars).

Alors qu'une partie des Britanniques défend consciencieusement Kate et son droit de faire ce que des millions d'autres font quotidiennement, notamment sur Instagram, la photo a montré par inadvertance à quel point les médias manipulés peuvent être préjudiciables en termes de diminution de la confiance du public.

C’est un point important, étant donné que 2024 a été présenté comme le «super année électorale" alors que la moitié de la population mondiale se rend aux urnes. Alors que l’IA explose sous sa forme la plus sophistiquée à travers la photo, la vidéo et l’audio, le potentiel de prolifération de la propagande falsifiée est énorme.

Les institutions médiatiques seraient en alerte rouge pour minimiser la propagation à travers les réseaux officiels, mais la récente erreur des agences photo suggère que les garanties de contrôle actuelles ne sont peut-être pas adéquates.

Néanmoins, il est difficile de rejeter la faute sur qui que ce soit. Le volume et la vitesse incessants avec lesquels le contenu généré par l’IA apparaît en ligne sont pratiquement impossibles à contrôler.

Des infractions très médiatisées, comme le deepfake de 2022 qui montrait Le président ukrainien Volodymyr Zelensky reddition à la télévision nationale, ou la diffusion plus récente d'images pornographiques explicites utilisant Le portrait de Taylor Swift Nous avons accéléré les efforts de réforme et de garanties bipartites, mais nous ne gagnons pas encore la bataille.

Lors d'une conférence technologique à Londres cette semaine, la secrétaire britannique à la technologie, Michelle Donelan, a précisé que les tentatives visant à contrecarrer les deepfakes de l'IA n'ont « pas de solution technologique unique qui soit la réponse à tout ».

Un effort notable de l'industrie pour atténuer les utilisations néfastes de l'IA, surnommé le Coalition pour la provenance et l'authenticité du contenu, comprend Adobe, la BBC, Microsoft et Google.

Ce consortium développe des normes pour identifier la désinformation, tandis que toutes les plateformes Meta ont commencé à désigner des photos et des vidéos générées par l'IA. Google teste également un outil capable de signaler les images créées numériquement ou modifiées par ses propres outils.

Même si ces initiatives déjoueront sans aucun doute les futures tentatives visant à tromper ou à causer du tort, on pourrait affirmer que les pires dégâts sont déjà causés. Par défaut, les gens semblent nettement plus réticents à accepter les médias au pied de la lettre, de peur d’être trompés par une technologie ambiguë.

Nous avons tout notre temps pour les mèmes inoffensifs qui circulent actuellement sur Twitter – et oh mon Dieu, y en a-t-il ? Bien ceux – mais la réaction en ligne à la chute initiale de la photo était vraiment préoccupante. L’hystérie collective est la seule façon de la décrire.

Dans un avenir proche, alors que les exploits de l’IA deviendront plus difficiles à distinguer de la réalité réelle, les gens sont voués à devenir de plus en plus nerveux et prudents quant à ce qu’ils choisissent de croire. Cela ne semble pas être une façon saine de vivre, n’est-ce pas ?

Accessibilité