Menu Menu

L'utilisation non divulguée de l'IA par Netflix suscite un débat sur la manipulation des médias

Netflix a été critiqué pour avoir inclus des images d'IA non divulguées dans un nouveau documentaire sur un véritable crime. Cette réaction violente a déclenché d’importantes conversations autour de la manipulation des médias. 

Qu’on l’aime, qu’on la craigne ou qu’on la déteste, l’IA fait désormais partie de notre quotidien. De l’éducation au divertissement, l’intelligence artificielle est appelée à continuer de croître, façonnant presque tous les aspects de notre interaction avec les médias.

Mais ces changements appellent des limites. L’imprévisibilité et la croissance sans précédent de l’IA en font un outil dangereux s’il n’est pas utilisé avec précaution. Et ces derniers jours, deux grandes sociétés de médias ont été critiquées pour n’avoir pas réussi à le faire.

Quelques jours seulement après que le studio A24 ait été critiqué pour avoir utilisé Affiches IA Pour promouvoir le nouveau film "Civil War", Netflix a lancé un débat houleux sur l'utilisation de l'intelligence artificielle à la télévision et au cinéma, surtout lorsque les téléspectateurs n'en sont pas informés.

Il a été découvert que le service de streaming avait utilisé des images d'IA de la meurtrière reconnue Jennifer Han, dans le cadre de son nouveau documentaire sur le crime réel "What Jennifer Did". Le film suit la police alors qu'elle enquête sur le meurtre brutal de la mère de Han et la tentative de meurtre de son père, croyant initialement que Jennifer était un témoin innocent.

Elle a finalement avoué avoir orchestré une embauche pour tuer ses parents dans le but d'hériter de leur argent.

Environ 28 minutes après le début du film, l'amie de lycée de Pan, Nam Nguyen, la décrit comme « c'est un plaisir de parler avec elle ».

"Jennifer, vous savez, était pétillante, heureuse, confiante et très authentique", explique-t-il, alors que trois images de Pan apparaissent à l'écran.

Les photos ont depuis fait l'objet d'un examen minutieux, car les objets en arrière-plan semblent déformés, ainsi que les détails des mains, des oreilles et des cheveux de Jennifer.

Les téléspectateurs ont accusé Netflix d'utiliser l'IA pour les manipuler, présentant une fausse idée de Jennifer Han qui ajouterait au point culminant dramatique du film.

"Utiliser l'IA pour manipuler le spectateur lors d'un contenu non-fictionnel est définitivement un mal de premier ordre", a déclaré l'un d'entre eux. Utilisateur d'Instagram. Le consensus écrasant parmi le public de Netflix a été négatif, beaucoup soulignant l'ironie de l'utilisation de fausses informations lors d'un film visant à découvrir « la vérité ».

Bien que Netflix n’ait pas encore commenté cette réaction, la décision d’utiliser des images générées par l’IA sans les divulguer soulève de sérieuses questions éthiques quant aux responsabilités des créateurs de contenu.

En présentant les images générées par l’IA comme réelles, les créateurs de contenu risquent de déformer la vérité et de perpétuer la désinformation. Dans le cas de « What Jennifer Did », les téléspectateurs peuvent avoir formé des perceptions inexactes de Jennifer Han sur la base des visuels fabriqués présentés dans le documentaire.

La manipulation de visuels par l’IA suscite également des inquiétudes quant à l’érosion de la confiance dans les médias. Lorsque les téléspectateurs ne peuvent plus faire la différence entre les images réelles et artificielles, la crédibilité des médias grand public est remise en question. La confiance est le fondement du journalisme et du cinéma, et des incidents comme celui-ci ne font que la miner.

Certains internautes ont suggéré que la montée de l’IA dans la culture populaire, en particulier son apparition non divulguée dans le contenu documentaire, marque la fin de l’ère de l’information.

Bien que des lois soient actuellement en place pour réglementer l'utilisation de l'IA aux États-Unis et en Europe, il existe actuellement pas de législation spécifique régissant l’utilisation d’images ou de vidéos d’IA dans des documentaires ou d’autres contenus.

L’utilisation incontrôlée de l’IA peut également avoir un impact sur ceux qui travaillent dans l’industrie. À mesure que la technologie de l’intelligence artificielle continue de progresser, on craint de plus en plus que les rôles traditionnels dans le cinéma, tels que ceux des maquilleurs et des spécialistes des effets visuels, ne deviennent obsolètes.

Et si les images générées par l’IA deviennent la norme, cela pourrait avoir de profondes implications sur l’avenir de l’emploi dans les médias de divertissement.

Lorsque les entreprises ne parviennent pas à informer leur public de la présence de l’IA dans leur contenu, la capacité du public à faire la différence entre ce qui est réel et ce qui est faux se dégrade. En tant que telle, la validité de l’IA en tant qu’outil de divertissement est ancrée dans l’esprit des créateurs de contenu.

Les producteurs et les sociétés de médias ont la responsabilité de divulguer l'utilisation d'images artificielles et de s'assurer que les téléspectateurs sont conscients de toute manipulation ou modification apportée aux visuels. La transparence favorise la confiance et la responsabilité, éléments essentiels au maintien de l'intégrité du contenu que nous consommons chaque jour.

Accessibilité