OpenAI prétend disposer d'un outil capable de découvrir des cas où des générateurs de texte IA ont été utilisés. Verra-t-il un jour le jour ?
OpenAI a conçu un outil intelligent pour détecter l'écriture évoquée par ChatGPT, mais ils hésitent à le diffuser sur le monde – car pourquoi se tirer une balle dans le pied ?
Ce détective IA fait suite à la disparition de leur précédent AI Text Classifier, qui a échoué son évaluation des performances et a échoué à plusieurs expériences. Cependant, tout juste sorti de la planche à dessin, OpenAI se vante d'avoir une approche « très précise » méthode de filigrane de texte tout en pesant le pour et le contre de sa diffusion au public.
Le dilemme? Ils craignent que l’outil ne stigmatise injustement les anglophones non natifs qui utilisent l’IA pour aider à l’écriture. L’explication la moins noble (et la plus probable) est que les dirigeants de l’entreprise sauront que la nature secrète des outils de génération de texte les aide à proliférer. Les gens sont paresseux et n’aiment pas se faire dénoncer.
Il s'avère que @OpenAI a développé un outil presque parfait pour capturer l'écriture ChatGPT, et il est prêt à être extrait depuis environ un an, par @WSJ.
…Alors pourquoi avez-vous tous qualifié les détecteurs d’IA de cause perdue dans un article de blog d’août 2023 ? pic.twitter.com/6O7kuR1pdz– Molly Liebergall (@LiebergallMolly) le 7 août 2024
D’ailleurs, même si OpenAI voulait le sortir, aucun outil ne peut être totalement infaillible. Les utilisateurs astucieux pourraient esquiver la détection en traduisant le texte, en le reformulant avec une autre IA, ou même en y insérant des caractères spéciaux avant de les supprimer par la suite.
Les premières expériences sur les métadonnées sont bien plus fiables, car le code contiendrait de solides indicateurs d’utilisation de l’IA même après avoir été modifié. Peut-être que la société appartenant à Microsoft fait de l'ingénierie inverse uniquement pour des raisons de tranquillité d'esprit.
Alors que l’influence de l’IA ne cesse de croître dans le monde du contenu, ils voudront savoir par eux-mêmes où leur technologie est exploitée. Quant à une sortie publique… ils bluffent sûrement.
Alors que la détection de texte semble être en veilleuse, OpenAI prépare des plans pour repérer le contenu audiovisuel généré par l’IA, ce qui présente des risques plus évidents à ce stade.
Ils sautent dans le train des métadonnées C2PA, qui attache une balise d'origine au contenu qui survit aux modifications et rend plus difficile la falsification de l'authenticité. TikTok et Adobe font partie de ceux qui emploient les mêmes garanties.
Je déteste que maintenant, chaque fois que je vois une image (photo, art, etc.), j'ai développé l'habitude de la scanner automatiquement à la recherche de signes d'IA : des doigts supplémentaires, des choses qui n'ont pas de sens, une sensation trop brillante/fausse. , etc. J'aurais aimé ne pas avoir à être sur mes gardes pour voir si c'est faux ou non.
— Oseille Mamí 🇧🇧✨ (@xcarliebimx) 16 février 2024
DALL-E, OpenAI générateur d'images, intégrera bientôt les métadonnées C2PA, tout comme son prochain générateur vidéo 'Sora'. L’idée est que même si les gens peuvent toujours créer du contenu et de la propagande trompeurs, ils ne peuvent pas dissimuler les signaux d’alarme lancés par les métadonnées.
OpenAI a également annoncé une solution de filigrane inviolable pour les images, invitant les laboratoires de recherche et les organisations de journalisme à but non lucratif à l'essayer. Cet outil affiche un taux de réussite de 98 % dans l'identification des images DALL-E 3, avec un taux de faux positifs minimal.
Enfin, la détection audio est sur le radar d'OpenAI avec son nouveau « moteur vocal » qui serait capable de détecter l'IA même à partir des échantillons les plus convaincants. Avec des outils comme ceux-ci, on pourrait supposer que c'est la fin des fausses pistes de Drake apparaissant sur Spotify.
OpenAI est naturellement réticent à laisser les entreprises mettre la main sur son détecteur de texte IA. Néanmoins, il est nécessaire de sécuriser le paysage numérique avant que l’IA ne dépasse le contenu en ligne créé par l’homme.