Kategorien Kategorien

OpenAI könnte einen Detektor für KI-generierten Text einführen

OpenAI behauptet, über ein Tool zu verfügen, das Fälle aufdecken kann, in denen KI-Textgeneratoren eingesetzt wurden. Wird es jemals das Licht der Welt erblicken?

OpenAI hat ein cleveres Tool entwickelt, um mit ChatGPT erstellte Texte aufzuspüren, hat aber Bedenken, es auf die Welt loszulassen – denn warum sollte man sich damit selbst ins Bein schießen?

Dieser KI-Detektiv folgt auf den Untergang des vorherigen KI-Textklassifizierers, der hat bei der Leistungsbeurteilung durchgefallen und mehrere Experimente scheiterten. Frisch vom Reißbrett prahlt OpenAI jedoch mit einem „hochpräzisen“ Text-Wasserzeichenmethode während Sie die Vor- und Nachteile einer Veröffentlichung abwägen.

Das Dilemma? Sie befürchten, dass das Tool nicht-englischsprachige Menschen, die KI als Schreibhilfe nutzen, zu Unrecht stigmatisieren könnte. Die weniger noble (und wahrscheinlichere) Erklärung ist, dass die Führungskräfte im Unternehmen wissen, dass die verdeckte Natur von Textgenerierungstools ihnen dabei hilft, sich zu verbreiten. Die Leute sind faul und wollen nicht dafür geoutet werden.

Außerdem kann kein Tool absolut narrensicher sein, selbst wenn OpenAI es veröffentlichen wollte. Schlaue Benutzer könnten der Entdeckung entgehen, indem sie Text übersetzen, ihn mit einer anderen KI umformulieren oder sogar Sonderzeichen einfügen und diese anschließend wieder löschen.

Frühe Experimente mit Metadaten sind weitaus zuverlässiger, da der Code Berichten zufolge auch nach Änderungen starke Hinweise auf den Einsatz von KI enthält. Vielleicht führt das Microsoft-Unternehmen das Reverse Engineering nur aus Sicherheitsgründen durch.

Da der Einfluss der KI in der Welt der Inhalte immer weiter zunimmt, möchten sie selbst wissen, wo ihre Technologie eingesetzt wird. Und was eine öffentliche Veröffentlichung angeht … das ist doch wohl ein Bluff.

Während die Texterkennung scheinbar in den Hintergrund rückt, schmiedet OpenAI Pläne zur Erkennung KI-generierter audiovisueller Inhalte, die zum jetzigen Zeitpunkt offensichtlichere Risiken bergen.

Sie springen auf den C2PA-Metadatenzug auf, der Inhalten einen Ursprungstag hinzufügt, der Änderungen übersteht und es schwieriger macht, Authentizität vorzutäuschen. TikTok und Adobe gehören zu denen, die dieselben Sicherheitsvorkehrungen treffen.

DALL-E, OpenAIs Bildgenerator, wird in Kürze C2PA-Metadaten einbetten, ebenso wie ihr kommender Videogenerator 'Sora„Die Idee dahinter ist, dass Menschen zwar weiterhin irreführende Inhalte und Propaganda erstellen können, aber die Warnsignale, die die Metadaten senden, nicht verbergen können.“

OpenAI hat außerdem eine manipulationssichere Wasserzeichenlösung für Bilder angekündigt und Forschungslabore sowie gemeinnützige Organisationen im Journalismusbereich eingeladen, diese auszuprobieren. Dieses Tool weist eine Erfolgsquote von 98 % bei der Identifizierung von DALL-E 3-Bildern auf, bei minimaler Falschmeldungsrate.

Und schließlich hat OpenAI auch die Audioerkennung im Blick. Die neue „Voice Engine“ soll KI sogar in den überzeugendsten Samples erkennen können. Mit Tools wie diesen könnte man davon ausgehen, dass es keine gefälschten Drake-Tracks mehr auf Spotify gibt.

OpenAI ist verständlicherweise zögerlich, Unternehmen und Firmen Zugang zu seinem KI-Textdetektor zu gewähren. Dennoch sieht das Unternehmen die Notwendigkeit, die digitale Landschaft abzusichern, bevor KI die von Menschen erstellten Online-Inhalte überholt.

Zugänglichkeit