MENÜ MENÜ

Warum die Facemega-Deepfake-App ein rutschiger Abhang ist

Der Zugriff auf die Deepfake-Technologie wird immer einfacher. Da sich die Mehrheit der Menschen aus finsteren Gründen dafür entscheidet, es zu verwenden, ist es schwer zu ignorieren, dass die negativen Folgen der neuartigen Technologie ihre Vorteile überwiegen könnten.

Die negativen und gefährlichen Folgen von Deepfakes werden seit dem Einzug der KI-Technologie in den Mainstream im Jahr 2017 heftig diskutiert.

Experten haben gewarnt dass ihre weit verbreitete Verwendung in Kombination mit sich ständig verbessernden KI-Lernsystemen „Verwüstung in der Gesellschaft anrichten“ wird und dass wir „nicht bereit“ sind, mit den Folgen fertig zu werden.

Neben den unglaublich realen Clips, die auf der gepostet wurden @deepTomCruise TikTok-Konto, die meisten Deepfakes brauchen nicht lange, um subtile Störungen aufzuweisen, die es uns ermöglichen, sie als fabrizierte Inhalte zu erkennen.

Das Erstellen eines fehlerfreien Videos von jemandem, der etwas sagt, was er eigentlich nicht gesagt hat, oder Handlungen vorführt, die er nicht getan hat, erfordert zum einen phänomenale Bearbeitungsfähigkeiten. Es erfordert auch viele multimediale Referenzpunkte, damit die KI die Manierismen und Sprachgewohnheiten des Einzelnen gut genug lernt, um zu überzeugen.

Aber natürlich war es nur eine Frage der Zeit, bis eine solche Technologie Fortschritte machte – und bevor sie für die Arbeit in den Händen gewöhnlicher Menschen angepasst wurde.

In den letzten Tagen haben Nutzer von Fotobearbeitungs-Apps und Facebook berichtet, dass sie Anzeigen für eine App namens Facemega gesehen haben. Die kostenlose Smartphone-Software ermöglicht es Benutzern, ein Porträt virtuell hochzuladen und zusammenzufügen irgendjemand Gesicht auf jedem Video ihrer Wahl.

Wenn Sie sich oben das Video einer Deep Fake-Emma Watson ansehen, können Sie sehen, wie realistisch die Technologie ist.

Im Ernst, ich war vor kurzem bei dem von der Kritik gefeierten holografischen ABBA-Konzert in London, und die lebensechten Bewegungen in diesem Clip sind in der Qualität auffallend ähnlich.

Aber es ist schwer, die suggestive Natur des Videos zu übersehen, das die dunklen Absichten der Benutzer – und vielleicht der Programmierer selbst – perfekt veranschaulicht. Erschwerend kommt hinzu, dass dieser Clip als Werbung genutzt wird.

Retweeten der Bildschirmaufzeichnung der Anzeige, sagte ein Twitter-Nutzer: „Das ist nur eine neue Art, Frauen sexuell zu belästigen. Es nimmt Ihnen Ihre körperliche Autonomie und zwingt Sie zu nicht einvernehmlichem sexuellem Material, das dann dazu verwendet werden kann, Sie zu demütigen und zu diskriminieren. Ganz zu schweigen von den psychologischen Auswirkungen.“

Die Förderung der Verwendung von Deepfake-KI für diesen Zweck ist offensichtlich finster. Dies sollte jedoch nicht überraschen, da die bekanntesten Anwendungen von Deep-Fake-Technologie bisher entweder pornographisch oder mit der Politik verbunden waren.

 

Im Jahr 2019 – nur zwei Jahre nach der Entwicklung der Technologie – wurde berichtet, dass laut einer von Deeptrace durchgeführten Studie mindestens 96 Prozent aller online gefundenen Deepfake-Videos pornografisch waren.

Die Erstellung dieser Videos wird durch zahlreiche Websites vorangetrieben, die ausschließlich Deepfake-Pornografie hosten. Viele gefälschte Clips, die auf diese Plattformen hochgeladen wurden, wurden von rachsüchtigen Ex-Partnern oder Personen erstellt, die das Image ihrer Feinde beschmutzen wollten.

Infolgedessen haben Regierungen auf der ganzen Welt begonnen, strengere rechtliche Rahmenbedingungen zu schaffen, die die Möglichkeiten der Nutzung von Deepfake-Technologie einschränken. Zugegebenermaßen mussten diese über bestehende Fälle informiert werden, weshalb Tech-Experten uns davor warnten, auf die Gefahren nicht vorbereitet zu sein.

Bereits im November 2022 hat die britische Regierung Deepfake-Pornografie erstellt eine strafbare Handlung. Gerichte können Personen jedoch nur dann strafrechtlich verfolgen, wenn sie diese Bilder oder Videos online verbreiten.

Einige US-Bundesstaaten haben auch gesetzt ähnliche Gesetze an Ort und Stelle. Realistischerweise können diese Richtlinien jedoch niemanden davor schützen, in grafische Videos eingefügt zu werden, damit eine andere Person sie selbst hinter verschlossenen Türen ansehen kann.

Dieser Gedanke wird für die überwiegende Mehrheit der Frauen ausreichen, um Ekel und Wut hervorzurufen, wenn nicht sogar ein Schaudern und eine krabbelnde Reaktion.

@kennaacting

Stellen Sie sich der Swap-Herausforderung mit #facemega #facemegaapp #Gesichtstausch #gesichtsmagie #Videobearbeitung #komisch #Schauspielkunst

♬ Happy Upbeat Fun Rock Energetic – StockSounds

Wie bereits erwähnt, wurden Deepfakes auch verwendet, um politischen Aufruhr zu schüren.

Barak Obama war es dargestellt Beleidigung von Donald Trump. Mark Zuckerberg hat bereit gewesen zu sagen, dass der einzige Zweck von Facebook darin besteht, Benutzer der Plattform zu kontrollieren und auszunutzen.

All dies wurde viral und offenbarte das Interesse, die Ehrfurcht und in einigen Fällen die Trickserei der Deepfake-Technologie.

In anderen Kontexten verwendet, könnten die Folgen weitaus gefährlicher sein. In den ersten Monaten des russischen Einmarsches in die Ukraine Videos von Präsident Selenskyj tauchte auf, in dem er ukrainische Soldaten aufforderte, sich russischen Soldaten zu ergeben.

Zum Glück die echt Präsident Selenskyj ging zu seinen persönlichen Social-Media-Konten, um zu bestätigen, dass das Video von Oppositionskräften manipuliert worden war. Er erinnerte sein Volk daran, dass der Kampf um sein Land noch nicht vorbei sei, und forderte es auf, vereint zu bleiben.

Es scheint, als wären Deepfakes, selbst wenn es verwendet wird, um eine schmunzelnde Version des Traditionals von Queen Elizabeth II zu erstellen Weihnachtsrede, neigen dazu, ein beunruhigendes Gefühl in uns entstehen zu lassen.

Vielleicht wir kennt tief im Inneren, dass die Technologie viel wahrscheinlicher mit böswilliger Absicht verwendet wird. Was wird also passieren, wenn es so weit fortgeschritten ist, dass wir nicht mehr zwischen Fakten und Fiktion unterscheiden können?

Sollten wir uns bei kostenlos herunterladbaren Apps wie Facemega Sorgen machen, dass die Deepfake-Technologie über unsere Smartphones weit verbreitet wird?

Ich würde sagen, das sollten wir leider sein.

Zugänglichkeit