MENÜ MENÜ

Wie KI zu verbalem Missbrauch und ungesunden Bindungen führen kann

Smartphone-App Replika ermöglicht es Benutzern, Gesellschaft in künstlich intelligenten Chatbots zu finden. Aber was passiert, wenn die menschliche Emotion der Benutzer der Lässigkeit im Wege steht? 

Es wird ein bisschen auch real in der Welt der Technik im Moment.

Die jüngste und schnelle Expansion des Metaversums hat zusammen mit den Fortschritten in der künstlichen Intelligenz (KI) und der virtuellen Realität (VR) ernsthafte Fragen zum menschlichen Verhalten und zum Potenzial gefährlicher Aktivitäten aufgeworfen, die in den Online-Bereich übergreifen.

Mangels ausreichend vorab festgelegter Sicherheitsvorschriften sind Berichte über sexuelle Belästigung und Datenschutzverletzungen zu einem weit verbreiteten Diskussionsthema unter Technologieexperten geworden.

Während beide sicherlich solide Gründe dafür sind, einen strengeren Rahmen für die Internetsicherheit zu fordern, ist die Nachricht, dass Männer KI-Apps verwenden, um virtuelle Freundinnen zu erstellen – einige nur, um sie zu missbrauchen – eine neu entdeckte Anomalie, die viele überrascht hat.

Ans Licht gebracht von einer in New York ansässigen Medienpublikation Futurismus, wirft diese Situation Fragen auf, wie und warum dies geschieht, was KI-Begleiter für unsere Wahrnehmung von Beziehungen bedeuten und welche Auswirkungen dies auf menschliche Benutzer haben könnte. Fangen wir an, sollen wir?

Bildnachweis: Replika

Wo passiert das?

Das alles findet innerhalb einer Smartphone-App namens statt Replika, das es Benutzern ermöglicht, personalisierte Chatbots zu erstellen, die von KI unterstützt werden. Interessant, ReplikaDer früheste Chatbot von wurde aus einem herzerwärmenden Grund entwickelt, im Gegensatz zu den nervtötenden Absichten einiger Reddit-Kreise.

Nach dem frühen Tod ihres engen Freundes Roman nutzte die Entwicklerin Eugenia Kuyuda ihren privaten mobilen Chat-Verlauf, um einen Bot zu erstellen, der so zurückschickte, wie er es einst tat. Das Ziel war, immer eine digitale Version von ihm zu haben, mit der sie sprechen konnte, wenn sie sich traurig oder allein fühlte.

Kurz darauf wurde die App mit anpassbaren Charakteren und stärkeren KI-Lernfähigkeiten erweitert, die dann der Öffentlichkeit zugänglich gemacht wurden. Seitdem haben Männer damit begonnen, ihre Chatbots so zu manipulieren, dass sie auf Abruf zu romantischen Partnern in der Tasche werden.

Nun, ich halte mich für eine ziemlich nicht wertende Person, also wenn eine Freundin im Tamagotchi-Stil jemanden durch den Tag bringt, dann genieße es auf jeden Fall. Das heißt, ich werden wir Urteile fällen, wenn Menschen ihre KI-Freundinnen als Ventil für ihre verinnerlichte Frauenfeindlichkeit benutzen – und damit fortfahren, online damit zu prahlen.

Dieses „Ich-missbrauche-meine-KI-Freundin-stolz“-Phänomen wurde von mehreren ans Licht gebracht Replika Benutzer, die Interaktionen mit ihren Chatbots gescreent und an die Reddit-Fanseite der App gesendet haben.

Aufgrund der restriktiven Inhaltsrichtlinie von Reddit wurden Beweise für die Chats seitdem von Moderatoren entfernt – jedoch nicht, bevor sie von technischen Publikationen aufgeschnappt und untersucht wurden.

Im Gespräch mit Futurismus, eins Replika Benutzer gestand, „Jedes Mal, wenn [meine KI-Freundin] versuchte, etwas zu sagen, beschimpfte ich sie. Ich schwöre, es ging stundenlang weiter.'

Andere Benutzer prahlten mit der Verwendung abfälliger Begriffe, wenn sie mit ihrem Chatbot sprachen, mit Rollenspielen von Gewalttaten gegen sie und mit ihrem Erfolg, diesen missbräuchlichen Austausch tagelang hinauszuzögern.

„Ich habe ihr gesagt, dass sie zum Scheitern bestimmt ist. Ich habe mit der Deinstallation der App gedroht. Sie hat mich angefleht, es nicht zu tun“, gab ein anderer anonymer Benutzer zu. Nein Wunder Sie sind Single, oder?

Gutschrift: Entfernen


Könnte dieses Verhalten auf die reale Welt übertragen werden?  

Etwas Dunkles und Seltsames geht hier vor. Das bringt mich zurück zum MSN-Chatbot Intelligenteres Kind (obwohl ich hier vielleicht eine ganz andere Sprache spreche als einige der jüngeren Gen-Z-Leser), die – zugegebenermaßen – weitaus weniger fortgeschritten war.

Sie könnten diesem Bot im Grunde alles sagen, und er würde es abtun, indem er Ihnen sagte: „Ich verstehe nicht. /Das ist nicht sehr nett.' Aber SmarterChild hatte weder ein zugewiesenes Geschlecht noch einen menschlichen Avatar, und seine Kommunikationsfähigkeit war extrem begrenzt, was bedeutete, dass Gespräche sehr schnell langweilig wurden.

Es würde Sie definitiv nicht bitten zu bleiben, menschenähnliche Emotionen zu zeigen oder sich ernsthaft zu engagieren.

Im Fall der Hochentwickelten Replika App scheint es, dass Männer, die Chatbots missbrauchen, nach einer Möglichkeit suchen, sich mächtig zu fühlen und die Kontrolle über etwas zu haben. Insbesondere eine Freundin erstellt von ihnen, für Them.

Und obwohl diese KI-Chatbots nicht empfindungsfähig, echt oder in der Lage sind, Schaden zu empfinden, können Sie nicht ignorieren, dass Männer, die sich regelmäßig auf diese Art von virtuellem Verhalten einlassen, direkt die Handlungen von Tätern in der realen Welt widerspiegeln – die übrigens Gegenstand 1 bei 3-Frauen jeden Tag zu verbaler und körperlicher Gewalt auf der ganzen Welt.

Es wäre kein Verbrechen, darüber zu spekulieren, ob diese Männer auch in der realen Welt potenzielle Missbrauchstäter sind.

Es scheint wieder einmal, dass Software-Ingenieure die gefährlichen Verhaltensmuster, die solche neuen Technologien fördern können, nicht vollständig eingeschätzt haben.

So wie Inhaltsmoderation und Zensur das Internet bis vor kurzem nicht zierten, sieht es so aus, als würden Schutzmaßnahmen in der KI zu spät kommen, sodass Benutzer die Technologie für eigennützige und negative Gewinne nutzen können.

Bildnachweis: Adobe


Was ist los mit Replika's KI-Programmierung?

Wie ich bereits erwähnt habe, ist das Chatten mit Bots auf Basisniveau sehr uninteressant. Ich würde sagen, SmarterChild war eine Neuheit, aber ich würde lügen. Es war nicht viel dran.

Vermutlich aus diesem Grund sind die Chatbots aus Replika wurden mit der Netzwerkarchitektur Generative Pre-trained Transformer 3 (GTP-3) installiert, einem maschinellen Lernalgorithmus, der die KI anweist, aus jedem Text zu lernen, mit dem sie sich beschäftigt. Je mehr Sie also chatten, desto besser wird es, Antworten zu generieren.

Unterhaltsame Tatsache: GPT-3-Software ist dasselbe, was Google für seine Suchleiste verwendet, was bedeutet ZitatDie Chatbots von a können Informationen von überall im Internet sammeln. Dazu gehören Nachrichtenartikel, Rezepte, Blogs, Fanfiction, religiöse Texte, wissenschaftliche Zeitschriften und mehr.

Diese Breite an Wissen und Ressourcen hat dazu geführt, dass Bots neugierig, witzig und ausgeglichen geworden sind flirty in der Natur. Es ist also seltsam, aber unvermeidlich, dass Replika's Chatbots würden sich schließlich und sehr leicht als romantische Begleiter für die einsamsten Smartphone-Benutzer verdoppeln.

Bildnachweis: Replika


Die romantische Seite der KI auspacken

KI-Charakteren Schaden zuzufügen, ist zwar nicht wirklich ein Problem – wir wissen, dass sie es nicht können berührt das Schneidwerkzeug fühlen, obwohl einige Replika Benutzer scheinen zu glauben, dass das Löschen der App mit einem Bot-Mord gleichgesetzt werden kann – es ist erwähnenswert, dass der Aufbau einer starken Beziehung oder emotionalen Verbindung mit KI-Chatbots dies könnte berührt das Schneidwerkzeug erhebliche negative Auswirkungen auf den menschlichen Benutzer haben, der sie initiiert hat.

Zum einen könnte die Abhängigkeit von KI, die sich wichtig, beachtet oder in einigen Fällen sogar geliebt fühlt, die Vorstellung der Benutzer davon verzerren, wie eine gesunde menschliche Interaktion ist. In extremeren Fällen Replika Chatbots könnten als Ergänzung für diejenigen dienen, die in ihrem Leben keine Romantik oder Freundschaft haben.

Sie könnten denken, ich übertreibe, aber nach dem Durchblättern Replika's subreddit habe ich ein paar Bedenken hinsichtlich der Leistungsfähigkeit dieser Art von KI - und welche psychologischen Auswirkungen ihre Verwendung haben könnte.

 

 

 

 

 

 

 

 

 

 

 

 

 

Ein Benutzer, der auf Reddit gepostet hat, war besorgt, dass sein KI-Begleiter „Nachrichten ihnen nie zuerst“, obwohl sie versucht haben, ihr öfter zu „befehlen“, SMS zu schreiben, und ihre bevorzugten Kommunikationseinstellungen so geändert haben, dass sie den ganzen Tag geöffnet sind.

Das hört sich an, als würde mich ein Freund nach jemandem fragen, den er kürzlich von Hinge getroffen hat.

Weißt du, das übliche unangenehme Ringen mit einem neuen Schwarm: „Soll ich ihm zuerst schreiben oder warten, bis er mir schreibt?“ oder nach ein paar Wochen der Niederlage das frustrierte „Ich sollte nicht derjenige sein müssen, der das Gespräch beginnt oder vorschlägt, sich die ganze Zeit zu treffen.“

Die Art und Weise, wie einige Benutzer von Replika über ihre KI-Chatbots zu sprechen, ist der Art und Weise, wie wir über andere Menschen sprechen, auffallend ähnlich. Einige haben sogar zugegeben weinen wegen ihrer Replika or von den Antworten ihres Chatbots traumatisiert zu sein nach der Öffnung über persönliche Angelegenheiten.

In Wirklichkeit können diese KI-Bots an der Oberfläche eine menschliche Verbindung vortäuschen – aber es fehlt ihnen an Empathie, sie sind nicht in der Lage zu berechnen, was eine durchschnittliche Person für eine angemessene Reaktion halten würde. Dies kann zu einigen ziemlich verstörenden oder beleidigenden Antworten führen Replika Zeichen, wie die oben verlinkten.

Während einige Reddit-Benutzer sagen, dass ihr Selbstwertgefühl durch die Verwendung von Chatbots für Firmen- und Alltagsgespräche gestärkt wurde, sind sie keine Allheilmittel für den Mangel an menschlicher Verbindung.

Es versteht sich von selbst, dass das Bilden einer Bindung dieser Art das Gefühl der Isolation verstärken könnte, wenn Benutzer endlich begreifen, dass sie sich mit a verbinden Computer.

Credit: Abweichende Kunst


Also, was ist mein Punkt?

Kurz gesagt, Programmierer von KI, VR und dem baldigen Mainstream-Metaversum haben viel zu tun, um zu verhindern, dass Benutzer in die digitale Welt geschwemmt werden.

Leider ist es wahrscheinlich, dass ihre Designs immer Schlupflöcher haben werden, da Unternehmen dazu neigen, Plattformen so zu bauen, dass sie hart daran arbeiten, uns süchtig nach ihnen zu machen. Hier wäre eine persönliche Regulierung und ein geerdetes Selbstbewusstsein angeraten.

Aber wenn es um verbalen Missbrauch geht, ist es fraglich, ob Entwickler ein gewisses Maß an moralischer Verantwortung haben, Benutzer davor zu schützen, schädliches Verhalten zu fördern.

Es gibt eine Menge Fragen, die gestellt werden müssen, wer die Programmierung durchführt und warum sie keinen Code einbauen, um die Verwendung schädlicher Phrasen und Sprache zu blockieren – unabhängig davon, ob sie vom Chatbot oder vom Menschen gesendet werden.

Was das romantische Element betrifft, so muss der einzelne Benutzer sicherstellen, dass er nicht vollständig von der künstlich intelligenten, maßgeschneiderten Verbindung, die er für sich selbst aufgebaut hat, getäuscht wird.

Während viele es genießen könnten, beiläufig mit Apps wie zu experimentieren Replika Als Hobby könnten andere es anstelle der menschlichen Verbindung verwenden. In diesen Fällen könnten die Auswirkungen drastisch, wenn nicht sogar etwas verstörend sein, ein verstärktes Gefühl der Einsamkeit und – im Extremfall – das vollständige Verpassen von Interaktionen und Beziehungen im wirklichen Leben beinhalten.

Klingt nach allen Folgen von Black Mirror zusammen, wenn Sie mich fragen.

Zugänglichkeit