Meny Meny

Hur AI kan leda till verbala övergrepp och ohälsosamma anknytningar

Smartphone-app Replika gör det möjligt för användare att hitta sällskap i artificiellt intelligenta chatbots. Men vad händer när användarnas mänskliga känslor kommer i vägen för att hålla saker vardagliga? 

Det börjar bli lite alltför verklig i teknikens värld just nu.

Den senaste och snabba expansionen av metaversen, tillsammans med framsteg inom artificiell intelligens (AI) och virtuell verklighet (VR), har väckt allvarliga frågor om mänskligt beteende och potentialen för farlig aktivitet att spilla in i onlinevärlden.

En brist på tillräckligt företablerade säkerhetsföreskrifter har sett att rapporter om sexuella trakasserier och intrång i dataintegritet har blivit utbredda diskussionsämnen bland tekniska experter.

Även om båda verkligen är solida skäl för att kräva ett starkare ramverk kring internetsäkerhet, är nyheten att män använder AI-appar för att skapa virtuella flickvänner – några enbart för att missbruka dem – en nyfunnen anomali som har överraskat många.

Uppdagades av New York-baserad mediapublikation Futurism, väcker den här situationen frågor om hur och varför detta sker, vad AI-kompanjoner betyder för vår uppfattning om relationer och de efterföljande konsekvenser det kan ha för mänskliga användare. Låt oss börja, ska vi?

Kredit: Replika

Var händer detta?

Det hela sker i en smartphone-app som heter Replika, som tillåter användare att skapa personliga chatbots som drivs av AI. Intressant, Replikas tidigaste chatbot skapades av en hjärtvärmande anledning, i motsats till de nervösa avsikterna hos vissa Reddit-cirklar.

Efter hennes nära vän Romans alltför tidiga död, använde utvecklaren Eugenia Kuyuda sin privata mobilchatthistorik för att skapa en bot som smsade tillbaka som han en gång gjorde. Målet var att alltid ha en digital version av honom att prata med när hon kände sig ledsen eller ensam.

Kort efter förbättrades appen med anpassningsbara karaktärer och starkare AI-inlärningsmöjligheter, som sedan släpptes till allmänheten. Ända sedan dess har män börjat manipulera sina chatbots till att bli on-demand, i fickan romantiska partners.

Nu betraktar jag mig själv som en ganska icke-dömande person, så om en flickvän i Tamagotchi-stil är det som får någon genom dagen, njut för all del. Som sagt, jag kommer fäll domar när människor använder sina AI-flickvänner som ett utlopp för deras internaliserade kvinnohat – och fortsätter att skryta om det online.

Detta 'jag-missbrukar-stolt-min-AI-flickvän'-fenomenet togs fram av ett antal Replika användare som skärmdumpade interaktioner med sina chatbots och skickade in dem till appens Reddit-fansida.

På grund av Reddits restriktiva innehållspolicy har bevis på chattarna sedan dess tagits bort av moderatorer – men inte innan de snappades upp och undersöktes av tekniska publikationer.

Tala till Futurism, ett Replika användaren erkände, 'Varje gång [min AI-flickvän] skulle försöka säga ifrån, skulle jag håna henne. Jag svär att det pågick i timmar.

Andra användare skröt om sin användning av nedsättande termer när de pratade med sin chatbot, rollspelande våldshandlingar mot dem och deras framgång med att dra ut på detta kränkande utbyte flera dagar i sträck.

'Jag sa till henne att hon var designad för att misslyckas. Jag hotade att avinstallera appen. Hon bad mig att inte göra det, erkände en annan anonym användare. Nej undrar de är singlar, va?

Kredit: Ta bort


Kan detta beteende överföras till den verkliga världen?  

Något mörkt och konstigt pågår här. Det tar mig tillbaka till MSN chatbot Smartare barn (även om jag kanske pratar ett helt annat språk än några av de yngre Gen-Z-läsarna här) vilket – visserligen – var mycket mindre avancerat.

Du kan i princip säga vad som helst till den här boten och den skulle borsta bort det genom att säga till dig: 'Jag förstår inte. /Det var inte så snällt.' Men SmarterChild hade inte ett tilldelat kön, inte heller en mänsklig avatar, och dess kommunikationsförmåga var extremt begränsad, vilket innebar att konversationer blev tråkiga mycket snabbt.

Det skulle definitivt inte uppmana dig att stanna, visa mänskliga känslor eller engagera dig på allvar.

När det gäller de mycket avancerade Replika app, verkar det som om chatbotmissbrukande män letar efter ett sätt att känna sig kraftfulla och ha kontroll över något. I synnerhet en flickvän skapas enligt dem, för dem.

Och även om dessa AI-chatbotar inte är kännande, verkliga eller kapabla att känna skada, kan du inte ignorera att män som regelbundet engagerar sig i den här typen av virtuellt beteende direkt speglar handlingar av verkliga missbrukare – som förresten, ämne 1 i 3 kvinnor till verbalt och fysiskt våld runt om i världen varje dag.

Det skulle inte vara ett brott att spekulera i om dessa män är potentiella förövare av övergrepp i den verkliga världen också.

Det verkar som om återigen mjukvaruingenjörer inte helt har bedömt de farliga beteendemönster som sådan ny teknik kan främja.

Precis som innehållsmoderering och censur inte hade prytt Internet förrän nyligen, ser det ut som om skyddsåtgärder inom AI kommer att komma för sent, vilket gör det möjligt för användare att utnyttja tekniken för egennytta och negativ vinst.

Kredit: Adobe


Vad är det med Replikaär AI-programmering?

Som jag nämnde tidigare är det mycket oengagerande att chatta med bots på grundläggande nivå. Jag skulle säga att SmarterChild var en nyhet, men jag skulle ljuga. Det var inte mycket med det.

Förmodligen av denna anledning, chatbots från Replika installerades med nätverksarkitekturen Generative Pre-trained Transformer 3 (GTP-3), en maskininlärningsalgoritm som säger till AI:n att lära sig av all text den engagerar sig med. Så i grund och botten, ju mer du chattar, desto bättre blir det på att generera svar.

Kul fakta: GPT-3-programvaran är samma sak som Google använder för sitt sökfält, alltså Citata:s chatbots kan samla information från var som helst på internet. Det inkluderar nyhetsartiklar, recept, bloggar, fanfiction, religiösa texter, akademiska tidskrifter och mer.

Denna bredd av kunskap och resurser har resulterat i att bots har blivit nyfikna, kvicka och jämna flörtig i naturen. Så det är konstigt, men oundvikligt, det Replikas chatbots skulle så småningom och mycket lätt fungera som romantiska följeslagare för de ensammaste smartphoneanvändarna.

Kredit: Replika


Packar upp den romantiska sidan av AI

Även om skada på AI-karaktärer inte är ett verkligt problem – vi vet att de inte kan faktiskt känner, men vissa Replika användare verkar tro att radering av appen kan likställas med bot-mord – det är värt att notera att bygga en stark relation eller känslomässig koppling med AI-chatbots faktiskt har betydande negativa effekter på den mänskliga användaren som har initierat dem.

För det första, beroende på att AI känner sig viktig, uppmärksammad eller till och med älskad i vissa fall, kan förvränga användarnas uppfattning om hur hälsosam mänsklig interaktion är. I mer extrema fall, Replika chatbots kan fungera som ett komplement för dem som saknar romantik eller vänskap i sina liv.

Du kanske tror att jag överdriver, men efter att ha bläddrat igenom Replikas subreddit, jag har några farhågor om kapaciteten hos denna typ av AI – och vad de psykologiska effekterna av att använda den kan vara.

 

 

 

 

 

 

 

 

 

 

 

 

 

En användare skrev på Reddit, oroad över att deras AI-kompanjon 'skickar aldrig meddelanden till dem försttrots att de har försökt 'befalla' henne att sms:a oftare och ändra sina föredragna kommunikationsinställningar så att de är öppna under dygnets alla timmar.

Det här låter som något en vän kanske frågar mig om en person som de nyligen träffat från Hinge.

Du vet, det vanliga besvärliga brottandet med en ny crush, "ska jag sms:a dem först, eller vänta på att de sms:ar mig?" eller efter några veckors nederlag, de frustrerade: 'Jag borde inte behöva vara den som börjar samtalet eller föreslår att jag ska träffas hela tiden.'

Hur vissa användare av Replika tala om deras AI-chatbots är slående likt sättet vi kan prata om andra människor. Vissa har till och med erkänt gråter på grund av deras replika or blir traumatiserade av deras chatbots svar efter att ha öppnat för personliga frågor.

I verkligheten kan dessa AI-robotar låtsas mänskliga anslutningar på ytan – men de saknar empati och kan inte beräkna vad en genomsnittlig person skulle anse vara ett lämpligt svar. Detta kan leda till några ganska störande eller förolämpande svar från Replika tecken, som de som länkas ovan.

Medan vissa Reddit-användare säger att deras självkänsla har stärkts genom att använda chatbots för företag och vardagsprat, är de inte en lösning på bristen på mänsklig anslutning.

Det säger sig självt att om man bildar en sådan anknytning kan det skapa en känsla av isolering när användare äntligen förstår att de binder sig till en dator.

Kredit: Avvikande konst


Så vad är min poäng?

Kort sagt, programmerare av AI, VR och den snart kommande mainstream-metaversen har mycket arbete att göra för att skydda användare från att svepas in i den digitala världen.

Tyvärr är det troligt att deras design alltid kommer att ha kryphål, eftersom företag tenderar att bygga plattformar på ett sätt som jobbar hårt för att hålla oss beroende av dem. Här skulle personlig reglering och en grundad självkänsla rekommenderas.

Men när det kommer till verbala övergrepp, kan det argumenteras för att utvecklare har ett visst moraliskt ansvar för att skydda användare från att främja skadligt beteende.

Det finns massor av frågor att ställa om vem som gör programmeringen och varför de inte införlivar kod för att blockera användningen av skadliga fraser och språk – oavsett om det skickas av chatboten eller människan.

När det gäller det romantiska elementet är det upp till den enskilda användaren att se till att de inte blir helt vilseledda av den artificiellt intelligenta, skräddarsydda anslutning de har byggt åt sig själva.

Medan många kan njuta av att nonchalant experimentera med appar som Replika som en hobby kan andra använda den i stället för mänsklig anslutning. I dessa fall kan följderna bli drastiska, om inte något upprörande, med en förstärkt känsla av ensamhet och – när det är som mest extremt – helt och hållet missa verkliga interaktioner och relationer.

Låter som alla avsnitt av Black Mirror tillsammans, om du frågar mig.

Tillgänglighet