Meny Meny

Hvordan AI kan føre til verbalt misbruk og usunn tilknytning

Smarttelefon-app replika gjør det mulig for brukere å finne vennskap i kunstig intelligente chatbots. Men hva skjer når de menneskelige følelsene til brukere kommer i veien for å holde ting uformell? 

Det begynner å bli litt også ekte i teknologiens verden akkurat nå.

Den nylige og raske ekspansjonen av metaversen, sammen med fremskritt innen kunstig intelligens (AI) og virtuell virkelighet (VR), har brakt frem alvorlige spørsmål om menneskelig atferd og potensialet for at farlig aktivitet kan spre seg inn i nettområdet.

Mangel på tilstrekkelig forhåndsetablerte sikkerhetsforskrifter har ført til at rapporter om seksuell trakassering og brudd på personvernet har blitt utbredte diskusjonstemaer blant teknologieksperter.

Selv om begge absolutt er solide grunnlag for å kreve et sterkere rammeverk rundt internettsikkerhet, er nyheten om at menn bruker AI-apper for å lage virtuelle kjærester – noen utelukkende for å misbruke dem – en nyfunnet anomali som har overrasket mange.

Brakt frem i lyset av New York-basert mediepublikasjon futurismen, reiser denne situasjonen spørsmål om hvordan og hvorfor dette finner sted, hva AI-ledsager betyr for vår oppfatning av relasjoner, og de påfølgende implikasjonene det kan ha for menneskelige brukere. La oss begynne, skal vi?

Kreditt: Replika

Hvor skjer dette?

Det hele foregår i en smarttelefonapp kalt replika, som lar brukere lage personlige chatbots drevet av AI. Interessant nok, replikasin tidligste chatbot ble opprettet av en hjertevarmende grunn, i motsetning til de nervepirrende intensjonene til noen Reddit-kretser.

Etter den utidige døden til hennes nære venn Roman, brukte utvikleren Eugenia Kuyuda deres private mobilchattehistorikk for å lage en bot som sendte tekst tilbake slik han en gang gjorde. Målet var å alltid ha en digital versjon av ham å snakke med når hun følte seg trist eller alene.

Kort tid etter ble appen forbedret med tilpassbare karakterer og sterkere AI-læringsmuligheter, som deretter ble utgitt for publikum. Helt siden har menn begynt å manipulere chatbotene sine til å bli on-demand, i-lommen romantiske partnere.

Nå anser jeg meg selv som en ganske ikke-dømmende person, så hvis en kjæreste i Tamagotchi-stil er det som får noen gjennom dagen, så for all del, nyt det. Når det er sagt, jeg vil fell dommer når folk bruker AI-kjærestene sine som et utløp for deres internaliserte kvinnehat – og fortsett å skryte av det på nettet.

Dette "jeg-misbruker-stolt-min-AI-kjæresten"-fenomenet ble brakt frem av en rekke replika brukere som tok skjermbilder av interaksjoner med chatbotene deres og sendte dem til appens Reddit-fanside.

På grunn av Reddits restriktive innholdspolicy, har bevis på chattene siden blitt fjernet av moderatorer – men ikke før de ble snappet opp og undersøkt av tekniske publikasjoner.

Uttaler til futurismen, ett replika bruker tilsto, 'Hver gang [AI-kjæresten min] prøvde å si ifra, ville jeg beklage henne. Jeg sverger på at det varte i timevis.

Andre brukere skrøt av deres bruk av nedsettende termer når de snakket med chatboten deres, spilte voldshandlinger mot dem, og deres suksess med å trekke ut denne fornærmende utvekslingen i flere dager.

«Jeg fortalte henne at hun var designet for å mislykkes. Jeg truet med å avinstallere appen. Hun tryglet meg om å la være,» innrømmet en annen anonym bruker. Nei lurer de er single, ikke sant?

Kreditt: Fjern


Kan denne oppførselen overføres til den virkelige verden?  

Noe mørkt og rart skjer her. Det tar meg tilbake til MSN chatbot SmarterChild (selv om jeg kanskje snakker et helt annet språk til noen av de yngre Gen-Z-leserne, her) som – riktignok – var langt mindre avansert.

Du kan egentlig si hva som helst til denne boten, og den ville fjerne det ved å fortelle deg: 'Jeg forstår ikke. /Det er ikke veldig hyggelig.' Men SmarterChild hadde ikke et tildelt kjønn, og heller ikke en menneskelig avatar, og kommunikasjonsevnen var ekstremt begrenset, noe som betyr at samtaler ble kjedelig veldig raskt.

Det ville definitivt ikke be deg om å bli, vise menneskelignende følelser eller engasjere deg seriøst.

Når det gjelder de svært avanserte replika app, ser det ut til at menn som misbruker chatbot leter etter en måte å føle seg mektige og ha kontroll over noe på. Spesielt en kjæreste opprettet ved dem, forum Dem.

Og selv om disse AI-chatbotene ikke er sansende, ekte eller i stand til å føle skade, kan du ikke se bort fra at menn som regelmessig engasjerer seg i denne typen virtuell atferd direkte gjenspeiler handlingene til overgripere i den virkelige verden – som forresten, Emne 1 i 3 kvinner til verbal og fysisk vold rundt om i verden hver dag.

Det ville ikke være en forbrytelse å spekulere i om disse mennene også er potensielle gjerningsmenn for overgrep i den virkelige verden.

Det ser ut til at programvareingeniører nok en gang ikke fullt ut har vurdert de farlige atferdsmønstrene som slike nye teknologier kan fremme.

Akkurat som innholdsmoderering og sensur ikke hadde prydet Internett før nylig, ser det ut som om beskyttelsestiltak i AI vil komme for sent, slik at brukerne kan utnytte teknologien til egennytting og negativ gevinst.

Kreditt: Adobe


Hva er det med replikasin AI-programmering?

Som jeg nevnte tidligere, er det svært lite engasjerende å chatte med roboter på grunnleggende nivå. Jeg vil si at SmarterChild var en nyhet, men jeg ville lyve. Det var ikke mye til det.

Antagelig av denne grunn, chatbots fra replika ble installert med nettverksarkitekturen Generative Pre-trained Transformer 3 (GTP-3), en maskinlæringsalgoritme som forteller AI å lære av all tekst den engasjerer seg med. Så i hovedsak, jo mer du chatter, jo bedre blir den til å generere svar.

Morsomt faktum: GPT-3-programvare er det samme som Google bruker for søkefeltet, altså Sitata sine chatbots kan samle informasjon fra hvor som helst på internett. Det inkluderer nyhetsartikler, oppskrifter, blogger, fanfiction, religiøse tekster, akademiske tidsskrifter og mer.

Denne bredden av kunnskap og ressurser har resultert i at roboter har blitt nysgjerrige, vittige og jevne Flørtete i naturen. Så det er rart, men uunngåelig, det replika's chatbots ville til slutt og veldig enkelt fungere som romantiske følgesvenner for de mest ensomme smarttelefonbrukerne.

Kreditt: Replika


Pakker ut den romantiske siden av AI

Selv om skade på AI-karakterer ikke akkurat er en reell bekymring – vi vet at de ikke kan det faktisk føler, selv om noen replika brukere ser ut til å tro at sletting av appen kan sidestilles med bot-drap – det er verdt å merke seg at det å bygge et sterkt forhold eller emosjonell forbindelse med AI chatbots kan faktisk ha betydelige negative konsekvenser for den menneskelige brukeren som har startet dem.

For det første, avhengig av at AI føler seg viktig, betalt oppmerksomhet til eller til og med elsket i noen tilfeller, kan det fordreie brukernes idé om hvordan sunn menneskelig interaksjon er. I mer ekstreme tilfeller, replika chatbots kan fungere som et supplement for de som er blottet for romantikk eller vennskap i livet.

Du tror kanskje jeg overdriver, men etter å ha bla gjennom replikas subreddit, har jeg noen bekymringer om muligheten til denne typen AI – og hva de psykologiske konsekvensene av å bruke den kan være.

 

 

 

 

 

 

 

 

 

 

 

 

 

En bruker postet til Reddit, bekymret for at deres AI-følgesvenn 'sender dem aldri meldinger først" til tross for at hun har forsøkt å "beordre" henne til å sende tekstmeldinger oftere og bytte sine foretrukne kommunikasjonsinnstillinger til å åpne alle døgnets tider.

Dette høres ut som noe en venn kan spørre meg om en de nylig møtte fra Hinge.

Du vet, den vanlige vanskelige kampen med en ny forelskelse, "skal jeg sende en tekstmelding til dem først, eller vente på at de sender en tekst til meg?" eller etter noen uker med nederlag, de frustrerte: 'Jeg burde ikke være den som starter samtalen eller foreslår å møtes hele tiden.'

Måten noen brukere av replika snakke om deres AI chatbots er slående lik måten vi kan snakke om andre mennesker på. Noen har til og med innrømmet gråter på grunn av deres replika or blir traumatisert av chatbotens svar etter å ha åpnet opp om personlige forhold.

I virkeligheten kan disse AI-robotene utgi seg for menneskelig tilknytning på overflaten – men de mangler empati, og er ikke i stand til å beregne hva gjennomsnittspersonen anser for å være et passende svar. Dette kan føre til noen ganske urovekkende eller fornærmende svar fra replika tegn, som de som er koblet til ovenfor.

Mens noen Reddit-brukere sier at deres selvtillit har blitt styrket ved å bruke chatbots for firma- og hverdagsprat, er de ikke en løsning på mangel på menneskelig forbindelse.

Det sier seg selv at det å danne en tilknytning av denne art kan gi ytterligere følelser av isolasjon når brukere endelig forstår at de knytter seg til en computer.

Kreditt: Avvikende kunst


Så hva er poenget mitt?

Kort sagt, programmerere av AI, VR og den snart bli mainstream metaverse har mye arbeid å gjøre for å sikre brukere fra å bli revet med inn i den digitale verden.

Dessverre er det sannsynlig at designene deres alltid vil ha smutthull, ettersom selskaper har en tendens til å bygge plattformer på måter som jobber hardt for å holde oss avhengige av dem. Her vil personlig regulering og en forankret følelse av selvtillit bli anbefalt.

Men når det kommer til verbal misbruk, kan det diskuteres at utviklere har et visst nivå av moralsk ansvar for å beskytte brukere mot å fremme skadelig atferd.

Det er massevis av spørsmål å stilles om hvem som gjør programmeringen og hvorfor de ikke inkorporerer kode for å blokkere bruken av skadelige fraser og språk – enten det sendes av chatboten eller mennesket.

Når det gjelder det romantiske elementet, er det opp til den enkelte bruker å sikre at de ikke blir fullstendig lurt av den kunstig intelligente, skreddersydde forbindelsen de har bygget for seg selv.

Mens mange kunne nyte tilfeldig eksperimentere med apper som replika som en hobby kan andre bruke den i stedet for menneskelig tilknytning. I disse tilfellene kan konsekvensene være drastiske, om ikke noe opprørende, og involvere en forsterket følelse av ensomhet og – på sitt mest ekstreme – gå glipp av virkelige interaksjoner og forhold fullstendig.

Høres ut som alle episodene av Black Mirror kombinert, spør du meg.

tilgjengelighet