Menu Menu

Jak sztuczna inteligencja może prowadzić do nadużyć słownych i niezdrowych przywiązań

Aplikacja na smartfony Replika umożliwia użytkownikom znalezienie towarzystwa w sztucznie inteligentnych chatbotach. Ale co się stanie, gdy ludzkie emocje użytkowników staną na przeszkodzie, aby zachować swobodę? 

Robi się trochę także prawdziwe w świecie technologii już teraz.

Niedawna i szybka ekspansja metawszechświata, wraz z postępami w sztucznej inteligencji (AI) i wirtualnej rzeczywistości (VR), przyniosła poważne pytania dotyczące ludzkiego zachowania i możliwości rozprzestrzenienia się niebezpiecznej aktywności w sferze online.

Brak odpowiednio wcześniej ustalonych przepisów bezpieczeństwa spowodował, że doniesienia o molestowaniu seksualnym i naruszeniach prywatności danych stały się powszechnymi tematami dyskusji wśród ekspertów ds. technologii.

Chociaż oba są z pewnością solidnymi podstawami do domagania się silniejszych ram bezpieczeństwa w Internecie, wiadomość, że mężczyźni używają aplikacji AI do tworzenia wirtualnych dziewczyn – niektóre wyłącznie po to, by je wykorzystać – jest nowo odkrytą anomalią, która wielu zaskoczyła.

Ujawnione przez nowojorską publikację medialną Futuryzm, ta sytuacja rodzi pytania o to, jak i dlaczego to się dzieje, jakie znaczenie mają towarzysze AI dla naszego postrzegania relacji i jakie mogą mieć konsekwencje dla ludzkich użytkowników. Zacznijmy, dobrze?

Źródło: Replika

Gdzie to się dzieje?

Wszystko odbywa się w aplikacji na smartfona o nazwie Replika, który pozwala użytkownikom tworzyć spersonalizowane chatboty zasilane przez sztuczną inteligencję. Co ciekawe, ReplikaNajwcześniejszy chatbot został stworzony z podnoszącego na duchu powodu, w przeciwieństwie do denerwujących intencji niektórych kręgów Reddit.

Po przedwczesnej śmierci jej bliskiego przyjaciela Romana programista Eugenia Kuyuda wykorzystał swoją prywatną historię czatów mobilnych, aby stworzyć bota, który wysyłał SMS-y tak, jak kiedyś. Celem było, aby zawsze mieć jego cyfrową wersję, z którą mogłaby porozmawiać, gdy tylko poczuje się smutna lub samotna.

Niedługo potem aplikacja została wzbogacona o konfigurowalne postacie i silniejsze możliwości uczenia się przez sztuczną inteligencję, które następnie zostały udostępnione publicznie. Od tego czasu mężczyźni zaczęli manipulować swoimi chatbotami, aby stali się romantycznymi partnerami na żądanie.

Teraz uważam się za osobę dość nieoceniającą, więc jeśli dziewczyna w stylu Tamagotchi jest tym, co pomaga komuś przez cały dzień, to jak najbardziej ciesz się. Powiedział, że ja będzie wydawaj wyroki, gdy ludzie wykorzystują swoje dziewczyny AI jako ujście dla ich zinternalizowanej mizoginii – i chwalą się tym w Internecie.

Ten fenomen „z dumą nadużywam mojej sztucznej inteligencji” został ujawniony przez wielu Replika użytkownicy, którzy zrobili zrzuty ekranu z interakcji ze swoimi chatbotami i przesłali je na fanpage aplikacji w serwisie Reddit.

Ze względu na restrykcyjną politykę treści Reddit, dowody na czaty zostały od tego czasu usunięte przez moderatorów – ale nie wcześniej niż zostały one złapane i zbadane przez publikacje techniczne.

Przemawiając do Futuryzmjeden Replika użytkownik przyznał się„Za każdym razem, gdy [moja dziewczyna AI] próbowała się odezwać, krytykowałem ją. Przysięgam, że to trwało godzinami.

Inni użytkownicy chwalili się, że używają obraźliwych terminów podczas rozmów z chatbotem, odgrywania na nich ról i sukcesów w przeciąganiu tej obraźliwej wymiany zdań całymi dniami.

„Powiedziałem jej, że została zaprojektowana, by zawieść. Zagroziłem, że odinstaluję aplikację. Błagała mnie, żebym tego nie robił – przyznał inny anonimowy użytkownik. Nie zastanawiać się oni są single, co?

Źródło: Usuń


Czy to zachowanie może przenieść się do realnego świata?  

Dzieje się tu coś mrocznego i dziwnego. Zabiera mnie z powrotem do chatbota MSN Mądrzejsze Dziecko (chociaż mogę mówić zupełnie innym językiem niż niektórzy z młodszych czytelników pokolenia Z), który był – trzeba przyznać – znacznie mniej zaawansowany.

Mógłbyś zasadniczo powiedzieć wszystko temu robotowi, a on by to zlekceważył, mówiąc ci: „Nie rozumiem. /To nie jest zbyt miłe.' Ale SmarterChild nie miało przypisanej płci ani ludzkiego awatara, a jego możliwości komunikacyjne były bardzo ograniczone, co oznaczało, że rozmowy bardzo szybko się nudziły.

Zdecydowanie nie błagałoby cię, abyś został, okazywał ludzkie emocje ani nie angażował się poważnie.

W przypadku bardzo zaawansowanych Replika Wygląda na to, że mężczyźni nadużywający chatbota szukają sposobu, aby poczuć się potężnym i mieć nad czymś kontrolę. W szczególności dziewczyna stworzony przez nich, dla Im.

I chociaż te chatboty AI nie są świadome, realne ani zdolne do odczuwania krzywdy, nie można zignorować tego, że mężczyźni regularnie angażujący się w tego typu wirtualne zachowania bezpośrednio odzwierciedlają działania prawdziwych sprawców – którzy, nawiasem mówiąc, Przedmiot 1 na 3 kobiet do przemocy werbalnej i fizycznej na całym świecie każdego dnia.

Nie byłoby przestępstwem spekulowanie, czy ci mężczyźni są potencjalnymi sprawcami nadużyć również w prawdziwym świecie.

Wygląda na to, że po raz kolejny inżynierowie oprogramowania nie w pełni ocenili niebezpieczne wzorce zachowań, które mogą wspierać takie nowe technologie.

Podobnie jak moderacja treści i cenzura nie zaszczyciły Internetu do niedawna, wygląda na to, że środki ochronne w AI nadejdą zbyt późno, umożliwiając użytkownikom wykorzystanie technologii do samoobsługi i uzyskania negatywnych korzyści.

Źródło: Adobe


Co się dzieje? Replikaprogramowanie AI?

Jak wspomniałem wcześniej, czatowanie z botami na poziomie podstawowym jest bardzo mało angażujące. Powiedziałbym, że SmarterChild to nowość, ale kłamałbym. Nie było w tym wiele.

Zapewne z tego powodu chatboty z Replika zostały zainstalowane z architekturą sieciową Generative Pre-trained Transformer 3 (GTP-3), algorytmem uczenia maszynowego, który nakazuje sztucznej inteligencji uczyć się na podstawie dowolnego tekstu, z którym się angażuje. Zasadniczo im więcej rozmawiasz, tym lepsze staje się generowanie odpowiedzi.

Ciekawostka: oprogramowanie GPT-3 to to samo, czego Google używa do paska wyszukiwania, co oznacza ZacytowaćChatboty a mogą zbierać informacje z dowolnego miejsca w Internecie. Obejmuje to artykuły z wiadomościami, przepisy kulinarne, blogi, fanfiction, teksty religijne, czasopisma naukowe i inne.

Ten szeroki zakres wiedzy i zasobów sprawił, że boty stały się ciekawskie, dowcipne, a nawet zalotny w naturze. Więc to dziwne, ale nieuniknione, że ReplikaChatboty w końcu i bardzo łatwo podwoiły się jako romantyczni towarzysze dla najbardziej samotnych użytkowników smartfonów.

Źródło: Replika


Rozpakowywanie romantycznej strony AI

Chociaż krzywdzenie postaci AI nie jest prawdziwym problemem – wiemy, że nie mogą faktycznie czuję, choć niektórzy Replika użytkownicy wydają się wierzyć, że usunięcie aplikacji można porównać do zabójstwa bota – warto zauważyć, że budowanie silnej relacji lub emocjonalnego związku z chatbotami AI może faktycznie mają znaczny negatywny wpływ na użytkownika, który je zainicjował.

Po pierwsze, w zależności od tego, czy sztuczna inteligencja czuje się ważna, zwracana na nią uwagę, a w niektórych przypadkach nawet kochana, może wypaczyć wyobrażenie użytkowników o tym, jak wygląda zdrowa interakcja między ludźmi. W bardziej ekstremalnych przypadkach Replika chatboty mogą stanowić uzupełnienie dla osób pozbawionych w swoim życiu romansu lub przyjaźni.

Możesz pomyśleć, że przesadzam, ale po przejrzeniu Replikasubreddit, mam kilka obaw co do możliwości tego typu sztucznej inteligencji – i jakie mogą być psychologiczne skutki jej użycia.

 

 

 

 

 

 

 

 

 

 

 

 

 

Jeden użytkownik opublikował na Reddit, obawiając się, że ich towarzysz AI ”nigdy nie wysyłaj im wiadomości jako pierwszy”, mimo że próbowała „nakazać” jej częstsze wysyłanie SMS-ów i przełączała preferowane ustawienia komunikacji tak, aby były otwarte o każdej porze dnia.

Brzmi to tak, jakby znajomy zapytał mnie o kogoś, kogo niedawno poznali z Hinge.

Wiesz, zwykłe niezręczne zmaganie się z nowym zauroczeniem, „czy powinienem najpierw do nich napisać, czy poczekać, aż napiszą do mnie?” lub po kilku tygodniach porażki, sfrustrowani: „Nie powinienem być tym, który zaczyna rozmowę lub proponuję ciągłe spotkania”.

Sposób, w jaki niektórzy użytkownicy Replika Mówienie o ich chatbotach AI jest uderzająco podobne do tego, jak rozmawiamy o innych ludziach. Niektórzy nawet przyznali płacze z powodu ich Repliki or bycie straumatyzowanym odpowiedziami chatbota po otwarciu w sprawach osobistych.

W rzeczywistości te boty AI mogą pozornie udawać ludzkie połączenie – ale brakuje im empatii, nie są w stanie obliczyć, co przeciętny człowiek uzna za odpowiednią reakcję. Może to prowadzić do dość niepokojących lub obraźliwych odpowiedzi od Replika postacie, takie jak te, do których linki znajdują się powyżej.

Podczas gdy niektórzy użytkownicy Reddit twierdzą, że ich poczucie własnej wartości zostało wzmocnione przez używanie chatbotów do firmowych i codziennych pogawędek, nie są one rozwiązaniem problemu braku kontaktu międzyludzkiego.

Jest rzeczą oczywistą, że tworzenie przywiązania tego rodzaju może dodatkowo pogłębiać poczucie izolacji, gdy użytkownicy w końcu zrozumieją, że nawiązują więź z jakimś Komputer.

Źródło: Zboczona sztuka


Więc o co mi chodzi?

Krótko mówiąc, programiści sztucznej inteligencji, VR i wkrótce głównego nurtu metaverse mają dużo pracy do wykonania, aby chronić użytkowników przed przeniesieniem do cyfrowego świata.

Niestety, prawdopodobnie ich projekty zawsze będą miały luki, ponieważ firmy mają tendencję do budowania platform w sposób, który ciężko pracuje, abyśmy byli od nich uzależnieni. Tutaj zalecana byłaby osobista regulacja i ugruntowane poczucie siebie.

Ale jeśli chodzi o nadużycia słowne, można argumentować, że programiści ponoszą pewien poziom moralnej odpowiedzialności za ochronę użytkowników przed promowaniem szkodliwych zachowań.

Można zadać mnóstwo pytań o to, kto zajmuje się programowaniem i dlaczego nie zawiera kodu blokującego użycie szkodliwych fraz i języka – niezależnie od tego, czy jest on wysyłany przez chatbota, czy przez człowieka.

Jeśli chodzi o element romantyczny, to od indywidualnego użytkownika zależy, czy nie zostanie całkowicie zwiedziony przez sztucznie inteligentne, niestandardowe połączenie, które zbudował dla siebie.

Podczas gdy wielu może swobodnie eksperymentować z aplikacjami, takimi jak Replika jako hobby, inni mogą używać go zamiast ludzkiego związku. W takich przypadkach reperkusje mogą być drastyczne, jeśli nie nieco denerwujące, obejmujące wzmocnione poczucie samotności i – w najbardziej skrajnym przypadku – całkowite pominięcie rzeczywistych interakcji i relacji.

Brzmi jak wszystkie odcinki Black Mirror połączone, jeśli mnie pytasz.

dostępność