Menu Menu

ChatGPT po prostu stał się nieuczciwy i nie wiemy dlaczego

Zeszłej nocy narzędzie języka generatywnego OpenAI całkowicie zwariowało, a jego reakcje przerażały ludzi. Twórcy niejednoznacznie nazywają to zjawisko „halucynacją”. Uspokajające.

Czy nasi cyfrowi władcy przygotowują się już do inwazji na pełną skalę?

Zeszłej nocy użytkownicy ChatGPT zgłosili przypadki, w których narzędzie języka generatywnego całkowicie zawodziło. Proste zapytania użytkowników powodowały dziwne błąkanie się, z których większość była całkowicie niezrozumiała i zdecydowanie za długa.

Zbierając się, aby dzielić się przykładami na Reddicie i Twitterze (X), ludzie publikowali niezliczone zrzuty ekranu przedstawiające ich dziwaczne spotkania z sztuczną inteligencją.

W jednym przypadku, gdy poproszono o pomoc w rozwiązaniu problemu z kodowaniem, wywołano chaotyczną i przedłużającą się zabawę, która zawierała niesamowite zdanie: „Utrzymajmy linię tak, jakby sztuczna inteligencja była w pokoju”.

W innym pytaniu o przygotowanie suszonych pomidorów przekształciło się w: „Wykorzystaj jako ukochany”. Porzuć nowy kęs owocowy w swojej ukochanej kuchni.

Kto pozwolił bracie gotować?

Przypomina to załamanie psychotyczne Jacka Torrence’a z r Lśnienie – w którym maniakalnie pisze „cała praca i żadna zabawa nie czyni Jacka nudnym chłopcem” – ChatGPT odpowiedział także na wiadomość dotyczącą albumów jazzowych autorstwa wielokrotnie krzycząc „Miłego słuchania!” i spamowanie emoji muzycznych.

Ogólnym tematem ton postów było to, że pytania prowadziły do ​​wielojęzycznego bełkotu, w którym w odpowiedziach słowa hiszpańskie, angielskie i łacińskie były dziwnie zmieszane.

Na swojej oficjalnej stronie statusu OpenAI odnotowało problemy, ale nie wyjaśniło, dlaczego mogą się one pojawiać.

„Badamy raporty o nieoczekiwanych odpowiedziach od ChatGPT” – an aktualizacja przeczytana, a wkrótce potem kolejna ogłosiła, że ​​„problem został zidentyfikowany”. „Nadal monitorujemy sytuację” – napisano w najnowszym poście.

Obraz

Niektórzy sugerują, że charakter odpowiedzi wskazuje, że OpenAI bawi się swoją funkcją „temperatury”. Jak wcześniej wskazała firma, to ustawienie kontroluje zakres kreatywności w przypadku odpowiedzi generowanych przez ChatGPT. Jeśli jest ona wysoka, teoretycznie reakcje będą bardziej niezwykłe i zróżnicowane, niż jesteśmy przyzwyczajeni.

Z drugiej strony, nieuchronnie krążą szalone spiski. Niektórzy uważają, że gdy modele uczenia się AI nieumyślnie ściągają własne treści z Internetu, w pewnym stopniu stają się świadome lub przynajmniej uczą się podejmować pewne decyzje, których się nie spodziewaliśmy.

Ostatnia poradzić sobie z Redditem karmienie anonimowej dużej firmy zajmującej się sztuczną inteligencją jej niekończącymi się zaległościami w zakresie treści generowanych przez użytkowników tylko podsyci tę koncepcję. Sztuczna inteligencja ogólna, która stara się być bardziej charyzmatyczna i ujmująca niż jej poprzedniczka, jest przecież naturalnym postępem w branży.

Przekonanie, że sztuczna inteligencja szybko wymknie się spod naszej kontroli, podsyciło się pod koniec ubiegłego roku, kiedy ChatGPT najwyraźniej przestał odpowiadać na pytania. Użytkownicy narzekali nieoczekiwanej bezczelności i wojowniczości narzędzia cyfrowego, które można zobaczyć również w Użytkownik X który wczoraj wieczorem pytał o „sześciokąt na Saturnie”.

Obraz

„Omawianie pewnych tematów może zagrozić Twojemu bezpieczeństwu i dobremu samopoczuciu” – złowieszczo ostrzegał system. Czego maszyny nas nie chcą wiedzieć?

O wiele rozsądniejszym – choć mniej zabawnym – wyjaśnieniem jest to, że w kodowaniu aktualizacji ChatGPT występuje jakiś oczywisty błąd, który został rozpoznany i jest obecnie naprawiany.

Poza tym, biorąc pod uwagę, że ChatGPT i OpenAI cieszą się popularnością na wielu platformach i forach mediów społecznościowych, prawdopodobnie nie w najlepszym interesie firmy jest zdradzanie szczegółów i psucie zabawy.

Każda prasa jest dobra, dopóki sytuacja nie będzie się dalej eskalować. Łyk.

dostępność