Меню Меню

ChatGPT только что вышел из строя, и мы не знаем, почему

Вчера вечером инструмент генеративного языка OpenAI полностью вышел из строя, и его реакция напугала людей. Разработчики неоднозначно называют это явление «галлюцинацией». Обнадеживает.

Готовятся ли наши цифровые повелители уже к полномасштабному вторжению?

Вчера вечером пользователи ChatGPT сообщили о случаях, когда инструмент генеративного языка полностью выходил из строя. Простые пользовательские запросы вызывали странный бред, большинство из которых были совершенно непонятными и слишком длинными.

Собираясь поделиться примерами на Reddit и Twitter (X), люди публиковали бесконечные скриншоты своих странных встреч с ИИ.

В одном случае, когда его попросили о помощи с проблемой кодирования, он вызвал беспорядочную и длительную трату денег, которая включала жуткую фразу: «Давайте держать очередь, как если бы в комнате был ИИ».

В другом вопрос о приготовлении вяленых помидоров сводился к следующему: «Используйте как любите». Откажитесь от нового кусочка фруктов в своей любимой кухне».

Кто позволил братану готовить?

Напоминает психотический срыв Джека Торренса в Сияние – в котором он страницы за страницами маниакально печатает «вся работа и отсутствие игр делают Джека скучным мальчиком» – ChatGPT также ответил на сообщение о джазовых альбомах от неоднократно кричать «Приятного прослушивания!» и рассылать музыкальные смайлы.

Общей темой множества постов было то, что вопросы приводили к многоязычной тарабарщине, в которой испанские, английские и латинские слова странным образом смешивались в ответах.

На своей официальной странице статуса OpenAI отметила проблемы, но не предоставила никаких объяснений, почему могут возникнуть сбои.

«Мы расследуем сообщения о неожиданных ответах от ChatGPT», — сообщил обновление читать, прежде чем другой вскоре после этого объявил, что «проблема выявлена». «Мы продолжаем следить за ситуацией», — говорится в последнем сообщении.

Фото товара

Некоторые полагают, что характер ответов указывает на то, что OpenAI экспериментирует со своей функцией «температуры». Как ранее указывала компания, этот параметр контролирует простор для творчества с помощью ответов, сгенерированных ChatGPT. Если бы он был высоким, теоретически ответы были бы более необычными и разнообразными, чем мы привыкли.

С другой стороны, неизбежно возникают дурацкие заговоры. Некоторые полагают, что, поскольку модели обучения ИИ непреднамеренно извлекают собственный контент из Интернета, они на самом деле в некоторой степени становятся разумными или, по крайней мере, учатся принимать определенные решения, которых мы не ожидали.

Недавнее разобраться с Реддитом Если кормить неназванную крупную компанию, занимающуюся искусственным интеллектом, с ее бесконечным портфелем пользовательского контента, это только подпитает эту идею. В конце концов, искусственный общий интеллект, который стремится быть более харизматичным и представительным, чем его предшественник, является естественным прогрессом для этого сектора.

Вера в то, что ИИ быстро выйдет из-под нашего контроля, усилилась в конце прошлого года, когда ChatGPT, похоже, стал неохотно отвечать на вопросы. Пользователи жаловались неожиданной дерзости и воинственности цифрового инструмента, подобное можно увидеть и на X пользователь который вчера вечером спрашивал о «шестиугольнике на Сатурне».

Фото товара

«Обсуждение определенных тем может поставить под угрозу вашу безопасность и благополучие», — зловеще предупредила система. Чего машины не хотят от нас знаете?

Гораздо более разумное (хотя и менее забавное) объяснение состоит в том, что в коде обновления ChatGPT есть какая-то очевидная ошибка, которая была обнаружена и в настоящее время устраняется.

Кроме того, учитывая, что ChatGPT и OpenAI популярны на многих платформах и форумах социальных сетей, вероятно, не в интересах компании конкретизировать мелкие детали и портить удовольствие.

Любая пресса – это хорошая пресса… лишь бы ситуация не обострялась дальше. Глоток.

Универсальный доступ