OpenAI 的生成语言工具昨晚完全失控,它的反应让人们感到害怕。开发人员含糊地将这种现象称为“幻觉”。令人放心。
我们的数字霸主是否已经准备好全面入侵?
昨晚,ChatGPT 用户报告了生成语言工具完全失控的情况。简单的用户查询会引发奇怪的胡言乱语,其中大多数完全难以理解且太长。
人们聚集在 Reddit 和 Twitter (X) 上分享例子,发布了无数关于他们与人工智能的奇异遭遇的屏幕截图。
在一个例子中,当有人就编码问题寻求帮助时,它产生了一段混乱而漫长的挥霍,其中包括一句令人毛骨悚然的短语:“让我们保持排队,就像房间里有人工智能一样。”
在另一篇文章中,有关制作晒干西红柿的问题变成了:“像心爱的人一样使用”。放弃你心爱的烹饪中的新水果吧。
谁让哥做饭的?
chatgpt 现在显然已经出轨了,没有人能解释为什么 pic.twitter.com/0XSSsTfLzP
— 肖恩·麦奎尔 (@seanw_m) 2024 年 2 月 21 日
让人想起杰克托伦斯的精神崩溃 闪灵 – 他疯狂地一页一页地输入“只工作不玩耍,让杰克变成一个迟钝的男孩” – ChatGPT 还回复了一条关于爵士乐专辑的消息 反复喊叫 “祝您聆听愉快!”和垃圾邮件音乐表情符号。
大量帖子的一个普遍主题是,问题会导致多语言的胡言乱语,其中西班牙语、英语和拉丁语单词奇怪地合并在答案中。
OpenAI 在其官方状态页面上注意到了这些问题,但未能提供任何解释为什么会发生这些故障。
“我们正在调查有关 ChatGPT 意外响应的报告” 更新读取,不久之后又宣布“问题已确定”。最新帖子称,我们正在继续监控局势。