菜单 菜单

人工智能“教父”Geoffrey Hinton 警告其风险并退出谷歌

半个世纪以来,AI“教父”Geoffrey Hinton 培育了 ChatGPT 等聊天机器人的核心技术。 现在,在离开谷歌之后,他警告说它可能会在未来造成严重的伤害。 

Geoffrey Hinton 的开创性研究被许多人视为人工智能技术的“教父”,为 ChatGPT 等复杂的生成系统铺平了道路。 

这位英裔加拿大人在计算机科学和认知植物学领域积累了半个多世纪的经验。 现在,75岁的他 离开他的职位 在谷歌“揭发”人工智能不断发展所带来的所谓危险。 

虽然目前,我们中的许多人仍在陶醉于该技术的新颖用途,但他警告说,从现在开始,这些系统将不可避免地学习“操纵人的方式”,并断言它们已经变得比人类更聪明。 

如果你想象的未来类似于 Blumhouse 的 naff 恐怖电影 M3GAN,你可能离题很远,但围绕机器学习缺乏监管的存在主义担忧程度正在迅速上升。

欣顿告诉 “纽约时报” 直到去年他才相信谷歌一直是人工智能的“适当管家”,但一旦微软合并,所有谨慎的情绪都被抛弃了 与 Bing 聊天 GPT – 无意中威胁到其谷歌搜索业务。 

他告诉 BBC,在闭门造车之前,一些已知的危险“相当可怕”,警告聊天机器人可能变得比人类更聪明,并可能被“坏人”利用。  

'它能够自动生成大量文本,因此您可以获得大量非常有效的垃圾邮件机器人。 它将允许专制领导人操纵他们的选民,诸如此类。 

然而,可以说更令人担忧的是“当这些东西变得比我们更聪明时会发生什么的风险”,他认为这是不可避免的。 

他说:“我得出的结论是,我们正在开发的智能与我们现有的智能非常不同。” “所以,就好像你有 10,000 个人,只要一个人学到了什么,每个人都会自动知道。 这就是这些聊天机器人比任何人都知道的更多的原因。 

在 AI 研究的高层中,不仅仅是 Hinton 认为该技术最终会对人类造成伤害。 据报道,埃隆·马斯克 (Elon Musk) 就在上个月与谷歌联席首席执行官拉里·佩奇 (Larry Page) 闹翻,因为他“没有足够认真地对待人工智能安全”。 

推特老板 告诉福克斯新闻 佩奇想要创造类似于“数字上帝”的“数字超级智能”。 

在其他地方,魁北克人工智能研究所的 Valeria Pisano 与 Hinton 的观点相同,即在其他任何地方都不能容忍人工智能系统开发的即兴方法。 

“这项技术已经投入使用,当系统与人类互动时,它的开发人员会等着看会发生什么,并据此做出调整。 作为一个集体,我们永远不会在任何其他工业领域接受这种心态,”她说。 

无论您是否认为对 AI 未来的担忧是危言耸听,都有理由相信我们不仅将方向盘交给 AI,而且还可能允许它选择自己的道路。 

无障碍