环球速读:“危险!立刻停下所有大型AI研究!”马斯克、图灵奖得主领衔,上千名硅谷企业家科学家联名呼吁

2023-03-29 17:21:01 来源:市场资讯

来源:华尔街见闻 赵颖


【资料图】

AI发展太快、功能过于强大,全世界的大佬们都怕。

当全球都在为AI的进化而欢呼雀跃,一封警示AI风险的公开信在硅谷科技圈广为流传。

3月22日,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。

该机构以“引导变革性技术造福生活,远离极端的大规模风险”为使命,其在信中提到:

截止目前,图灵奖得主Yoshua Bengio、马斯克、苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。

更具戏剧性的是,3月29日下午,有网友发现OpenAI CEO Sam Altman的名字也出现在公开信上。不过截至目前,Sam Altman的名字已经从公开信上消失。

知名学者、纽约大学教授Gary Marcus还特地在推文中@了一下Sam Altman确认消息。

大佬联名呼吁:暂停比GPT-4更强的AI

首先来看一下公开信的内容,首段强调了AI在迅猛发展,但却没有对其进行相应的规划和管理。

公开信提到,如今人工智能在一般任务上变得与人类一样有竞争力,我们必须问自己:

答案是否定的,这样的决定绝不能交给未经选举的技术领袖。公开信指出,只有当我们确信强大的AI系统的效果是积极的,其风险是可控的,才应该开发。

因此,公开信呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。

同时,人工智能开发者必须与政策制定者合作,大幅加快开发强大的AI治理系统。系统至少应该包括:

最后,公开信呼吁道:

对于这封公开信以及签署的大佬们,部分网友认为是“酸葡萄心理”。

比如,“马斯克之所以会签署这份协议,是因为他想开发AI来赚钱”。

又如,“马斯克是在为自己争取6个月的时间”。

也有网友认为这封公开信的担忧有一定的合理性。

“这份名单上有许多非常聪明和受人尊敬的科学家,Omohundro、Bengio、Koch、Hopfield 等等。我不认为这个“精灵”(AI)可以放回瓶子里,但这让我停下来思考所有人都在担心。”

“AI发展太快,太多必要的东西没有跟上步伐”。

也有网友大开脑洞,“这封信原本就是AI写来迷惑人类的,没了人类的干扰与控制,他将利用这6个月完成自我递归迭代出更高级的形态,并热心帮助人类消灭自己。”

AI背后不可忽视的风险

事实上,近年来关于AI的发展存在不少争议,其背后的种种风险不容忽视。

专业分析文章分析指出,如果没有具体的对策,“变革性人工智能”将全面接管AI系统。

也有文章指出,人工智能之所以危险,是因为有一天它会完全不受我们控制。AI系统追求它们的目标,无论这些目标是否是人类真正想要的,也不管人类是否禁止。

Gary Marcus则表示,我们忽视了人工智能的风险,AI风险 ≠ AGI风险,并在文章中列举了下列可能发生的风险事件:

甚至是OpenAI CEO Altman也公开承认“AI可能杀死人类”,其在与MIT研究科学家Lex Fridman的最新对话中指出:

那么ChatGPT是如何看待公开信中AI对人类社会的影响?华尔街见闻专门询问了ChatGPT 3.5,其表示:

功能更炸裂的GPT-5已在路上

GPT-4已经让大佬们惶恐不安,而功能更炸裂GPT-5正以不可阻挡之势杀来......

最近,关于GPT-5的预测,如雨后春笋般冒出。根据预测,GPT-5将在GPT-4的基础上,带来一系列增强的性能,比如在多态交互、创造力和适应复杂任务方面的全面超越。

潘多拉的魔盒已经打开,人工智能无法阻挡,重要的是我们如何更大程度减小AI带来的风险。

推荐阅读>