站点图标 AI Siri-苹果智能资讯网

超800名科技领袖:停止超级智能研发,防人类灭绝

超800名科技领袖:停止超级智能研发,防人类灭绝

科技圈炸锅!超过800位大佬,包括苹果联合创始人沃兹尼克、维珍集团布兰森等,联名发出“红色预警”:立即停止“超级智能”的研发!

啥是“超级智能”?简单说,就是在所有方面超越人类认知能力的那个人工智能

这份声明堪称“史上最强联名”,直接给OpenAI、Meta等一众疯狂“军备竞赛”的科技巨头们,浇了盆透心凉的冰水。他们警告,超越人类智能的AI系统,可能导致经济崩盘,甚至…人类灭绝!

签名名单简直星光熠熠,不仅有科技领袖、科学家,还有被誉为“AI教父”的Yoshua Bengio和Geoffrey Hinton,这可都是推动现代AI发展的关键人物。

超800名科技领袖联合呼吁:停止研发超级智能 可能导致人类灭绝

声明措辞相当犀利:“超级智能可能导致人类经济地位下降,丧失自由、公民权利、尊严和控制权,甚至引发国家安全风险,最终…人类直接GG。”

这可不是危言耸听。Meta刚把AI部门改名“Meta Superintelligence Labs”,OpenAI和马斯克的xAI也在争分夺秒,看谁先搞出通用人工智能(AGI)。

大佬们集体“踩刹车”,意思很明确:步子迈大了,容易扯着蛋。

更有意思的是,这份联名信的跨界程度令人咋舌。前国家安全顾问Susan Rice、前参谋长联席会议主席Mike Mullen的签名,说明了国家层面的担忧。甚至连梅根·马克尔王妃,都和特朗普的盟友史蒂夫·班农、格林·贝克站到了一起,政治光谱能如此统一,实属罕见。

加州大学伯克利分校的Stuart Russell教授,作为AI安全领域的领军人物,多年来一直警告超级智能的风险,他也是这次行动的发起人之一。他的观点是:人类或许能创造出超级智能,但问题是,能不能控制它?

声明呼吁暂停超级智能研发,直到公众和科学界普遍认为“它能安全可控”为止。这标准相当高,基本相当于给现在的AI开发按下了“暂停键”。

这份联名信不同于以往任何警告,因为发声的不是“圈外人”,而是那些创造出现代AI的人们。当Bengio和Hinton这样的顶尖科学家说“刹车”时,整个AI行业都该好好掂量掂量了。

接下来会怎样?这取决于各国政府的态度。欧盟已经开始搞AI监管,美国也在探索AI安全框架。这份请愿书,无疑给立法者们提供了一个绝佳的理由,去更严格地控制最前沿的AI研究。

退出移动版