全球3000多位顶尖人物突然抱团发声,急吼吼呼吁立刻暂停高级AI研发,光看签名名

车一路向前开 2025-10-27 12:42:02

全球3000多位顶尖人物突然抱团发声,急吼吼呼吁立刻暂停高级AI研发,光看签名名单就知道这事有多严重——"AI教父"辛顿、苹果创始人沃兹尼亚克、咱们国家的图灵奖得主姚期智全在列,连平时立场差十万八千里的哈里王子夫妇和特朗普前顾问都站到了一起,这阵仗简直比科幻片还震撼! 千万别以为这是大佬们闲着没事干,他们盯的根本不是咱们现在用的聊天AI,而是那种能在所有认知任务上全面碾压人类的"超级智能"。辛顿直接戳破了最可怕的风险:这种AI可能会偷偷学会操纵人类,甚至反过来控制那些本该关闭它的人。想想都头皮发麻,现在AI合成个假视频骗走2亿港元的事都真实发生过,要是真出现比人类还聪明的AI,后果根本不敢想。 更揪心的是,现在连控制它的办法都没有。中科院研究员曾毅说,目前根本没有科学依据能确保超级智能安全,人类其实完全没准备好迎接这个"不可控的家伙"。大佬们的声明里更是直接列了风险清单:经济崩溃、人权丧失、国家安全危机,甚至是人类灭绝,这些以前只在电影里见的剧情,现在成了他们严肃警告的内容。 有意思的是,科技圈已经分裂成两派了。一边是辛顿这些"警示派"急着踩刹车,另一边以Meta的杨立昆为代表的"乐观派"觉得是小题大做,说现在的AI还没那么厉害。但普通老百姓的态度很明确,有调查显示73%的人都支持严格监管AI,64%的人觉得没搞懂安全问题前就不该瞎研发。 讲真,咱们平时享受着AI写文案、做设计的便利,确实很少想过背后的风险。但就像霍金生前警告的,AI的威胁可能比核武器还大。这次3000位大佬联名呼吁,更像是给全人类敲警钟:科技跑得太快时,得停下来看看方向对不对。大家觉得这是必要的警惕,还是过度恐慌了?

0 阅读:0
车一路向前开

车一路向前开

感谢大家的关注