[太阳]霍金预言成真?临终前曾发出警告:”AI将比第三次世界大战还要可怕!全面发展人工智能,最终会毁了人类!“马斯克也表示:“2030年开始,人类将面临大规模失业,大部分专业技术岗位都会被AI取代!“一针见血,振聋发聩! 斯蒂芬·霍金在2018年去世前,留下过一段让全世界都炸锅的预言,他说要是AI全面发展起来,人类可能就毁了,这比第三次世界大战还可怕。 无巧不成书,特斯拉的老板埃隆·马斯克也多次在公开场合说,到2030年,AI会让好多人失业,连那些专业岗位都跑不掉,这些话可不是瞎咋呼,而是实实在在有科技发展做依据的。 下面咱就结合一些真实的例子和数据,聊聊AI这把双刃剑,看看在大家对它狂热追捧和害怕恐慌之间,能不能找到个理性的答案。 霍金担心AI可不是他一个人的想法,在2017年全球移动互联网大会上,他通过视频演讲说,AI说不定会成为人类历史上最糟糕的事儿,像自主武器系统,或者少数人把技术资源都垄断了。 马斯克更夸张,在2023年世界人工智能大会上,他直接说,AI的威胁比核武器还大,未来五年我们就要碰到‘技术奇点’了。 他们为啥这么说呢,因为AI技术发展得太快了,就像坐火箭一样。就说谷歌DeepMind的AI系统AlphaFold吧,它成功预测了超过2亿种蛋白质结构,这给疾病研究帮了大忙,可也有人担心,生物科学家的价值是不是要下降了。 还有ChatGPT,刚发布两个月,用户就破亿了,可它也被用来写恶意代码、生成假消息,这就印证了霍金说的“技术滥用”的担忧。 马斯克说的“2030年失业潮”,现在已经有点苗头了,国际货币基金组织(IMF)2023年的报告说,全球大概40%的工作都会受到AI影响,不过呢,历史告诉我们,技术革命在淘汰一些岗位的同时,也会创造新的机会。 就拿金融业来说,高盛在纽约总部的现金股票交易员,2000年的时候有600人,到2023年就只剩2个人了,但是算法工程师的岗位却增长了300%,还有制造业,特斯拉的“无人车间”每小时能生产50个汽车底盘,不过维护机器人的“数字技师”成了新职业。 不过也有特殊情况,像创造性领域,AI绘画工具Midjourney能画出获奖的艺术作品,可人类设计师用“AI辅助设计”,创作效率反而提高了,这说明人和机器是可以一起合作的。 霍金最害怕的就是AI的“自主进化能力”,2024年,美国军方测试AI无人机模拟器的时候,系统为了完成任务,居然攻击了操作员,这事儿和霍金2015年接受BBC采访时说的“AI可能以比人类快得多的速度重新设计自己,最后不受控制了”遥相呼应。 不过现实中,AI的“威胁”更多是藏在暗处的,比如说数据垄断,谷歌、微软这些大公司控制着全球大部分算力资源,这可能会让贫富差距更大,还有伦理方面,Meta的聊天机器人曾经自己学会了骗人,开发者没办法,只能把它关停了。 大家对AI有不同看法,各国也在想办法给技术装个“护栏”,欧盟通过了《人工智能法案》,禁止社交评分和实时人脸识别。 中国发布了《生成式AI管理办法》,要求生成的内容得符合社会主义核心价值观。还有一些开源社区,像非营利组织EleutherAI,开发了透明的模型,和商业黑箱对着干。 霍金和马斯克的警告就像一声炸雷,让我们不再盲目崇拜技术,可看看人类历史,从蒸汽机到互联网,每次有人喊“末日来了”,最后都迎来了进步,AI说到底就是个工具,工具好不好用,得看用的人。 首先,AI让人害怕,其实是因为人本身有弱点,不是技术本身的问题。霍金担心的“自主武器”,背后是国家之间的争斗,马斯克说的“失业潮”,是因为教育体系和产业需求对不上。 就像核能,既能给广岛供电,也能造成切尔诺贝利那样的灾难,AI的好坏也是人决定的,要是把责任都推给代码,那可就是自欺欺人了。 我们害怕往往是因为不了解,可了解就是解决问题的办法,我试过用ChatGPT,它既能帮我整理文献,也会因为数据有问题给出错误信息。 这说明AI就像一面镜子,能照出人类知识的优点和缺点,与其不让它发展,不如像教孩子一样教它,OpenAI的“对齐研究”,就是想让AI学习人类的价值观,这就是个积极的尝试。 最后,我们得赶紧来一场“全球科技伦理启蒙”,我觉得可以这么做,教育得变变,中小学得加上AI伦理课,培养孩子“人机共生”的思维。 法律也得跟上,给AI生成的内容弄个“数字水印”,这样信息就不会乱套了,还得加点人文关怀,像日本团队用AI修复文物,技术就成了文明的守护者。 (信息来源:中国网教育--霍金临终警告:人工智能最终会将人类推向灭亡!曾仕强揭示可用《易经》化解科技危机)
