你有没有发现,最近全世界的科学家突然都开始慌了?
我刷到这个新闻的时候,愣了几秒。
未来生命研究所发起的暂停AI研发倡议,签名的人已经超过3000个,全是顶级人物。辛顿、沃兹尼亚克、姚期智、张亚勤全在名单上。
经我核查,未来生命研究所并非忽然出现的机构,该所成立于2014年,马斯克最初就投入一千万美元给予支持,霍金曾担任过他们的科学顾问。
早些年他们便告诫AI风险,提出要给高级智能设定“紧急关闭键”,那时我还觉得他们有些危言耸听,如今才明白是我考虑得过于简略了。
但这次“辛顿”签名最让我震惊。这个老爷子可是深度学习的鼻祖。
他就是教AI“怎么思考”的那个人。去年他从谷歌辞职,说自己担心AI失控,怕走向无法预测的方向。结果一年不到,他真的签了呼吁信,这就像一个造火箭的人自己喊“别再发射了”。
当下的AI可不止是会写作文,下棋。OpenAI的模型去年曾发生一回异常输出情形,系统忽然产出一些没人能解释的内容,官方称是算法问题,但细节并未谈及。更为离谱的是,连工程师都没办法搞明白这些模型到底是怎样“思索”的。
我想起有个比喻特别贴切:就像你教孩子数学,结果孩子学着学着自己写出了新定律。你问他为啥,他还懒得搭理你。
就连美国参谋长联席会议主席者也参与了此次签名,据《纽约时报》报道他们忧心AI会给国家安全带来影响,比如侵入电力系统、伪造指令、炮制假新闻这类状况。
而且有73%的民众支持监管AI,这数据是皮尤研究中心今年公布的。
换句话说,绝大多数人心里都发怵,怕它哪天“动真格的”。
但别以为这是“西方焦虑”。我国的姚期智和张亚勤也在名单上,中国的AI专家早就提醒过:我们现在连确保超级智能安全的科学依据都没有。
那就意味着,没人能证明这玩意儿不会出岔子。
问题是大公司还在拼命卷,微软、谷歌、OpenAI,你追我赶,一个模型比一个聪明。
去年全球AI投资额突破670亿美元(来源:Statista),同比增长40%。你能想象吗?钱已经砸到失控的程度,谁敢停谁就担心被淘汰。
值得留意的是,中国AI的逻辑和西方有别,我国语言体系繁杂,语义深邃,文化层级繁多,汉字本身就携有语境信息。国外那些基于拼音文字的模型,难怪有人称,中文AI的潜力比英文AI更深厚一层。
所以有人怀疑,这次“全球暂停”倡议是不是另有盘算。你想啊当别人跑得太快,最简单的办法就是喊停。
我不是阴谋论者,但方向上确实怪。
你看他们的理由:怕AI毁灭人类、怕AI抢工作、怕AI比人聪明。可真要怕这些,为什么还在投钱?还在训练模型?
我反倒觉得,有人怕的不是AI失控,而是AI被别人控制。
我昨天跟朋友聊到AI,他说一句话挺扎心:“其实AI早就成了新的核武器。”我没回但心里认同。
来源:七月的影子微信号
1、本文只代表作者个人观点,不代表本站观点,仅供大家学习参考;
2、本站属于非营利性网站,如涉及版权和名誉问题,请及时与本站联系,我们将及时做相应处理;
3、欢迎各位网友光临阅览,文明上网,依法守规,IP可查。
作者 相关信息
内容 相关信息
被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发
2025-10-30• 昆仑专题 •
• 高端精神 •
• 新征程 新任务 新前景 •
• 习近平治国理政 理论与实践 •
• 国策建言 •
• 国资国企改革 •
• 雄安新区建设 •
• 党要管党 从严治党 •