前言:
近日,沙特利雅得的FII峰会现场,目光都聚焦在舞台中央的两个人身上。
前谷歌CEO埃里克·施密特,这位见证了谷歌从搜索巨头成长为AI领军者的科技老兵;以及斯坦福AI实验室创始人李飞飞,被称作[AI教母]、用ImageNet推动深度学习革命的顶尖学者。
这场对话早已超越了技术讨论的范畴,它更像一场关于人类未来的[思想对赌]。
作者| 方文三
图片来源|网 络
3年降临还是远未开始?节点之争藏着分歧
对话的起点,是一个看似基础却无解的问题:[超级智能到底是什么?它什么时候会来?]
施密特的答案带着科技圈特有的激进:[超级智能不是一个聪明的AI,而是比地球上所有人类加起来还要聪明的总和级智慧。]
他提到了[旧金山共识],硅谷有一群人坚信,这种智能会在未来3—4年内实现。在他看来,这早已不是[会不会来]的问题,而是[来得有多快]。
他的逻辑很直接,智能的核心是[能力堆积],既然AI已经能掌握几十种语言、记住无限知识,只要技术突破足够快,把知识堆到[超越全人类总和]的高度,超级智能自然会到来。
就像当年没人想到深度学习会颠覆图像识别,今天我们也可能低估了技术的复利效应。
但李飞飞却把话题拉回了更本质的层面。她没有直接否定施密特的时间预测,而是反问了一个灵魂问题:[AI能成为牛顿吗?能成为爱因斯坦或者毕加索吗?]
在她看来,智能从来不是[知识的堆砌],而是[在混沌中找到突破的创造力]。
今天的AI确实能处理海量数据,比如把所有行星运行数据喂给它,它能算出轨道,但永远没法像牛顿那样,从混乱的观测中[顿悟]出万有引力定律;就像把1902年之前的所有科学知识塞进计算机,它也推导不出相对论。
[真正的智能,是提出别人没问过的问题。]李飞飞的这句话,点出了两人分歧的核心,施密特看到的是[量的突破],而李飞飞关注的是[质的起点]。
缺失的[顿悟]与连续推理,暴露技术的硬边界
为了说清[AI成不了牛顿]的原因,施密特举了一个技术层面的例子:[今天的AI在推理时,不会像人那样反复思考。一个数学家证明了一个定理,会立刻用这个结论推导下一个问题,但AI不会,它记住了定理,却不会把它当成新的起点。]
这就是当前AI的核心盲点,没有[连续推理]能力。它可以完成单一任务,比如证明一个数学公式、翻译一段文字,但无法像人类那样,把一个结论[反馈给自己],形成迭代式的思考链条。
李飞飞则从另一个角度补充:[我们让AI处理过无数天体数据,但它从来没有主动问过这些行星为什么会这样转。而牛顿的伟大,恰恰是从为什么开始的,他没有停留在计算轨道,而是追问背后的规律是什么。]
换句话说,AI擅长[解决已知问题],却不会[发现未知问题]。它是高效的[执行者],却不是[探索者]。
这种局限,不是靠[堆算力]就能解决的,施密特自己也承认:[要让AI拥有顿悟能力,我们可能需要一次全新的算法突破。比如解决目标非平稳性问题。现在的AI都是围绕固定目标训练的,但创造力需要在过程中动态调整目标,这是当前技术做不到的。]
这也解释了为什么AI在数学、软件等封闭领域进展飞快。因为这些领域的规则固定、可验证,只要堆算力就能预测下一个词、推导下一个公式。
但在物理、生物等开放领域,需要跨领域联想、抽象思维时,AI就显得力不从心。
今天的AI,本质上还是一个[超级助理],它能整理信息、提高效率,却跳不出人类给它设定的框架。
而真正的超级智能,需要跳出框架,自己定义问题,这一步还没摸到门槛。
AI创造的15万亿财富,会只流向少数人吗?
主持人抛出了一个乌托邦式的设想:AI会不会带我们进入[后稀缺社会]?就像谷歌让知识免费一样,医疗、教育会不会人人可及?
施密特的回答给这场畅想泼了冷水:[这是个美好的想法,但现实可能没那么平均。]他提到了经济学里的[网络效应],越早用AI、资源越丰富的一方,越容易把优势变成垄断。
[每家用AI的公司,效率都会提升,财富也会增长。但这些财富会分给所有人吗?很可能不会。]
他举了沙特的例子:只要用AI优化10%的石油分销网络,这个国家就能节省数十亿美元;在医疗领域,AI能加快新药审批、降低试验成本,但这些收益只会属于那些[做得快、做得准]的企业。
最终的结果可能是,少数国家、少数公司、少数资本拥有者,会拿走AI创造的大部分财富。
IDC预测,到2030年AI将产生22.3万亿美元的经济影响,但这份蛋糕的分配,可能比我们想象的更不均衡。
李飞飞对此深表认同:[AI能提升全球生产力,但效率不等于共同繁荣。技术本身不会主动解决分配问题——它需要政策、地缘政治、社会机制的配合。]
最危险的,是那些[跟不上的群体],施密特点名了非洲:[那里缺乏稳定的政府、像样的大学、成体系的工业基础,已经落后很多年了,现在可能被甩得更远。]
就连欧洲,也因为能源成本高、融资难,连建设AI数据中心都困难重重,只能靠和阿布扎比这样的伙伴合作才能跟上。
[每个国家都该投资人才、技术和教育生态,不能靠别人。]李飞飞的这句话,既是提醒也是警告:在AI时代,[不行动]就等于[被淘汰]。
对国家而言,是要不要建数据中心、要不要培养AI人才;对个人而言,是要不要学习与AI协作、要不要提升不可替代的能力,这不是选择题,而是生存题。
从[搭档组合]到[人的尊严],人类会被边缘化吗?
当辩论触及最敏感的[人类角色]时,主持人的问题直击人心:[如果超级智能能做所有科学研究、经济决策,人类还剩下什么价值?]
施密特的答案很接地气:[20年后,我们还是会看人类体育比赛,哪怕机器人能100%击败我们。你去F1赛场,想看的是人类车手,不是自动驾驶汽车,人类永远对同类的潜能感兴趣。]
他提出了[人机搭档]的未来,不是AI取代人,而是人和AI一起做事。
[未来可能有两种比赛:人类之间的,AI之间的。但我们更关注的,会是人和AI共同完成了什么,比如医生用AI模拟手术,科学家用AI验证猜想。]
在他看来,人类的判断力、好奇心、审美,是AI永远学不会的,而这些恰恰是[创造价值]的核心。
李飞飞的态度则更坚定,带着一种人文主义的底线:[我们讨论超级智能时,绝不能忘记人的尊严和人的能动性。这个世界必须以人为中心,哪怕AI再聪明,决定权也必须握在人手里。]
她担心的,是[人类被边缘化]的风险,如果我们习惯了让AI做选择,习惯了让AI替我们思考,最终可能失去[作为人的主体性]。
两人的分歧在这里变得清晰,施密特更乐观于[AI能帮人做更多事],而李飞飞更警惕[AI会不会夺走人的主动权]。
但他们的共识更重要,无论AI多强,人类的核心价值。提出问题的能力、抽象思维的创造力、对尊严和意义的追求,都是不可替代的。
就像爱因斯坦说的,[科学的精髓在于提出正确的问题]。AI能解决问题,但永远没法像人类那样,在混沌中找到[该问什么],这才是人类之所以为人类的根本。
超级智能是失控悬崖还是泡沫前夜?
就在施密特和李飞飞辩论的同时,AI行业内部正陷入一场更激烈的分裂。
2025年下半年,非营利组织[生命未来研究所]发起了一封公开信,呼吁[在达成广泛科学共识和公众支持前,禁止超级智能的开发]。
签名名单让人震惊,[AI教父]辛顿、本吉奥,苹果联合创始人沃兹尼亚克,维珍创始人布兰森,甚至哈里王子夫妇、前美国国家安全顾问赖斯。
横跨科技、政治、文化领域的超千人,都在警告超级智能的风险。
[它可能带来经济崩溃、人类失控、公民自由丧失,甚至人类灭绝。]公开信里的措辞严厉,直指当前AI实验室的竞赛心态,OpenAI、Meta、xAI都在争相开发[超越人类的智能],却没人能保证安全。
但另一边,技术乐观派的反驳同样尖锐,Meta首席AI科学家杨立昆批评那些[一边警告风险、一边造系统]的同行[理智不诚实],他认为当前的大型语言模型被严重高估,[连AGI都没摸到,谈何超级智能威胁?]
《人工智能:一种现代方法》作者斯图尔特·罗素则担心[膨胀的预期会引发泡沫破灭],就像当年的互联网泡沫一样。
这场分裂,本质上是[未知的恐惧]与[技术的信心]的碰撞,有人怕步子太快掉进悬崖,有人怕停下脚步错过未来。
结尾:
无论立场如何,有一点是共识:AI不是[中性技术],它的发展方向,取决于人类的选择。
施密特和李飞飞的辩论,不是为了给出答案,而是为了让我们思考:当超级智能真的到来时,我们想成为什么样的人类?我们想构建什么样的世界?
这个问题,没有标准答案,但每个人的选择,都会决定最终的结果。
部分资料参考:AI深度研究员:《李飞飞 vs 施密特:超级智能,3年之内?还是远未开始?》,DeepTech深科技:《辛顿等人再为[超级智能]踩刹车,超千名公众人物联署公开信》,红熊AI:《李飞飞与谷歌前CEO激辩超级智能:3年降临,还是从未真正开始?》










