AI芯天下丨产业丨从施密特对话李飞飞,看[超级智能]的产业节点与技术边界

IP归属:广东

文章AI导读

一键萃取文章精髓,核心观点即刻呈现

前言

近日,沙特利雅得的FII峰会现场,目光都聚焦在舞台中央的两个人身上。

前谷歌CEO埃里克·施密特,这位见证了谷歌从搜索巨头成长为AI领军者的科技老兵;以及斯坦福AI实验室创始人李飞飞,被称作[AI教母]、用ImageNet推动深度学习革命的顶尖学者。

这场对话早已超越了技术讨论的范畴,它更像一场关于人类未来的[思想对赌]。

作者| 方文三

图片来源|网 络

3年降临还是远未开始?节点之争藏着分歧

对话的起点,是一个看似基础却无解的问题:[超级智能到底是什么?它什么时候会来?]

施密特的答案带着科技圈特有的激进:[超级智能不是一个聪明的AI,而是比地球上所有人类加起来还要聪明的总和级智慧。]

他提到了[旧金山共识],硅谷有一群人坚信,这种智能会在未来3—4年内实现。在他看来,这早已不是[会不会来]的问题,而是[来得有多快]。

他的逻辑很直接,智能的核心是[能力堆积],既然AI已经能掌握几十种语言、记住无限知识,只要技术突破足够快,把知识堆到[超越全人类总和]的高度,超级智能自然会到来。

就像当年没人想到深度学习会颠覆图像识别,今天我们也可能低估了技术的复利效应。

但李飞飞却把话题拉回了更本质的层面。她没有直接否定施密特的时间预测,而是反问了一个灵魂问题:[AI能成为牛顿吗?能成为爱因斯坦或者毕加索吗?]

在她看来,智能从来不是[知识的堆砌],而是[在混沌中找到突破的创造力]。

今天的AI确实能处理海量数据,比如把所有行星运行数据喂给它,它能算出轨道,但永远没法像牛顿那样,从混乱的观测中[顿悟]出万有引力定律;就像把1902年之前的所有科学知识塞进计算机,它也推导不出相对论。

[真正的智能,是提出别人没问过的问题。]李飞飞的这句话,点出了两人分歧的核心,施密特看到的是[量的突破],而李飞飞关注的是[质的起点]。

缺失的[顿悟]与连续推理,暴露技术的硬边界

为了说清[AI成不了牛顿]的原因,施密特举了一个技术层面的例子:[今天的AI在推理时,不会像人那样反复思考。一个数学家证明了一个定理,会立刻用这个结论推导下一个问题,但AI不会,它记住了定理,却不会把它当成新的起点。]

这就是当前AI的核心盲点,没有[连续推理]能力。它可以完成单一任务,比如证明一个数学公式、翻译一段文字,但无法像人类那样,把一个结论[反馈给自己],形成迭代式的思考链条。

李飞飞则从另一个角度补充:[我们让AI处理过无数天体数据,但它从来没有主动问过这些行星为什么会这样转。而牛顿的伟大,恰恰是从为什么开始的,他没有停留在计算轨道,而是追问背后的规律是什么。]

换句话说,AI擅长[解决已知问题],却不会[发现未知问题]。它是高效的[执行者],却不是[探索者]。

这种局限,不是靠[堆算力]就能解决的,施密特自己也承认:[要让AI拥有顿悟能力,我们可能需要一次全新的算法突破。比如解决目标非平稳性问题。现在的AI都是围绕固定目标训练的,但创造力需要在过程中动态调整目标,这是当前技术做不到的。]

这也解释了为什么AI在数学、软件等封闭领域进展飞快。因为这些领域的规则固定、可验证,只要堆算力就能预测下一个词、推导下一个公式。

但在物理、生物等开放领域,需要跨领域联想、抽象思维时,AI就显得力不从心。

今天的AI,本质上还是一个[超级助理],它能整理信息、提高效率,却跳不出人类给它设定的框架。

而真正的超级智能,需要跳出框架,自己定义问题,这一步还没摸到门槛。

AI创造的15万亿财富,会只流向少数人吗?

主持人抛出了一个乌托邦式的设想:AI会不会带我们进入[后稀缺社会]?就像谷歌让知识免费一样,医疗、教育会不会人人可及?

施密特的回答给这场畅想泼了冷水:[这是个美好的想法,但现实可能没那么平均。]他提到了经济学里的[网络效应],越早用AI、资源越丰富的一方,越容易把优势变成垄断。

[每家用AI的公司,效率都会提升,财富也会增长。但这些财富会分给所有人吗?很可能不会。]

他举了沙特的例子:只要用AI优化10%的石油分销网络,这个国家就能节省数十亿美元;在医疗领域,AI能加快新药审批、降低试验成本,但这些收益只会属于那些[做得快、做得准]的企业。

最终的结果可能是,少数国家、少数公司、少数资本拥有者,会拿走AI创造的大部分财富。

IDC预测,到2030年AI将产生22.3万亿美元的经济影响,但这份蛋糕的分配,可能比我们想象的更不均衡。

李飞飞对此深表认同:[AI能提升全球生产力,但效率不等于共同繁荣。技术本身不会主动解决分配问题——它需要政策、地缘政治、社会机制的配合。]

最危险的,是那些[跟不上的群体],施密特点名了非洲:[那里缺乏稳定的政府、像样的大学、成体系的工业基础,已经落后很多年了,现在可能被甩得更远。]

就连欧洲,也因为能源成本高、融资难,连建设AI数据中心都困难重重,只能靠和阿布扎比这样的伙伴合作才能跟上。

[每个国家都该投资人才、技术和教育生态,不能靠别人。]李飞飞的这句话,既是提醒也是警告:在AI时代,[不行动]就等于[被淘汰]。

对国家而言,是要不要建数据中心、要不要培养AI人才;对个人而言,是要不要学习与AI协作、要不要提升不可替代的能力,这不是选择题,而是生存题。

从[搭档组合]到[人的尊严],人类会被边缘化吗?

当辩论触及最敏感的[人类角色]时,主持人的问题直击人心:[如果超级智能能做所有科学研究、经济决策,人类还剩下什么价值?]

施密特的答案很接地气:[20年后,我们还是会看人类体育比赛,哪怕机器人能100%击败我们。你去F1赛场,想看的是人类车手,不是自动驾驶汽车,人类永远对同类的潜能感兴趣。]

他提出了[人机搭档]的未来,不是AI取代人,而是人和AI一起做事。

[未来可能有两种比赛:人类之间的,AI之间的。但我们更关注的,会是人和AI共同完成了什么,比如医生用AI模拟手术,科学家用AI验证猜想。]

在他看来,人类的判断力、好奇心、审美,是AI永远学不会的,而这些恰恰是[创造价值]的核心。

李飞飞的态度则更坚定,带着一种人文主义的底线:[我们讨论超级智能时,绝不能忘记人的尊严和人的能动性。这个世界必须以人为中心,哪怕AI再聪明,决定权也必须握在人手里。]

她担心的,是[人类被边缘化]的风险,如果我们习惯了让AI做选择,习惯了让AI替我们思考,最终可能失去[作为人的主体性]。

两人的分歧在这里变得清晰,施密特更乐观于[AI能帮人做更多事],而李飞飞更警惕[AI会不会夺走人的主动权]。

但他们的共识更重要,无论AI多强,人类的核心价值。提出问题的能力、抽象思维的创造力、对尊严和意义的追求,都是不可替代的。

就像爱因斯坦说的,[科学的精髓在于提出正确的问题]。AI能解决问题,但永远没法像人类那样,在混沌中找到[该问什么],这才是人类之所以为人类的根本。

超级智能是失控悬崖还是泡沫前夜?

就在施密特和李飞飞辩论的同时,AI行业内部正陷入一场更激烈的分裂。

2025年下半年,非营利组织[生命未来研究所]发起了一封公开信,呼吁[在达成广泛科学共识和公众支持前,禁止超级智能的开发]。

签名名单让人震惊,[AI教父]辛顿、本吉奥,苹果联合创始人沃兹尼亚克,维珍创始人布兰森,甚至哈里王子夫妇、前美国国家安全顾问赖斯。

横跨科技、政治、文化领域的超千人,都在警告超级智能的风险。

[它可能带来经济崩溃、人类失控、公民自由丧失,甚至人类灭绝。]公开信里的措辞严厉,直指当前AI实验室的竞赛心态,OpenAI、Meta、xAI都在争相开发[超越人类的智能],却没人能保证安全。

但另一边,技术乐观派的反驳同样尖锐,Meta首席AI科学家杨立昆批评那些[一边警告风险、一边造系统]的同行[理智不诚实],他认为当前的大型语言模型被严重高估,[连AGI都没摸到,谈何超级智能威胁?]

《人工智能:一种现代方法》作者斯图尔特·罗素则担心[膨胀的预期会引发泡沫破灭],就像当年的互联网泡沫一样。

这场分裂,本质上是[未知的恐惧]与[技术的信心]的碰撞,有人怕步子太快掉进悬崖,有人怕停下脚步错过未来。

尾:

无论立场如何,有一点是共识:AI不是[中性技术],它的发展方向,取决于人类的选择。

施密特和李飞飞的辩论,不是为了给出答案,而是为了让我们思考:当超级智能真的到来时,我们想成为什么样的人类?我们想构建什么样的世界?

这个问题,没有标准答案,但每个人的选择,都会决定最终的结果。

部分资料参考:AI深度研究员:《李飞飞 vs 施密特:超级智能,3年之内?还是远未开始?》,DeepTech深科技:《辛顿等人再为[超级智能]踩刹车,超千名公众人物联署公开信》,红熊AI:《李飞飞与谷歌前CEO激辩超级智能:3年降临,还是从未真正开始?》

陀螺科技现已开放专栏入驻,详情请见入驻指南: https://www.tuoluo.cn/article/detail-27547.html

AI芯天下专栏: https://www.tuoluo.cn/columns/author1911711/

本文网址: https://www.tuoluo.cn/article/detail-10126534.html

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表陀螺科技观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

相关文章