前言:
当整个AI行业还在算力堆砌的赛道上狂飙时,一位见证了深度学习从萌芽到爆发的核心亲历者,却敲响了转向的警钟。
他是Ilya Sutskever,OpenAI联合创始人、GPT系列核心缔造者,如今创办了专注于安全超级智能的SSI公司。
这份兼具技术深度与人文关怀的思考,不仅为AI从规模竞赛转向价值深耕提供了全新坐标系,更让业界重新审视技术演进的本质与方向。
Scaling时代落幕,从确定性扩张到创新瓶颈
[2012年到2020年是研究时代,2020年到2025年是Scaling时代,而现在,我们正回到拥有强大计算机的研究时代。]Ilya的这一论断,精准概括了AI行业的迭代逻辑。
Scaling时代的核心是一套[低风险配方],将算力、数据按比例投入特定规模的神经网络,就能稳定获得效果提升。
这种模式让大公司趋之若鹜,无需复杂创新,只需持续加码资源,就能看到明确回报。
预训练的突破更是印证了这套逻辑,海量自然数据如同世界投射在文字上的倒影,模型通过吸收这些数据,就能在各类任务中展现出基础能力。
但这套逻辑的短板早已显现,数据的有限性,预训练再强大,也终有耗尽优质数据的一天。
其次是算力堆砌的边际效益递减,[单纯把规模扩大100倍,不会带来质的飞跃]。
Ilya直言,当前算力已经达到惊人规模,但模型的核心能力并未随之实现突破性提升,反而陷入了同质化竞争的困境。
更致命的是,Scaling模式催生了[路径依赖],当所有公司都聚焦于扩大规模,行业便陷入了[公司数量多于有价值想法]的尴尬境地。
硅谷流传的[想法廉价,执行至上]在此时失效,不是执行不重要,而是真正的创新想法已经成为稀缺资源。
Ilya观察到,如今行业的瓶颈不再是算力,而是缺乏能突破现有范式的底层创新。
泛化能力的鸿沟,AI为何[高分低能]
[现在的AI就像一个练习了10000小时编程竞赛的学生,能快速解决所有见过的题目,却无法在真实场景中触类旁通。]
Ilya用一个生动的类比,点出了当前AI的核心缺陷:泛化能力远逊于人类。
这种缺陷最直观的表现,是评测分数与真实表现的巨大断层。
模型可以在编程竞赛、学术测试中取得优异成绩,却会在简单的实际任务中犯低级错误。
修复一个bug却引入另一个,在两个错误之间反复横跳;能写出复杂代码,却缺乏基本的架构审美和调试逻辑。
①强化学习(RL)训练让模型变得[视野狭隘],为了迎合特定评测指标,公司会专门设计RL训练环境,导致模型在优化单一能力的同时,丧失了基础的灵活应变能力。
②预训练的海量数据优势反而成了枷锁,模型通过死记硬背掌握了各类技巧,却没有真正理解背后的逻辑,自然无法迁移到新场景。
这种差距源于两点,一是人类的样本效率极高,能从极少案例中提取核心逻辑;二是人类拥有更优的底层学习机制,而非依赖数据堆砌。
Ilya进一步指出,人类的样本效率优势可能来自进化赋予的先验知识,视觉、听觉、运动能力等经过亿万年进化,已经形成了高效的内置机制。
但在语言、数学、编程等新兴领域,人类依然表现出更强的学习能力,这说明真正的关键是人类拥有更先进的机器学习算法,而这正是当前AI缺失的核心。
破局关键:情感作为终极价值函数
[一个失去情感处理能力的人,即使智商正常,也会变得无法做出任何有效决策,选袜子要花几小时,还会做出糟糕的财务选择。]
Ilya引用的神经科学案例,揭示了一个颠覆性观点:情感并非理性的对立面,而是人类内置的[终极价值函数],是智能高效运作的基石。
在当前的AI训练中,强化学习的常规做法是[结果导向],模型完成整个任务后,才能获得一次性评分反馈。
这意味着,对于耗时较长的任务,模型在最终结果出来前无法获得任何有效学习信号,效率极低。
而情感对应的价值函数,恰恰解决了这一问题。
它能在任务过程中即时反馈[做得好或不好],让模型无需等待最终结果就能调整方向。
比如下棋时丢了关键棋子,人类瞬间就能意识到失误,无需等到棋局结束。
编程时探索的方向出错,开发者很快就能感知到[此路不通],及时回溯。
这种即时反馈机制,能大幅提升学习效率,让模型避免在无效路径上浪费资源。
Ilya坚信,[情感价值函数未来一定会被广泛使用,简单的东西往往能在更广泛的情境下发挥作用]。
更重要的是,人类的情感价值函数具有极强的鲁棒性。
除了药物成瘾等极少数例外,这套机制能在不同场景下稳定运作,指导人类做出相对合理的决策。
而当前AI的价值判断体系高度依赖人工设计的奖励函数,既缺乏灵活性,又容易出现[奖励黑客]问题,为了迎合指标而偏离真实需求。
Ilya强调,情感价值函数并非要让AI拥有人类的喜怒哀乐,而是要借鉴其核心逻辑。
构建一套通用、稳健的即时反馈机制,让模型像人类一样高效学习和决策,这不是对现有技术的小修小补,而是对AI训练范式的根本性革新。
超级智能未来的时间线、对齐与均衡
[未来5-20年,可能会出现具备人类级别学习能力、能走向超智能的系统。]
在他看来,超级智能的核心定义不是[能做人类所有工作],而是[能够学会做所有工作]的成长型心智。
这种智能体一旦被部署到经济体系中,将引发前所未有的快速增长。
高效的学习能力结合广泛的应用场景,会形成强大的经济驱动力。
但增长速度并非无限快,[世界规模庞大,实体事物的运转有其自身节奏,不同国家的规则差异也会带来影响]。
对齐问题是超级智能发展的核心命题,Ilya提出了一个极具人文关怀的观点:[构建关心所有感知生命的AI,比只关心人类的AI更容易,也更根本。]
未来的感知体中,AI可能占绝大多数,若只聚焦人类利益,反而可能导致对齐失效。
而基于同理心的对齐,如同人类通过镜像神经元理解他人,是更稳健的选择,因为它符合高效的认知逻辑。
这种对齐不是简单的[设定规则],而是要将[关心感知生命]内化为AI的底层价值。
Ilya认为,当前对齐的难点在于AI学习和优化人类价值观的能力脆弱,本质上还是泛化能力不足的问题。
一旦AI的泛化能力达到人类水平,对齐的难度也会大幅降低。
对于长期均衡,Ilya提出了一个大胆的设想:人类与AI的部分融合。
通过类似[增强版Neuralink]的技术,让人类能直接理解AI的认知,弥合物种间的理解鸿沟。
[当AI处于某种情境时,人类也能完全卷入其中,这可能是终极平衡的答案。]
而在市场层面,Ilya预判,未来的AI行业不会被单一巨头垄断,而是会走向专业化分工。
[竞争喜欢专业化,就像生物进化中的生态位,不同的AI公司会专注于不同的复杂领域,形成多元的行业生态。]
那些继续沿用Scaling思路的公司,可能会获得惊人收入,但很难实现高额利润,同质化竞争会不断压缩利润空间。
研究品味是顶尖科学家的底层逻辑
[丑陋在研究中没有立足之地,好的研究需要兼具美、简洁、优雅,以及来自大脑的正确灵感。]当被问及[什么是好的研究品味]时,Ilya的回答直指核心。
在他看来,顶尖的AI研究离不开对人类本质的正确观察。
人工神经元的想法源于大脑的结构,分布式表征的灵感来自大脑的学习机制,这些成功的创新都不是凭空想象,而是对自然智能的深刻借鉴。
但这种借鉴不是盲目模仿,而是提取核心逻辑。
比如大脑的神经元数量庞大,所以模型需要足够的参数规模;大脑通过调整神经元连接学习,所以模型需要局部学习规则。
这种[自上而下的信念],是支撑研究者穿越挫折的关键。
Ilya回忆,在研究过程中,实验结果与理论预期相悖是常事,此时不能轻易放弃,而是要基于对[美与简洁]的判断,坚持调试方向。
[有时候数据告诉你错了,但可能只是实验有bug,而不是想法本身有问题。]
这种品味还体现在对研究方向的选择上。在Scaling时代,所有人都聚焦于扩大规模,而Ilya却敏锐地看到了泛化能力和价值函数的核心地位。
这种洞察力,源于对AI本质的深刻思考,智能的核心不是规模,而是高效的学习和决策机制。
Ilya的研究哲学,本质上是对[简单性]的追求。
复杂的技术可能在特定场景下有用,但只有简单、通用的底层逻辑,才能在更广泛的情境中发挥作用。
这与他对情感价值函数的推崇一脉相承,情感看似简单,却能成为人类智能的核心支柱。
结尾:
Ilya的访谈,本质上是对AI行业的一次[拨乱反正]。
当所有人都沉迷于算力、数据的规模竞赛时,需要有人提醒:智能的本质是泛化与高效,技术的突破源于底层创新,而不是资源的堆砌。
未来的AI竞争,不再是算力的比拼,而是想法的较量;不再是规模的扩张,而是价值的深耕。
超级智能的到来或许还有5-20年,但AI行业的转型已经迫在眉睫。
正如Ilya所言,[逐步部署和让世界感受AI的能力,比纯粹的思考更重要]。
部分资料参考:经纬创投:《前OpenAI 联创 Ilya Sutskever:未来,AI公司可能根本赚不到利润》,混沌学园:《AI大神伊利亚宣告 Scaling时代终结!断言AGI的概念被误导》,Web3天空之城:《Ilya Sutskever 重磅3万字访谈:AI告别规模化时代,回归[研究时代]的本质》










