在AI领域,Ilya Sutskever的名字几乎等同于“未来趋势”。
Ilya Sutskever,是OpenAI的联合创始人及前首席科学家,他是深度学习“教父”Geoffrey Hinton 的得意门生,也是推动GPT系列模型问世、引爆此轮AI浪潮的关键人物。经历了2023年底的OpenAI内部风波后,他于2024年毅然离开,并迅速创立了以实现“安全超级智能”为唯一目标的全新公司SSI。
近日,Ilya Sutskever在最新访谈中,系统地分享了他对 AI 当前进展、未来路径乃至通用人工智能(AGI)与超级智能的深刻思考,迅速引发了全球科技界的广泛关注。
纵观整场访谈,Ilya 的核心洞察集中回答并深入剖析了以下四大关键问题,让我们逐一探究。
Q1:为什么模型“看起来很强”,但“用起来很傻”?
AI模型存在一个核心矛盾:一方面,AI在评测上的分数越来越高,看起来无所不能;另一方面,它真实的经济影响力和实用性,却远远没有跟上。
Ilya 认为这有两个原因:
RL(强化学习)的诅咒:
当前的强化学习训练,可能使模型变得“过于专注”且“目光短浅”。
人类在“奖励黑客”:
Ilya 认为,为了让模型发布时“跑分”更好看,研究人员设计了大量针对性的训练任务。这种以评测为导向的训练造就了系统性偏差,使得模型“高分低能”。
现在的AI就像一个疯狂背诵了10000道题的学生,你考他题库里的原题或相似题型,他几乎能拿满分。可一旦让他去解决一个从未见过的复杂项目,他会立马傻眼,为它只会生搬硬套,却缺乏真正的推理和判断力。
而人类,虽然“刷题储备量”远远不及AI,却拥有很强的“常识”和“判断力”,通过灵活运用知识,举一反三,从而真正解决问题。
这就是当前AI的最大问题:研究人员们善于制造“应试专家”,却不知道如何培养拥有真正理解力和判断力的“通才”。
Q2:规模化(Scaling)为何行不通了?
这是访谈中最具冲击力的论断。Ilya 宣告,过去几年AI发展的“黄金法则”,“规模化”(Scaling)即将失效。
他将 AI 发展划分为两个阶段:
研究时代(2012年-2020年):
这是一个充满奇思妙想的时代,从AlexNet到 Transformer,各种创新架构层出不穷。
规模化时代(2020年-2025年):
以 GPT-3 为标志,行业突然发现“大力出奇迹”,大家找到了一条低风险、高回报的明确路径:投入更多数据、更多算力,就能获得更好的模型。
为什么这条路现在走不通了?
因为高质量的数据是有限的,而现在研究人员们几乎快要“喂”完整个互联网了。因此,Ilya 认为,未来即使将规模再扩大100倍,也不会带来我们期望的质变。
在“规模化时代”,所有 AI 公司要做的就是比谁的挖掘机(算力)更大、更多,挖得越快,淘到的金子就越多。
而现在,这片金矿几乎被挖光了。当所有人都挤在同一个枯竭的矿坑里,再去比挖掘机马力已毫无意义,因此行业必须重返研究时代。
未来几年的竞争,将从“资源竞赛”转向“范式突破竞赛”,即由创意驱动的全新产品竞争模式。

图源:Ilya Sutskever访谈截图
Q3:当“超级AI”开始持续学习,如何确保它不失控?
当“规模化”效应不再,行业必须转向“研究”的新航路。Ilya认为,这条新路的核心在于让AI真正学会“持续学习”。
但这会带来比“模型很傻”更严峻的新挑战:当AI被大量部署,成为“持续学习者”后会发生什么?
Ilya 的推演是:它们将学习人类经济中的所有工作,最关键的是它们还可以快速融合彼此的经验。
比如,一个 AI 学会了做外科手术,另一个 AI 学会了开飞机。然后它们可以通过合并数据“瞬间合体”,变成一个同时精通手术和飞行的“超级个体”。而真正的人类,往往需要花费一生才能精通一门学科。
这样的模式之下,该如何确保AI安全可控?
Ilya提出了两个核心观点:
方法:增量部署
即不要把超级AI关在实验室里,直到造出一个完美安全的超级 AI 再发布。而是应该有控制地、一步一步地把越来越强的AI系统部署(发布)到现实世界中。只有让力量“可感”,才能警醒人类,让全人类真正地严肃对待 AI 安全问题。
目标:关爱有情生命
Ilya认为AI的缺点之一就是缺乏人类的感情,当AI本身就不具备这种特质的情况下,去强迫AI关爱人类,可能并不容易实现。在这个基础上,或许只有基于同理心建设帮助AI获得以情绪驱动的决策能力,就像人类的镜像神经元让我们能对动物产生共情一样,让AI作为一个“有情生命”去关爱包括人类在内的其他“有情生命”。这个良性的开端,有利于在很长一段时间内确保AI安全。
Q4:AI时代,人类的终局是什么?
Ilya在访谈中明确否定了一种看似美好的未来:即每个人都拥有一个AI助手来为自己“包办”一切。他认为这种状态是危险的,因为在这条路上,人类就失去了对事务的理解和参与,变得极其被动和脆弱。
要避免被动的局面,Ilya提出了一个他自己并不喜欢,但可能是唯一的长期均衡方案:人类自身也成为“超级智能”的一部分。
即通过某种神经连接设备成为部分AI,将AI的理解和认知能完整地传输给人类,这样才能真正与超级智能同步进化,这也是唯一能让人类保持“完全参与”的方式。

Ilya Sutskever 的访谈,不仅是一份 AI 领域的技术蓝图,更是一份关乎人类命运的终极警示录。他以科学家特有的冷静和务实,回答了我们对超级智能时代的恐惧与期望。
他的核心警告在于:当具备持续学习、经验融合能力的超级AI出现时,我们面对的将不再是“技术能否实现”的问题,而是“人类在技术浪潮中如何立足”的问题。
当前,我们正站在新的起跑线上,这场竞赛的目的,不再是单纯地让 AI 变得更强,而是确保人类能与这份力量共存,并持续保持自己的主体地位。
面向未来,或许人们必须抛弃对“全能AI”的迷恋与依赖,保持学习,保持思考,保持与世界最前沿技术与认知的连接。只有这样才能在超级智能的浪潮中,找到一条通往长期、良性均衡的未来之路。
AI 正在重返研究时代,而我们,也必须重返学习的本质。

