Demis Hassabis 这场访谈里最容易被传播出去的,是那个明确的时间判断。他认为,在未来五年内出现达到人类认知水平的 AGI,有很大概率会发生。这句话足够醒目,也足够符合今天的舆论节奏。但如果只记住这个结论,反而会错过整场对话里更有价值的部分。Hassabis 真正反复强调的,并不是一个带有戏剧性的时间点,而是一套仍然在推进中的技术路线图。

这套路线图的核心并不复杂。第一,现有体系还远没有走到极限,尤其在算力和规模扩展上,收益虽然不如最初那样陡峭,却依然十分可观。第二,单靠继续放大现有架构,并不能自然抵达通用智能。第三,AI 的最终价值不应只停留在更强的聊天系统或更顺滑的产品体验,而要落到能够改变科学发现速度的能力上。把这三点连起来,Hassabis 的立场就比表面上的“AGI 五年论”清楚得多。

关于算力,他提供了一个很重要的视角。算力当然是扩大模型规模的燃料,但它更像研究团队的实验台。很多外部讨论会把算力理解成一种简单的规模堆叠,仿佛它只服务于参数数量和训练成本。Hassabis 的说法更接近实验科学的现实。研究者提出一个新算法,真正困难的地方并不是把想法写下来,而是把它放到足够合理的规模上验证。如果实验环境不足,很多潜在有效的想法根本没有机会被证伪或证成。算力因此不只是资源问题,它直接决定了一个实验室能以多快速度筛选错误、保留有效方向。

这也解释了为什么他仍然坚持缩放法则没有见顶。今天不少人已经开始把“scaling 失效”当成新共识,但 Hassabis 的判断更克制。他承认边际收益正在下降,早期那种每一代都带来巨大跨越的阶段已经过去,但这和走到天花板是两回事。只要继续增加算力、数据和工程能力,模型仍然能够稳定获得显著提升。这种说法其实透露出一个更重要的行业判断:下一阶段不是规模扩展失去意义,而是规模扩展从“唯一叙事”变成“基础条件”。它不再自动带来惊艳感,却仍然是所有前沿实验室必须持续投入的底盘。

真正决定下一步的,是他点出的那几个缺口。Hassabis 用了一个很准确的词来描述当下模型的状态,叫 jagged intelligence,也就是一种参差不齐、局部极强、整体不稳定的智能。今天的系统可以在某些任务上表现得令人惊讶,却会在稍微改写表述、拉长时间跨度、引入长期约束之后迅速失稳。这种不平整性,决定了现有模型距离通用智能依然有明显结构差距。

他给出的三个关键方向值得反复看。持续学习排在前面,因为现在的大模型本质上仍然是一次性训练完成后再投入使用的系统。它们可以被追加微调、可以用检索增强、可以借助外部记忆装置补足上下文,但它们还没有真正获得像人类那样在部署中持续吸收新知识、再把新知识稳妥整合回原有认知结构的能力。这个问题表面上是学习机制问题,往深里看其实涉及模型是否能够拥有稳定的经验积累过程。没有这一层,所谓长期智能始终会显得脆弱。

第二个方向是记忆。今天很多产品把长上下文窗口当成进步的主要指标,但 Hassabis 显然不满足于这种线性扩张。上下文变长,能缓解一部分短期信息保留问题,却并没有真正解决记忆的组织、索引、更新和调用。真正成熟的智能系统,需要一种比“把更多 token 塞进去”更优雅的结构。它必须知道什么信息值得长期保留,什么信息只属于局部任务,什么信息应该在未来特定时点被重新唤起。这已经不再是简单的语言建模问题,而是系统架构问题。

第三个方向是长期规划。当前模型可以做局部推理,也可以模拟分步思考,但当任务被拉到数周、数月甚至更长时间尺度时,能力会明显下降。规划的难点不只是推导出一个路径,更在于分层地管理目标、约束、资源和中间状态。一个真正可靠的智能体,必须能够在长时间跨度内保持策略一致性,并在外部环境变化时重新调整路线。Hassabis 把这一点视为通向 AGI 的必要条件,这是合理的。因为没有长期规划,系统再强,也更像一个反应迅速的局部优化器,而不是一个能够稳定参与复杂现实世界的通用智能体。

如果从产业竞争的角度看,这几个判断其实意味着一件事:接下来真正拉开差距的,不会只是模型规模本身,而是实验室发明新算法的能力。Hassabis 在访谈里把这件事说得很直接,过去那一套方法已经被充分榨取,未来几年,能够提出新算法想法并把它们验证出来的团队,会获得更大的领先优势。这个判断很重要,因为它把行业叙事从“谁的集群更大”推进到了“谁还能继续产生原创性结构突破”。

也正是在这里,DeepMind 的自我定位变得清晰起来。Hassabis 反复强调 Google Brain、Google Research 和 DeepMind 在过去十多年里积累出的研究资产。这种表述当然有很强的立场性,但他想说明的重点并不难理解。对于一家前沿实验室来说,真正重要的不是某一代模型是否暂时领先,而是有没有持续制造突破的制度、文化和人才密度。Transformer、强化学习、AlphaGo、AlphaFold 这样的项目,形成的并不只是单点成果,它们定义了一种研究组织的惯性。DeepMind 希望向外界传递的,就是它仍然把自己看作下一轮原创性突破最可能出现的地方之一。

不过,这场访谈里最值得重视的部分,仍然是他对科学的强调。很多 AI 公司谈未来时,会把主要想象力放在生产力工具、搜索、办公自动化或消费者产品上。Hassabis 的兴趣显然更集中在科学与医疗。他提到 AlphaFold,也提到 Isomorphic Labs 正在推进的药物研发平台。这里的重点不是“AI 可以帮助做科研”这种已经相当宽泛的说法,而是他真的把 AI 当作加速发现流程的基础设施看待。

这背后隐含着一个很有力量的判断。过去几十年,很多科学领域的推进速度受限于实验周期、变量空间过大、试错成本过高。AI 的价值,恰恰在于它可能大幅压缩这类探索过程中的搜索成本。蛋白质结构预测之所以重要,不只是因为它解决了一个著名难题,更因为它示范了 AI 如何在一个高复杂度科学问题上重构研究路径。药物设计、材料发现、电池、超导、气候建模,之所以不断被提起,也都属于同一类问题:系统太复杂,人类研究者的直觉和试验能力不够,必须引入更强的模式发现和搜索机制。

这也让 Hassabis 对能源和宏观经济的判断显得没那么空泛。他提到电网效率、气候模型、融合能源、电池和新材料时,核心逻辑并不是“AI 会让一切都更好”,而是 AI 能在那些高复杂度、强约束、强反馈的系统中提供新的优化手段。这个视角比消费级叙事更硬,因为它要求模型真正接触物理世界、工业系统和科学规律,而不是只在文本空间里表现得流畅。

从这个角度再回看 AGI 的意义,整场访谈的落点其实非常清楚。Hassabis 当然关心 AGI,也愿意给出乐观时间表,但他真正期待的并不是一个抽象的智能里程碑,而是一个足以推动科学进入新阶段的通用能力系统。对他来说,AGI 的价值最终需要通过现实世界中的发现能力来证明。能不能更快设计新药,能不能更高效优化能源系统,能不能更深入理解生命和材料,这些问题比“模型像不像人”更接近长期价值。

这也是我看完整场访谈之后最大的感受。今天很多关于 AGI 的讨论,都太容易停留在竞赛式叙事里,谁先实现,谁领先多少,谁拥有最大的训练集群,谁又说出了最激进的时间表。Hassabis 这场对话里更重要的信息,是他仍然把 AGI 视作一条科学工程路线,而不是一场单纯的市场情绪竞赛。算力、算法、记忆、持续学习、长期规划、科学应用,这些元素被放在了一条相对连贯的链条上。

如果这个判断成立,那么未来几年真正值得关注的,也许并不是哪家产品又多了几个功能,而是哪家实验室开始在这些更底层的问题上出现实质性突破。规模扩展依然会继续,模型能力也会继续提高,但行业下一阶段的决定性分水岭,多半出现在那些目前仍显得笨重、脆弱、缺乏连续性的地方。谁先把这些短板补成系统能力,谁就更接近 Hassabis 所说的那种通用智能。

而在那之前,科学仍然是最好的检验场。因为只有在科学问题上,AI 才很难靠表面流畅蒙混过关。它必须给出可验证的结构、能落地的推断、可复用的发现路径。对于任何真正严肃的 AGI 路线来说,这恐怕都是绕不过去的一关。