一句话版本。 过去两年 Agent 研究更像一场工程竞赛——谁的推理链更长、谁的工具箱更大、谁的 workflow 更复杂。但 Agent 的下半场不再是拼花活,而是把它变成一门科学:不仅问"它 work 不 work?",更要问"它为什么 work,以及什么时候才应该这么做?"这篇文章想聊聊我们在 ICML 2026 提出的 Theory of Agent (ToA)——以及它如何解释当下最前沿的长上下文、推理模型、工具使用 RL 背后那根共同的主线。
Theory of Agent (ToA) 是由爱丁堡大学联合普林斯顿大学、UIUC、西北大学、香港中文大学共同提出的智能体统一理论,已被 ICML 2026 以 Position Paper 的形式接收,并获得了审稿人"在计算机科学与工程这种普遍缺乏理论的学科里,这是一项非常令人印象深刻的工作"的评价。

Project Homepage: https://hrwise-nlp.github.io/assets/websites/theory-of-agent/
Arxiv: https://arxiv.org/abs/2506.00886.pdf
作者团队覆盖了当前 Agent / LLM 研究的多条主线——从 ReAct 式推理与工具使用,到 RL 对齐、世界模型、科学发现智能体——这份工作也正是这些主线汇聚后的一次尝试:把 Agent 从一套工程技巧,变成一门可以被推理、被证伪、被累积的科学。
想象同一套试卷发到两个学生手里。
两份卷子批改下来,都是 100 分。老师如果只看分数,这两个人是一样的。但只要你当过老师,或者自己读过书,你就知道这两个人一学期之后的差距会非常大:
两份满分,两条命运完全相反的成长曲线。
⚠️ 先澄清一个常见误解:这个故事里绝不是说"同学 A 不会用搜索引擎"或者"用工具是坏事"。恰恰相反——A 也可以、也应该在需要的时候用工具(考试是比喻,真实世界里的 Agent 当然会遇到靠自己无论如何答不出来的题,这时候必须调用外部信息)。
真正的关键是:能靠自己答对的题,就不必为了省事而默认抄答案。工具该在"靠自己不够"的时候上场,而不是在"根本还没试过"的时候就被默认触发。至于"什么叫靠自己不够""什么叫真正必需",正是后面要花篇幅讲清楚的事——我们会把它精确成一个叫知识边界(knowledge boundary)的东西。