本文来自微信公众号:机器之心 (ID:almosthuman2014),作者:机器之心
真正的智能在于理解任务的模糊与复杂,Context Scaling是通向AGI的关键一步。
2024年底,Ilya Sutskever断言「我们所知的预训练时代即将终结」,让整个人工智能领域陷入对Scaling What的集体追问之中。
新的思路不断涌现:推理时扩展(Test-Time Scaling)让OpenAI的o系列在数学推理上大放异彩,DeepSeek-R1通过GRPO替代PPO实现了强化学习的突破,强化学习Self-play+LLM让AI在游戏和代码生成中展现惊人能力,Agent化路径则催生了能够操作浏览器、调用工具的新一代智能助理……每一条路都在探寻可能的下一个跃迁。
在这场技术探讨中,复旦大学/上海创智学院的邱锡鹏教授提出了一个耐人寻味的新路径——Context Scaling。与参数规模、数据量、推理计算等扩展路径不同,Context Scaling的核心,不在于更大,而在于更「深」:如何让AI真正理解并适应复杂、多变、模糊的情境(Context)。
在与机器之心的最新一次对谈中,邱锡鹏教授系统阐述了他对AI发展的洞察:从预训练扩展到后训练优化,再到情境智能(Contextual Intelligence)的深层转变。
AGI三幕演进
从参数堆叠到情境理解
邱锡鹏教授将大模型的演进总结为一个核心公式:
大模型的核心是提升给定情境(Context)条件下模型决策(Decision)的准确性,需要从大量数据中学习模型参数θ。
第一幕是模型规模化的胜利。通过堆叠数据与参数,将已发现且可描述的知识「压缩」,找了很好的模型参数θ,实现了LLM在通用任务上的跃升。这一阶段诞生了ChatGPT、MOSS、Qwen等代表性的通用模型。但随着数据见顶、参数规模收益递减,业界普遍意识到:简单加法已无以为继。
第二幕则是后训练优化的探索,包括推理增强、知识具象化等方向,这一阶段的核心目标是通过引入类人的问题求解过程继续提升大模型解决复杂问题的决策能力(Decision)。强化学习、工具调用、思维链、多模态成为关键词,代表性成果包括GPT o1/o3、DeepSeek-R1、AnyGPT等。
在第一幕和第二幕发展到一定阶段,如何定义情境(Context)就成为继续提升模型能力的关键因素,也是大模型落地应用中最具挑战的一环。很多模型无法正确决策的主要原因是对任务或者情境的描述不够。目前,当遇到难以描述或难以定义的问题或任务时,现有方法都显露出局限性。例如,如何让AI理解一个微妙的社交暗示?如何在文化差异巨大的环境中做出恰当判断?如何处理那些无法用明确规则定义的复杂交互?这些「暗知识」构成了人类智能的核心,却是当前技术的盲区。
接下来的第三幕Context Scaling,旨在解决上述问题,并由此实现「情境智能」。这一阶段关注的,让AI能够理解并适应足够丰富、真实、复杂、多变的情境信息,从而在模糊不清的世界中作出合情合理的判断。
Context深层内涵
捕获难以描述的「暗知识」
在邱锡鹏教授的定义中,Context远非当前大模型所使用的「上下文窗口」那么简单,它是一种多维、动态、跨模态的信息结构,其中可能包含时间信息、空间信息、参与者状态、目标意图,甚至是未明说但语境暗示的文化规则与人际默契。
最关键的,是Context Scaling对「暗知识」的捕获能力。所谓暗知识(Tacit Knowledge),指的是那些人类习得但难以清晰表述的能力,包括但不限于:
社交智能:如何解读一个眼神、一个停顿、一个语调的变化
文化适应:在不同文化背景中如何适当行事,理解未说出口的社会规则
情境判断:同样的话语在不同情境下的不同含义
动态适应:在变化的环境中持续调整策略和理解
举例来说:当一个人说「不要」,只有身处完整情境,AI才能判断这句话是真正的拒绝、玩笑,还是一种反向请求。在多模态、多轮对话、现实互动任务中,这种差别往往决定智能的成败。
正是这些难以言述的隐性知识,构成了人类智能的底色。而AI若能通过Context捕获这些结构模糊、路径多变的信息,将实现真正意义上的智能突破。
同时,这也是对AI安全发展的核心考量。一个耳熟能详的例子是「回形针悖论」——当大模型仅仅按照生产更多回形针的目标行事时,可能会不择手段地获取资源,最终威胁人类社会。Context Scaling通过让AI理解复杂的社会情境和隐含价值观,能够在没有明确禁令的情况下,基于对情境的深度理解,做出符合人类价值观的判断。
三大技术支柱
交互、具身、拟人化
邱锡鹏教授表示,Context Scaling之所以能成为一个独立的技术路径,源于它拥有独特的三项能力支柱:
1.强交互性(Strong Interactivity)
情境智能的本质,在于「从交互中学习」,这包括两个层面,一是与环境的强化学习交互,AI需要在复杂环境中行动、观察反馈、调整策略,但Context Scaling要求更深层的交互——不仅要学会如何行动,更要理解为什么这样行动。
二是与人类的多模态协作,包括语言澄清、任务讨论、情绪共鸣等。当前Gemini Deep Research等助理已经能够询问用户的具体需求,但Context Scaling要求AI能够理解用户的情绪状态、文化背景,甚至未说出口的期望。只有能不断从互动中汲取信息的系统,才具备面对复杂情境的应变能力。
2.具身性(Embodiment)
AI要能交互,要理解所处世界,意味着智能体必须具备「主体性」,这样才能感知、行动、记忆与学习。但这并不意味着必须具备现实物理世界的完整身体,虚拟环境中的持续任务、AR场景中的决策代理,也是对这一理念的试验场。
3.拟人化(Anthropomorphizing)
这是Context Scaling独有的特征——AI需要具备类人的情感共鸣和反馈能力。这不是简单的情感模拟,而是对人类偏好和行为模式的深度理解,比如理解和回应人类的情绪状态,掌握复杂的人际交往规则,懂得何时保持距离、何时表达关心,以及具备文化敏感性,知晓在不同文化背景下调整交互方式和价值判断。
为了实现上述三点,Context Scaling要求模型具备持续学习的能力。不同于传统的持续学习,情境智能的持续学习能力更强调在模型参数相对固定的情况下,通过Context的积累和更新,实现能力的持续提升。换句话说,是在使用过程中持续积累经验、调整策略。「这也更像是人类的成长与发展,在先天基因确定的情况下,通过后天学习以及不断适应新的环境,根据具体情境调整行为策略。」
要让Contextual Intelligence成为现实,技术上面临几大挑战:
模型结构的突破:现有Transformer架构在长上下文处理上的效率受限,要支持多模态、交互式、动态变化的情境输入,模型架构本身可能需要根本重构。
学习范式的转变:从传统监督学习到交互式、持续式的弱监督、多反馈学习,以及在新情境中快速适应的元学习能力,Context Scaling所需的训练目标与损失函数正在重塑AI学习本质。
复杂情境的定义与构建:复杂情境难以靠人工构建,也无法通过真实世界逐一采集。大规模情境数据的生成,需要借助AI自身合成场景、任务、交互脚本的能力。
邱锡鹏教授强调,Context Scaling是并非替代其他Scaling路线,而是对其构成补充与整合。例如,Test-Time Scaling关注输出阶段的计算效率,Context Scaling关注输入的质量与结构,两者是正交互补的,更丰富的上下文信息能够为推理时计算提供更好的基础。
与Agent路径相比,Context Scaling更多对任务定义层的重新设想,它强调的是智能体理解复杂情境的核心能力,这种能力可以通过各种Agent架构来实现,但其本身超越了具体的工具使用和任务执行。
Context Scaling也为强化学习提供了新的环境定义,不再是简单的状态-动作-奖励循环,而是包含丰富情境信息的复杂交互空间。
通往AGI的关键一步
「在大模型时代,如果研究只是在已有路径上做微调,那将失去方向感。」邱锡鹏教授说:「研究者需要去定义那些“大家都意识到但没人清晰表达”的问题。」
在这场Scaling What的集体探索中,Context Scaling将推理增强、多模态融合、强化学习等看似分散的技术路径统一在「情境理解」这一核心目标之下。智能的本质,也许就在于面对复杂世界时那份模糊中的准确、不确定中的判断、冲突中的协调。这个意义上,Context Scaling不仅是大模型发展的下一幕,更可能是通向AGI的关键一步。
相关推荐
复旦大学/上海创智学院邱锡鹏:Context Scaling,通往AGI的下一幕
为什么OpenAI可以跑通所有AGI技术栈?
亮相世界人工智能大会 “大模型”有哪些大本领?
智谱野心藏不住了
36氪首发 | 专注金融领域NLP+OCR文本应用,「犀语科技」获数千万元 A 轮融资
曝OpenAI 本周发布重磅Agent 功能,字节宣布启动AGI 计划,这可能是最卷的一年
ChatGPT刚满两岁,中美 AI 大模型就将进入“竞逐战”|钛媒体AGI·2024大复盘
2025·我们共同的新期待①
OpenAI与DeepMind的Scaling Laws之争
留住看过的每一幕精彩,「飞幕」要做“有品位”的影视PUGC社区
网址: 复旦大学/上海创智学院邱锡鹏:Context Scaling,通往AGI的下一幕 http://m.xishuta.com/newsview137471.html