编译 | 江宇
编辑 | 漠影
智东西6月11日消息,在WWDC 2025的媒体采访中,苹果高管Craig Federighi和Greg Jozwiak(Jaws)坦言,Siri的下一个版本需要重新架构,原计划一年上线的功能将推迟至2026年。
这是苹果首次正面回应Siri为何难产,以及Apple Intelligence整体战略的节奏安排。
一、Siri架构重建,决定全面转向V2架构
苹果软件工程高级副总裁Craig Federighi和全球市场高级副总裁Greg Joswiak首次系统回应了外界关切的Apple Intelligence战略与Siri演进问题。
Craig直言不讳地承认,Siri当前版本(即V1架构)根本无法满足客户的期望,也达不到Apple的标准,这一架构已被团队内部“基本放弃”。
虽然在WWDC现场展示了Siri的一些新能力,但那并非基于新架构的产品,而是在旧有V1架构上推出的一次升级。
这次升级所包含的Siri体验改进,主要集中在以下几个方面:
更好的对话理解(语流):Siri能更好地理解用户在对话中可能出现的错误或自我纠正。全新的视觉界面:提供了更美观、更现代的用户界面。支持打字与Siri交流:用户现在可以通过键盘输入文字与Siri进行交互。更强的Apple产品知识:Siri在理解和回答关于Apple产品相关的问题上表现得更出色。Craig表示,团队去年曾尝试在原有基础上继续改进,但发现“花了很多时间,效果仍不理想”。
因此,真正的系统级变革将来自V2架构。Craig透露,V2架构是一个“更深度的端到端架构”,并且并非完全从零开始,而是基于V1架构的积累,将其“扩展到整个Siri体验,使其成为一个纯粹的架构”。
它意味着V2架构将成为Siri整个体验的底层基础,而不是像V1那样可能是一个局部或附加的解决方案。Siri的所有智能和功能都将围绕这个核心架构来构建和运行。
首先,是通过应用程序意图调用设备上更广泛的操作。简单来说,Siri将能更好地理解并执行那些涉及多个应用或复杂步骤的指令。
在V2架构下,Siri将能识别出你的“应用程序意图”,即理解你想要执行“查找照片”、“格式转换”和“发送邮件”等一系列任务,“更广泛地操作”你的设备,自动调动并串联起“信息”、“照片”、“文件”和“邮件”等多个应用或系统功能,一步到位地完成这个复杂任务,而不再仅仅是执行简单的、预设好的单一指令。
其次,是利用个人知识进行语义索引。这意味着Siri不仅能听懂你说的话,还能理解设备上所有私人信息。
它会利用“个人知识”,即你设备上所有的数据——包括邮件、信息、备忘录、照片等——进行深入的“语义索引”。这让Siri不仅能识别出“播客”这个词,还能理解问题背后的深层含义,然后智能地在所有个人数据中进行关联和查找,无论是邮件正文、聊天记录还是其他应用内容,从而准确地找到用户想要的信息。
当被问及“是不是还要等一年用户才能用上新Siri”时,Craig回答:“那正是我们说的意思。”这正式确认新架构Siri将于2026年才可能面向公众推出。
Craig强调:“Apple的原则是:当我们推出某个产品时,它必须足够好。”他明确表示,不会“偷跑”上线未成熟的系统,V2架构必须通过严格的内部质量门槛,才会正式发布。
这也意味着,当前发布的Siri更新更多属于过渡性质,真正意义上的升级将在2026年到来。
二、Apple Intelligence不会是聊天机器人,追求“用时即现”
Craig和Joswiak提到,今年Apple Intelligence带来的是“具体可用的智能”,而不是抽象的AI概念。
面对业界对“Apple是否准备与ChatGPT、Gemini正面竞争”的疑问,Craig明确指出,Apple并不将Apple Intelligence定义为聊天机器人。
Siri的愿景从不是一个“聊天工具”,而是一个可以通过语音和上下文理解来辅助用户完成任务的系统。
他强调:“我们并没有将Apple Intelligence定义为我们的聊天机器人,也不是将它视为一个聊天应用。我们把它视为在我想做的地方,帮助我做我想做的事情。”这种理念也体现在Apple Intelligence的多个设计细节中。
例如,通过语音调取应用、理解上下文、调度快捷指令等功能,并非依赖纯对话逻辑,而是围绕实际操作需求设计的多模态交互系统。
值得注意的是,Apple Intelligence并非完全基于云端大模型,而是采用本地模型优先策略。
Apple向开发者开放了设备端的LLM框架,支持在iPhone或Mac本地运行特定推理任务,允许Swift直接调用模型能力。
这意味着第三方App开发者可以直接调用本地模型进行识图、识物、语义分析等功能,而非必须依赖远程云模型服务。
Apple还指出,必要时可调用私有云或OpenAI模型,处理超出设备性能的复杂任务,形成“本地优先+私有云+第三方API”的混合智能体系。
结语:Siri难产,AI转身,苹果承认它来晚了
苹果在一定程度上给外界释放出信号:苹果正在推翻旧Siri,重做一遍。
与此同时,苹果也在刻意避免“做一个聊天机器人”。它的AI不追求大模型对话能力,而是要深嵌入系统和设备,成为“用时即现”的任务助手。苹果没有否认自己在AI上的落后。Craig提到:“当V2准备好后,我们不会让用户等太久,但在此之前,我们也不会贸然发布。”
来源:YouTube
发布于:北京
相关推荐
苹果重启LLM Siri项目,将对Siri进行彻底重构
知名爆料人:苹果AI推进受阻 对话式Siri要到2027年才能推出
苹果AI,遥遥落后?
苹果为其员工收听Siri录音道歉:不再保留Siri互动录音
小i机器人再告苹果:Siri侵权
古尔曼:具备苹果AI的Siri有望明年1月推出
终于,苹果也知道Siri有多烂了
苹果AI新功能体验平淡 外媒质疑换皮Siri
苹果iPhone 14或将完全重新设计,2022年取消mini机型
Siri跌倒,苹果吃饱
网址: 苹果首次承认Siri架构落后,将彻底推倒重新设计 http://m.xishuta.com/newsview137250.html