首页 > 科技快讯 > 苹果首次承认Siri架构落后,将彻底推倒重新设计

苹果首次承认Siri架构落后,将彻底推倒重新设计

智东西

编译 | 江宇

编辑 | 漠影

智东西6月11日消息,在WWDC 2025的媒体采访中,苹果高管Craig Federighi和Greg Jozwiak(Jaws)坦言,Siri的下一个版本需要重新架构,原计划一年上线的功能将推迟至2026年。

这是苹果首次正面回应Siri为何难产,以及Apple Intelligence整体战略的节奏安排。

一、Siri架构重建,决定全面转向V2架构 

苹果软件工程高级副总裁Craig Federighi和全球市场高级副总裁Greg Joswiak首次系统回应了外界关切的Apple Intelligence战略与Siri演进问题。

Craig直言不讳地承认,Siri当前版本(即V1架构)根本无法满足客户的期望,也达不到Apple的标准,这一架构已被团队内部“基本放弃”。

虽然在WWDC现场展示了Siri的一些新能力,但那并非基于新架构的产品,而是在旧有V1架构上推出的一次升级。

这次升级所包含的Siri体验改进,主要集中在以下几个方面:

更好的对话理解(语流):Siri能更好地理解用户在对话中可能出现的错误或自我纠正。全新的视觉界面:提供了更美观、更现代的用户界面。支持打字与Siri交流:用户现在可以通过键盘输入文字与Siri进行交互。更强的Apple产品知识:Siri在理解和回答关于Apple产品相关的问题上表现得更出色。

Craig表示,团队去年曾尝试在原有基础上继续改进,但发现“花了很多时间,效果仍不理想”。

因此,真正的系统级变革将来自V2架构。Craig透露,V2架构是一个“更深度的端到端架构”,并且并非完全从零开始,而是基于V1架构的积累,将其“扩展到整个Siri体验,使其成为一个纯粹的架构”。

它意味着V2架构将成为Siri整个体验的底层基础,而不是像V1那样可能是一个局部或附加的解决方案。Siri的所有智能和功能都将围绕这个核心架构来构建和运行。

首先,是通过应用程序意图调用设备上更广泛的操作。简单来说,Siri将能更好地理解并执行那些涉及多个应用或复杂步骤的指令。

在V2架构下,Siri将能识别出你的“应用程序意图”,即理解你想要执行“查找照片”、“格式转换”和“发送邮件”等一系列任务,“更广泛地操作”你的设备,自动调动并串联起“信息”、“照片”、“文件”和“邮件”等多个应用或系统功能,一步到位地完成这个复杂任务,而不再仅仅是执行简单的、预设好的单一指令。

其次,是利用个人知识进行语义索引。这意味着Siri不仅能听懂你说的话,还能理解设备上所有私人信息。

它会利用“个人知识”,即你设备上所有的数据——包括邮件、信息、备忘录、照片等——进行深入的“语义索引”。这让Siri不仅能识别出“播客”这个词,还能理解问题背后的深层含义,然后智能地在所有个人数据中进行关联和查找,无论是邮件正文、聊天记录还是其他应用内容,从而准确地找到用户想要的信息。

当被问及“是不是还要等一年用户才能用上新Siri”时,Craig回答:“那正是我们说的意思。”这正式确认新架构Siri将于2026年才可能面向公众推出。

▲一年前,在WWDC 2024上,苹果展示的一款Siri。

Craig强调:“Apple的原则是:当我们推出某个产品时,它必须足够好。”他明确表示,不会“偷跑”上线未成熟的系统,V2架构必须通过严格的内部质量门槛,才会正式发布。

这也意味着,当前发布的Siri更新更多属于过渡性质,真正意义上的升级将在2026年到来。

二、Apple Intelligence不会是聊天机器人,追求“用时即现”

Craig和Joswiak提到,今年Apple Intelligence带来的是“具体可用的智能”,而不是抽象的AI概念。

面对业界对“Apple是否准备与ChatGPT、Gemini正面竞争”的疑问,Craig明确指出,Apple并不将Apple Intelligence定义为聊天机器人。

Siri的愿景从不是一个“聊天工具”,而是一个可以通过语音和上下文理解来辅助用户完成任务的系统。

他强调:“我们并没有将Apple Intelligence定义为我们的聊天机器人,也不是将它视为一个聊天应用。我们把它视为在我想做的地方,帮助我做我想做的事情。”这种理念也体现在Apple Intelligence的多个设计细节中。

例如,通过语音调取应用、理解上下文、调度快捷指令等功能,并非依赖纯对话逻辑,而是围绕实际操作需求设计的多模态交互系统。

值得注意的是,Apple Intelligence并非完全基于云端大模型,而是采用本地模型优先策略。

Apple向开发者开放了设备端的LLM框架,支持在iPhone或Mac本地运行特定推理任务,允许Swift直接调用模型能力。

这意味着第三方App开发者可以直接调用本地模型进行识图、识物、语义分析等功能,而非必须依赖远程云模型服务。

Apple还指出,必要时可调用私有云或OpenAI模型,处理超出设备性能的复杂任务,形成“本地优先+私有云+第三方API”的混合智能体系。

结语:Siri难产,AI转身,苹果承认它来晚了

苹果在一定程度上给外界释放出信号:苹果正在推翻旧Siri,重做一遍。

与此同时,苹果也在刻意避免“做一个聊天机器人”。它的AI不追求大模型对话能力,而是要深嵌入系统和设备,成为“用时即现”的任务助手。苹果没有否认自己在AI上的落后。Craig提到:“当V2准备好后,我们不会让用户等太久,但在此之前,我们也不会贸然发布。”

来源:YouTube

发布于:北京

相关推荐

苹果重启LLM Siri项目,将对Siri进行彻底重构
知名爆料人:苹果AI推进受阻 对话式Siri要到2027年才能推出
苹果AI,遥遥落后?
苹果为其员工收听Siri录音道歉:不再保留Siri互动录音
小i机器人再告苹果:Siri侵权
古尔曼:具备苹果AI的Siri有望明年1月推出
终于,苹果也知道Siri有多烂了
苹果AI新功能体验平淡 外媒质疑换皮Siri
苹果iPhone 14或将完全重新设计,2022年取消mini机型
Siri跌倒,苹果吃饱

网址: 苹果首次承认Siri架构落后,将彻底推倒重新设计 http://m.xishuta.com/newsview137250.html

所属分类:行业热点