该说不说,都2025年了,我问AI一个问题,体验却常常两极分化。
简单的事,它秒回,但答得跟没答一样。复杂的事,让它深度思考,它又要琢磨30秒以上。
而每一次回答,AI都在不断「燃烧」token。
对企业来说,token消耗量直接等于成本。当模型开启深度思考时,效果确实能提升一大截,可延迟高了,token烧得更猛了,成本也就跟着水涨船高。
这是整个行业的痛点。
尤其是AI应用越来越多,token消耗也在暴涨。以豆包大模型为例,到9月底的日均token调用量已经突破30万亿+,比5月底暴涨超80%。而这,还只是市场的一部分。
当AI需求以这样的速度增长时,要么忍着用效果差的轻量模型省钱,要么咬牙烧钱用顶级模型保效果。问题也就在摆在眼前——要效果,还是要成本?
小孩子才做选择,大人全都要。
就在今天上午,火山引擎在武汉的FORCE LINK AI创新巡展上,一口气发布了四款新品:
全新升级的豆包大模型1.6原生支持4档思考长度调节,豆包1.6 lite腰斩成本还能提升效果,还有豆包语音合成模型2.0和声音复刻模型2.0。
根据IDC报告,2025年上半年中国公有云大模型服务市场里,火山引擎拿下49.2%的份额,稳坐第一。
什么概念?每两个用云端大模型的企业,就有一个在用火山引擎。
今天发布会上提到,深度思考模式虽然能让效果提升31%,但因为延迟、成本和token消耗的暴涨,实际使用占比只有18%。说白了,企业想用,但真烧不起。
针对这个痛点,今天全新升级的豆包大模型1.6提供了Minimal、Low、Medium、High四档思考长度。
这是国内首个原生支持「分档调节思考长度」的模型。
怎么理解?就是给AI装了个「变速器」:简单查询用Minimal档省token,复杂推理切High档保效果。企业可以根据场景灵活平衡效果、时延和成本,思考效率还进一步提升了。
拿低思考档举例。相比升级前的单一思考模式,总输出tokens直接砍掉77.5%、思考时间暴降84.6%。
效果呢?保持不变。
此外,火山引擎还推出了豆包大模型1.6 lite,相比旗舰款更轻量、推理速度更快。
效果层面,这个模型超越豆包1.5 pro,在企业级场景测评中提升14%。成本层面,在0-32k输入区间里,综合使用成本较豆包1.5 pro狂降53.3%。效果更好,成本腰斩。
「单位token价值密度」的提升,本质上就是让每一分钱都花在刀刃上。
大会上,火山引擎还发布了豆包语音合成模型2.0和声音复刻模型2.0。比起什么情感表现力更强、指令遵循更精准,更值得关注的是——它们终于能准确朗读复杂公式了。
如果你家有孩子在上学,你肯定遇到过这种情况:
用AI辅导作业时,遇到复杂的数学公式或化学方程式,AI要么读错、要么读得磕磕巴巴,孩子听着一脸懵,你在旁边听着也想砸手机。
现在,新发布的两大语音模型针对性优化后,在小学到高中全学科的复杂公式朗读中,准确率直接飙到90%。发布会上的演示也让我印象深刻。
据悉,这背后是基于豆包大语言模型研发的全新语音合成架构,让合成和复刻的声音都具备深度语义理解能力,还拓展出上下文推理功能。
AI不再无脑把文字转成声音,而是先「理解」内容,再进行「精准情感表达」。用户可以通过自然语言精准调整语速、情绪、声线、音调、风格变化,语音可控性直接拉满。
想要温柔一点?「来点温柔的感觉」。想要激昂一些?「读得激动点」。
在今天的发布会现场,火山引擎总裁谭待指出了全球AI大模型的三大发展趋势:深度思考模型正与多模态理解能力深度融合,视频、图像、语音模型逐步达到生产级应用水平,企业级复杂Agent正在走向成熟。
等等,我们停一下。
那么当模型越来越多,面对具体需求时如何选择最有性价比的模型?这可能是很多企业的灵魂拷问。
火山引擎发布了智能模型路由(Smart Model Router),据介绍,这还是国内首个针对模型智能选择的解决方案。
即日起,你可以在火山方舟上选择「智能模型路由」功能。该功能支持「平衡模式」、「效果优先模式」和「成本优先模式」三种方案,能针对任务请求自动选择最合适的模型。
为什么需要这个?
因为不同任务对token的「价值密度」需求完全不同。客服系统回答「怎么退货」,用轻量级模型就够了。但医疗诊断分析病例,必须调用最强模型。
虽然token消耗相同,价值密度却天差地别。智能模型路由的本质,就是让AI自己判断「这个任务值得烧多少token」。
而且,独乐乐不如众乐乐。目前,火山引擎智能模型路由已支持豆包大模型、DeepSeek、Qwen、Kimi等多种主流模型。
当模型选择本身也被AI接管时,整个行业就形成了一个正反馈循环:
更强的模型能力解锁新的应用场景→新应用的爆发推高token消耗量→消耗量的增长倒逼智能路由不断优化→路由优化进一步降低单位成本→成本下降释放更多需求弹性→需求的释放又推高整体消耗。
这让人想起1882年,当爱迪生建成世界第一座商用发电厂时,没人能预见「千瓦时」这个单位会催生整个现代工业体系。
现如今,token正在成为AI时代的「千瓦时」。包括前不久OpenAI公布的「万亿token俱乐部」名单、Google每月燃烧的130万亿token,也都印证着这股生产力的蓬勃涌动。
当然,好模型只是起点,好体验才是最终目标。
当你问AI一个问题时,不应该再纠结是要快还是要好。分档思考让简单问题秒回且准确,复杂问题深度推理且高效。智能路由让你不用操心该选哪个模型,AI会自己找最合适的。
用自然语言就能精准控制语音模型,而不是被一堆参数搞晕。模型技术的每一次迭代,最终目的都是让用户用得起、更要用得好。
这或许也是AI该有的样子。
欢迎加入APPSO AI社群,一起畅聊AI产品,获取#AI有用功,解锁更多AI新知
我们正在招募伙伴
简历投递邮箱hr@ifanr.com
✉️邮件标题「姓名+岗位名称」(请随简历附上项目/作品或相关链接)
相关推荐
即梦总算赢了一次豆包
豆包落下元宝一个亿
豆包拿不出干粮
变天:由一个惊艳例子引发对Deepseek的10条思考
国产大模型,什么时候能搞出 Sora ?
DeepSeek活成了豆包想要的样子
豆包模型升级,深度思考帮电商商家读懂消费者,还能自动生成爆款内容
DeepSeek一骑绝尘,“豆包们”怎么办?
新豆包模型让郭德纲喊出发疯文学:(这班)不上了,不上了,不上了
OpenAI重磅发布Sora 2!硬刚抖音豆包谁能赢?
网址: 刚刚,豆包连发多款大模型:让DeepSeek更好用,音频版Sora 惊艳全场 http://m.xishuta.com/newsview143217.html