10月16日消息,在 FORCE LINK AI 创新巡展・武汉站,火山引擎正式发布和升级四款豆包大模型,同时推出国内首个模型智能选择解决方案 “智能模型路由”,进一步巩固其在 AI 大模型领域的领先地位。

此次升级的豆包大模型1.6为国内首个原生支持 “分档调节思考长度” 的模型,提供四种思考模式以平衡效果、时延与成本,低思考长度模式下可减少 77.5% 总输出 Tokens 和 84.6% 思考时间,效果保持不变。
全新发布的豆包 1.6 lite 模型性价比突出,较 1.5 pro 效果提升 14%,0-32k 输入区间综合成本降低 53.3%。
此外,豆包语音合成与声音复刻模型 2.0 实现情感精准表达,复杂公式朗读准确率达 90%,已覆盖超 4.6 亿台智能终端。
新推出的智能模型路由支持豆包、DeepSeek 等主流模型的智能调用,效果优先模式下可提升 14% 模型效果,成本优先模式最高能降低 70% 综合成本。

数据显示,截至 9 月底,豆包大模型日均 Tokens 调用量突破 30 万亿,较 5 月增长超 80%;IDC 报告显示,2025 年上半年火山引擎以 49.2% 的份额位居中国公有云大模型服务市场第一。
火山引擎总裁谭待表示,全球 AI 大模型正朝着深度思考与多模态融合、生产级音视频模型、成熟企业级 Agent 三大方向发展。(转自AI普瑞斯)
更多AI资讯请点击:http://www.aipress.com.cn/
扫码下载app 最新资讯实时掌握
