对此,字节跳动CEO梁汝波表示:“做好火山引擎对字节跳动成为一家优秀的科技公司、保持技术竞争力很重要。未来,字节跳动会坚定长期投入,追求智能突破,服务产业应用。通过火山引擎,持续把新模型、新技术开放给公司客户。” 火山引擎总裁谭待表示:“如果我们把时间拉长,把技术栈展开,我们实际正处于PC到移动到AI三个时代的变化之中。在这三个时代里,技术主体在发生变化,PC时代的主体是Web,移动时代是APP,AI时代是Agent。” 通俗易懂地说,当AI赋能千行百业成为共识,公司拥抱大模型不再是可选项而是必选项,智能体凭借低门槛、易上手的优势站上“风口”。 更为重要的是,豆包大模型1.6系列登场,在GPQA Diamond、AIME25、MultiChallenge上等众多权威测评集上得分均属于国际第一梯队,为公司发力智能体提供多样化选择。 其中,豆包1.6为All-in-One综合模型,是国内首个支持256K上下文的思考模型,具备自适应思考的能力,可根据提示词难度自动决定是否开启深度思考,兼顾提升效果与tokens消耗大幅减少的需求。 而豆包1.6—thinking为深度思考强化版,在代码、数学、逻辑推理等基础能力上进一步提升,支持构建复杂智能体;豆包1.6—flash则为极速版,延迟极低、TOPT 仅需10ms,适用于智能客服、语音助手等实时交互场景。 做2025高考数学真题,豆包大模型拿下144分,位列国内模型首位,且海淀区高考模拟卷文理科成绩全部突破700分,理科成绩更是比2024年提升了154分,模型进步的速度令人惊喜。 一名互联网观察人士告诉锌刻度:“大模型是一个重资产赛道,考验公司在资金、生态、技术、人才等方面的底蕴,Scaling Law之下强者恒强。” 调用深度思考或多模态能力,需要额外付费,早已成为行业的惯例,豆包大模型1.6则一视同仁,原生支持深度思考和多模态,公司无需为token额外买单。 以往,为了省心省力,token的输入定价并不考虑长度,行业采取固定价格,但是模型的成本存在明显的“递增效应”,即输入上下文长度的增加,模型处理token的难度与成本也随之增加。 以公司调用量最大的0—32K为例,豆包大模型1.6的输入价格为0.8元/百万tokens、输出价格为8元/百万tokens,整体成本只有豆包1.5深度思考模型或DeepSeek R1的三分之一,性价比拉满。 如此一来,火山引擎“好的模型就是要让每一家公司都用得起”的理念得以延续,凭借“高质低价”的打法进一步占领公司的心智。 《中国公有云大模型服务市场格局分析,2025年一季度》的数据显示,2024年中国公有云大模型调用总量达到114.2万亿tokens,其中火山引擎占据46.4%的市场份额,位列第一,调用量几乎等于第二名与第三名之和。 不难看出,通过抹去功能溢价与分区定价,火山引擎走上一条技术迭代与商业创新共振的降本之路,从而推动行业良性竞争。 对此,谭待曾有言:“对于公司级市场来说,商业模式是建立在可持续发展的基础上,任何商品必须是盈利的,不能靠补贴来降价。如果降价是亏损的,规模越大亏得越多,这就不是合理的商业模式。” 要孵化成千上万的智能体,解决各式各样实际场景问题,智能体的开发范式势必焕新,调用中心从传统的程序员转移到大模型。 火山引擎智能算法负责人吴迪表示:“要构建高生产力的Agent,既要用好AI,整合高质量的应用;又要做好AI,关注底层技术本身的优化和创新。” 譬如,PromptPilot肩负“翻译”的重任,帮助开发者将模糊的诉求变为具象化的目标,即便开发者不具备专业的大模型知识,也不影响最终的实际效果,只要开发者对行业领域、应用场景有一定知识储备和判断力即可。 再譬如,火山引擎MCP Server与TRAE、方舟体验中心、扣子等平台打通,深度集成云服务能力,从而解决了智能体从概念到落地的链路断层问题。 这么一来,开发者可通过MCP 控制火山引擎的云服务组件,便捷地完成计算、网络、存储等环境部署,更快地把一个创意变成一个成熟的产物。 AgentKit、TrainingKit和ServingKit,助力公司做好智能体服务、模型训练和模型推理;多模态数据湖、Data Agent,助力公司构建智能化、高效化、低成本的智能体数据体系;AICC 密态计算、大模型应用防火墙,助力公司构筑网络安全防线,抵御针对智能体的恶意攻击……


