成本端,豆包大模型1.6使用“区间定价”模式:在0-32K输入区间(占公司80%需求),价格降至输入0.8元/百万Tokens、输出8元/百万Tokens,综合成本仅为豆包1.5深度思考模型或DeepSeek R1的三分之一。 下一步,火山引擎如何用规模优势和AI原生能力“后发制人”?又如何通过“技术降本”和“生态共创”?近期对话火山引擎总裁谭待,揭秘这家“AI云新贵”的狂飙逻辑。 谭待:市场竞争很激烈,许多客户已有固定供应商,但云计算与AI的市场空间巨大——尤其是AI推动云从传统软硬件市场拓展至与公司业务深度结合的服务市场。火山引擎的差异化优势体现在两方面: 其一,规模优势。抖音、头条等内部业务运行在火山引擎上,使其成为中国计算规模最大的云厂商之一,通过规模化降低成本,为公司提供高性价比的多云服务。 其二,AI原生能力。豆包大模型发展迅速,C端用户可直接体验(如下载豆包APP),形成B端与C端的协同。例如,去年火山引擎在大模型服务市场份额达46.4%,位居第一,远超二三名总和。 谭待:作为后来者,借鉴友商经验,我们坚持“公有云优先”“AI优先”,避免走弯路。在AI端侧协同方面,许多公司管理者是豆包APP的重度用户,已直观感受豆包大模型的优势,因此在推动AI技术落地公司业务时更易理解和接受,加速合作进程。 谭待:ToB业务需可持续运营,不能依赖低价补贴,但可通过技术创新降本。比如存量资源优化:利用抖音业务的波峰波谷特性,将低谷期计算资源通过混部技术转化为高性价比的弹性实例(如ESI),满足公司错峰需求。 还有技术研发降本。自研交换机、网络协议降低网络成本;在AI领域,通过模型结构优化(如20B激活技术)、GPU推理优化(如软硬分离、量化技术)降低算力成本。 谭待:一方面,我们通过模型优化和资源调度降低AI服务价格。中小公司AI客户在火山引擎有很多,甚至10-20人的创业公司也能低成本试错。 另一方面,火山引擎开源AI应用代码(如视频通话、深度搜索原型)和开发框架(如强化学习框架veRL),帮助中小公司聚焦“如何用模型做好应用”,减少不必要的底层技术研发。 二是提供陪跑服务。与客户共创,例如为飞鹤举办AI工作坊,与上汽、奔驰探索智能座舱AI应用,为高校提供AI平台并举办创新大赛,通过“产物+服务”助力转型。 谭待:行业联盟与共创方面,我们成立手机、汽车等行业联盟(如上海车展中豆包成为高频词),与头部公司合作;与金蝶、汉得等行业伙伴集成模型能力,拓展垂直领域。 同时,我们还孵化创新公司,关注AI原生的公司服务初创公司,通过孵化器提供代金券和技术支持,助力其成长,推动中国AI公司服务“弯道超车”。 谭待:金融领域已有多个标杆案例,如与华泰证券、招商银行、泰康保险合作AI项目。针对传统行业的监管与数据隐私需求,火山引擎通过技术解决方案(如AICC机密计算)实现云端模型加密,全链路保障数据安全。 谭待:产业正从PC互联网、移动互联网向AI时代演进,核心变化是技术主体从“网页/APP”变为“智能体(Agent)”,开发范式从“程序员定义规则”转向“模型自主规划”。具体趋势包括两方面。 火山引擎定位“AI云”,聚焦AI原生技术,将内部服务豆包的经验(如模型、计算、数据安全能力)开放给行业,目前已在大模型服务市场占据领先份额,助力公司完成AI转型。 谭待:今年可能是“Agent应用元年”。随着模型深度思考、多模态理解及工具使用能力的提升,Agent将在客服、销售、科研、内部研发等场景实现闭环任务执行。大模型从“效率工具”转变为“生产力主体”,推动公司生产力升级。 谭待:算力需求整体旺盛,短期波动不影响长期趋势。公司更关注如何通过AI创造价值,而非单纯的算力规模。火山引擎聚焦模型优化与Agent技术,助力公司提升算力使用效率,释放AI价值。


