这个5月,大模型的“价格战”进入到白热化周期,曾经“按分计价”的时代一去不返,迎接咱们的是“直接降价97%”的按厘计价时代。
5月25日,华福证券发布报告叫作,自知名私募巨头幻方量化旗下大模型Deepseek-V2率先降价起始,国内诸如豆包、腾讯、阿里、讯飞等厂商纷纷跟进,截止日前共有7家公司共计21款大模型参与降价。从降价模型级别来看,轻量级及次主力级模型降价明显,但GPT-4级别的主力模型亦有必定程度的降价。
华福证券认为,随着大模型价格的进一步降低,B端客户,尤其是云厂的现有客户将加速大模型制品的推进过程,商场化落地有望加速。
国产大模型迎降价潮
华福证券在报告中暗示,Deepseek打响国内第1枪后,其他大厂纷纷跟进:
5月6日,Deepseek-V2 率先降价,每百万Tokens 的输入、输出价格分别为1元、2元。从模型性能来看,V2对标GPT-4,但价格仅有GPT-4的1%,性价比极高。随后,智谱、豆包、通义、腾讯、讯飞等厂商纷纷跟进,日前参与的公司共计7家,触及21款模型。大模型正式迎来降价潮。
华福证券指出,在这次降价潮中,从轻量模型到主力模型均有区别程度降价:
虽然说当前免费的模型大多为轻量模型及次主力模型。但国产主力模型当前的价格亦有了明显的降低。以GPT-4级主力模型Qwen-Long为例,API输入价格直降97%,约为GPT-4价格的1/400,输出价格亦降90%至每百万tokens 2元,1元钱能够买200万tokens。且该模型支持最高一千万tokens的长文本输入,适用于非常多的B端统计分析类的应用场景。而在OpenCompass benchimark上追平GPT-4 Turbo的Qwen-Max,输入价格降幅67%,也有很强幅度降价。
为么会降价?
针对降价的原由主要有三:首要是成本下降,其次是为了扩大市场份额的商场考量,还有当前各大模型尚未拉开差距,同质化问题比较严重。
多家公司在宣布大模型降价时,都说到了技术进步带来的成本下降。百度董事长兼首席执行官李彦宏曾暗示,与一年前相比,百度旗下文心大模型的推理性能提高了105倍,推理成本则降到了原来的1%。字节跳动旗下火山引擎总裁谭待亦说到,该机构能够经过混合专家模型(MoE)、分布式推理等技术手段,优化豆包大模型的推理成本,不会走用亏损换收入的道路。
不外,公司级AI处理方法供应商创新奇智首席技术官张发恩暗示,技术进步可帮忙推理成本每年下降到原来的1/2上下,大模型的降价幅度却是以10倍来计算的。技术进步不是游戏规则改变的重点原由,商场决策才是这次降价的基本原由。公司期盼尽快得到更加多客户,占据更加多市场份额,将来业务规模做大了,再去想办法挣其他的钱。他还认为,当前大模型技术的场景渗透率还很低,价格战并不明智。
而针对各家区别的降价策略,已然有有些质疑声音叫作有些降价的模型本身吞吐量就低,高性能模型并无降价。并且还有非常多细节条款会让最后公司用起来无宣传的那样便宜。
归根结底,能形成价格战的连锁反应,亦是当前各大模型的能力放在可用的场景中,尚未拉开差距,用户乃至有免费开源的制品能够用。
大模型商场落地按下加速键
这次大模型降价潮势必将对全部行业产生深远影响。
阿里云智能集团资深副总裁、公共云事业部总裁刘伟光就暗示,阿里云这次大幅降低大模型推理价格的目的是期盼推动AI应用的爆发,加速商场落地的进程。阿里云方面颁布的最新数据表示,通义大模型经过阿里云服务公司超过9万、经过钉钉服务公司超过220万,已在PC、手机、汽车、航空、天文、矿业、教育、医疗、餐饮、游戏、文旅等行业落地应用。
华福证券认为,随着大模型价格的进一步降低,B端客户,尤其是云厂的现有客户将加速大模型制品的推进过程,商场化落地有望加速。
本文综合自华福证券钱劲宇(执业证书编号:S0210524040006)5月25日发布的报告《端侧落地进行时,大模型进入“白菜价”时代》、文案《大模型价格战:大厂烧钱狂飙,小厂怎样抉择》以及文案《中国大模型价格战背后的真相》。返回外链论坛:www.fok120.com,查看更加多
责任编辑:网友投稿
|