爱尚秀 > 社会 > 正文

​大模型“免费”送,厂商们图什么?

2024-06-09 02:59 来源:爱尚秀 点击:

大模型“免费”送,厂商们图什么?

文 | 壹度 Pro

  2024 年 618,传统电商行业不再喧嚣,但大模型市场却开启了惨烈的 " 价格战 ",甚至部分企业直接免费送大模型服务。

5 月 15 日,字节跳动宣布,豆包主力模型企业市场定价为 0.0008 元 / 千 Tokens,0.8 厘可处理 1500 多个汉字,比行业便宜 99.3%。

一周后,阿里云也对外宣布,通义千问 GPT-4 级主力模型 Qwen-Long 的 API 输入价格降至 0.0005 元 / 千 Tokens,直降 97%。

阿里云官微

阿里云卷入 " 价格战 " 后,百度、腾讯云、科大讯飞等企业也接连宣布自家的大模型降价。其中百度甚至宣布,两款基础模型可免费调用。

不可否认的是,随着技术逐渐成熟,大模型的成本正不断下探。为了尽快俘获更多企业客户,拓宽市场影响力,上游算力提供商确实需要尽力降价。

然而需要注意的是,尽管大模型成本正逐步下探,但目前大部分企业的大模型业务依然面临算力、人力成本高企的挑战,没能盈利。在此背景下,上游算力提供商不断降价,甚至免费送大模型,显得十分反常。

这种非理性的价格战,其实凸显出了上游企业亟待通过让利,打通大模型商业闭环的内在焦虑。

01 价格战背后,大模型商业困局难解

2023 年以来,随着 ChatGPT 爆火,诸多科技公司都看到了 AI 大模型蕴含着巨大的商业价值,因而加码相关业务。2024 年 3 月,国家数据局局长刘烈宏透露,中国 10 亿参数规模以上大模型数量已超 100 个。

然而随着越来越多企业入局相关产业,大模型商业模式不健全,成本高、落地难、下游企业持观望态度等问题愈发凸显。

由于需要采购高性能计算机,并且需要进行模型训练,大模型的成本异常高昂。以 OpenAI 为例,其训练 GPT-4 的 FLOPS 约为 2.15e25,一次训练成本为 6300 万美元。The Information 报道,2022 年,OpenAI 亏损约为 5.4 亿美元左右,约扩大一倍。

目前,大部分企业都意识到了大模型的参数越多,商业想象力越大,因而持续加码模型训练。不过问题也随之而来,那就是大模型仅仅问世两年时间,下游创收手段十分有限。

整体而言,大模型有两种创收模式,一是直接向用户收取订阅费,二是向开发者收取 API 调用费。比如,2023 年初,OpenAI 推出了会员订阅服务 ChatGPT Plus,费用为 20 美元 / 月,可使用基于 GPT-4 的模型,并且提供更快的响应时间、优先访问等权限。

不过,据 Reddot 联合创始人 Pierre Herubel 测算,即使以每月拥有 100 万订户估计,ChatGPT Plus 每年或只能为 OpenAI 带来 2.4 亿美元左右收入,很难帮助公司扭亏为盈。

因此,目前以 OpenAI 为代表企业的发力重点,是向企业收取 API 调用费。参照云计算的经验,外部的企业从零开始训练大语言模型非常困难,倾向于采购成熟的 AI 大模型技术,一旦这些企业探索出具备想象力的商业模式,即可反哺上游算力提供商,进而实现多方共赢。

对此,2023 年 11 月,百度创始人兼 CEO 李彦宏曾表示,不断地重复开发基础大模型是对社会资源的极大浪费,"AI 原生时代,我们需要 100 万量级的 AI 原生应用,但是不需要 100 个大模型。"

02 算力提供商作出表率,但 B 端企业仍持观望态度

由于大部分大模型算力提供商都是平台型企业,推出大模型技术后,这些企业纷纷在内部试水相关技术的商业化,以图给下游客户做出商业化表率。

比如,2023 年阿里云峰会上,时任阿里巴巴集团董事会主席兼 CEO、阿里云智能集团 CEO 张勇表示:" 阿里巴巴所有产品未来将接入‘通义千问’大模型,进行全面改造。"

以钉钉为例,接入大模型后,其支持 AI 生成推广文案、绘图方式创建应用、视频会议中生成摘要等功能。钉钉总裁叶军认为,大模型将会让钉钉的收入增长百分之几十。

无独有偶,过去一段时间,腾讯也积极探索 AI 技术的商业化应用。2023 年财报中,腾讯对外表示:" 广告 AI 模型的改进显著提升了精准投放的效果…… 这些发展带动了高质量的收入来源,推动毛利增长 23%。"

自有业务挖掘出 AI 的商业价值后,上游算力提供商正致力于针对垂直行业的细分需求,提供定制大模型能力。

比如,2023 年 6 月,腾讯云宣布开启 " 腾讯云行业大模型生态计划 ",致力于推进大模型在产业领域的创新和落地。据悉,腾讯云已为传媒、文旅、政务等 10 余个行业提供了超 50 个大模型行业解决方案。

然而需要注意的是,平台型企业大多拥有自研大模型技术,无论是试错还是使用成本都更低,往往只会对外宣传商业路径清晰的大模型落地案例。

反观外部的企业需要采购上游的大模型技术,探索成本相对更高,并且商业模式不清晰,很难拥有足够的积极性。见实团队披露的《AI 应用需求与付费意愿调研报告》显示,46.2% 的企业 AI 预算在 1 万元以下,另有 22.2% 和 24% 的企业预算分别为 1 万 -5 万元以及 5 万元 -10 万元,这些中腰部企业没有足够的预算探索 AI。

此前,大部分主力模型产品的 API 输入价格不菲,比如,Qwen-Long 为 0.02 元 / 千 tokens,1 万元只可以购买 5 亿个 tokens。如果一个产品有 500 万月活,1 万元的预算,一个月平均只能供每个用户使用 100 个 tokens,显然不够。

03 成本虽屡屡下探,但算力提供商已急不可耐

显而易见,当下限制大模型 B 端商业化落地的主要障碍,就是 API 成本过高,限制了 B 端企业探索相应的商业闭环。因此,目前算力提供商的发力方向,就是致力于通过技术手段,压低大模型的成本,降低 B 端企业的使用成本。

开头提到,字节跳动旗下豆包主力模型企业市场定价为 0.0008 元 / 千 Tokens,比行业便宜 99.3%。对此,火山引擎总裁谭待表示:" 豆包模型的超低定价,来源于我们有信心用技术手段优化成本,而不是补贴或是打价格战争夺市场份额。"

无独有偶,2024 年 5 月 6 日,深度求索开源了第二代 MoE 模型 DeepSeek-V2,性能更强,训练成本更低。据悉,DeepSeek 可节省 42.5% 训练成本,减少 93.3% 的 KV 缓存,最大吞吐量提高 5.76 倍。整体而言,DeepSeek-V2 消耗的显存(KV Cache)只有同级别 Dense 模型的 1/5-1/100。

不过,这并不意味着当下大模型行业的价格战十分正常。2024 年 5 月,谈及大模型的发展趋势时,零一万物 CEO 李开复接受采访时表示:" 未来整个行业的推理成本每年降低 10 倍是可以期待的,而且这个趋势是必然的。" 未来,大模型的成本将呈阶梯状下探,但目前大模型的价格却断崖式下探,甚至部分企业免费送,降价幅度远超上游成本降幅。

上游算力提供商之所以如此内卷,很大程度上都是希望俘获更多的 B 端企业,一方面实现规模效应,另一方面,让 B 端企业无负担地探索良性的商业模式。对此,谭待表示:" 大的使用量,才能打磨出好模型,也能大幅降低模型推理的单位成本……大模型从以分计价到以厘计价,将助力企业以更低成本加速业务创新。"

尽管激烈的价格战之下,大模型已经进入 " 免费时代 ",但其实大部分上游算力提供商为了后续创收,都留有更为隐晦的收费手段。

目前,大部分大模型仅推理用的 token 降价,而训练和部署成本依然不低。比如,阿里的 qwen-turbo 模型百万个 token 推理只要 2 元,若是训练,就需要 30 元,部署时,每月需要 2 万元。

由此来看,大模型进入 " 免费时代 ",很大程度上其实只是一个宣传意义上的噱头。如果下游企业想要用上成套大模型服务,那么不能不付出更高的使用成本。

而之所以上游算力提供商仅仅降低推理用的 token 成本,主要是因为通过内部应用,其对于大模型的商业价值足够自信,希望降价的噱头起到引流的作用。

参照云计算价格战的经验,此番大模型价格战或许可以吸引更多下游企业认真审视大模型,有望基于相关技术探索出更多良性的商业模式。