手机浏览器扫描二维码访问
(例:UC浏览器、QQ浏览器)
精彩阅读苹果小说网

第587章 大模型价格战卷至厘时代阿里云通义千问降价97%

近日,阿里云宣布推出通义千问GPT-4级主力模型Qwen-Long,其API输入价格从0.02元千tokens降至0.0005元千tokens,直降97%。

这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。

此消息一出,立即引发了业界的广泛关注和热议。

值得一提的是,本月智谱AI、字节跳动的大模型也都纷纷宣布降价。

其中,字节的豆包主力模型的定价为0.0008元千Tokens,即0.8厘千tokens,被认为带动大模型定价进入了“厘时代”

此轮大模型降价潮,是各家厂商希望进一步抢占市场,从而加速AI应用的商业化落地。

9款商业化及开源系列模型降价

Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高1千万。

除了输入价格降至0.0005元千tokens,Qwen-Long输出价格也降90%至0.002元千tokens。

相比之下,国内外厂商GPT-4、Gemini1.5Pro、Claude3Sonnet及Ernie-4.0每千tokens输入价格分别为0.22元、0.025元、0.022元及0.12元。

通义千问本次降价共覆盖9款商业化及开源系列模型。

不久前发布的通义千问旗舰款大模型Qwen-Max,API输入价格降至0.04元千tokens,降幅为67%。

智谱AI、字节跳动旗下火山引擎也纷纷宣布了降价

5月11日,智谱AI大模型的新注册用户获得额度从500万tokens提升至2500万tokens,个人版GLM-3Turbo模型产品的调用价格从5元百万tokens降低至1元百万tokens。

GLM-3TurboBatch批处理API也便宜了50%,价格为1元200万tokens。

15日,火山引擎宣布豆包Pro32k模型定价是0.8厘千tokens。

此外,豆包Pro128k模型定价是5厘钱千tokens。

大模型已经开始从“卷大模型技术”

向“卷大模型应用”

转变

对于此轮降价潮,不少业内分析指出,大模型已经开始从“卷大模型技术”

向“卷大模型应用”

转变,但推理成本过高依然是制约大模型规模化应用的关键因素。

在武汉AI智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光称:“阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。

我们预计2024年大模型API的日调用次数有望突破100亿。”

刘伟光判断,不管是开源模型还是商业化模型,公共云+API将成为企业使用大模型的主流方式。

云上调用成本远对于私有云部署。

在追求更大尺寸的模型时,企业要面对GPU采购、软件部署、网络费用、电费、人力成本等等。

相邻小说
太傅大人请留步  我九阳之体逆袭成神  综影视开局捡了一个神搭档  蓄意诱引,豪门大佬缠绵上瘾  在线发疯小娇夫,摄政王追着宠!  青青人间  冬日骄阳似火  成为反派什么的,我也不想的啊!  神域昊天  原神:我是各国的高官  渔村养龙,整片大海都是我的  电波封存的哀念  被哪吒杨戬孙悟空追堵的日日夜夜  游戏宅的奇妙冒险  穿越之我是一条金鱼  王者荣耀:闪耀你的星空  江先生他等到江太太了  女帝与首辅的二三事  都说不是恋爱脑,不信那就摆烂吧  抢凤困爱