您现在的位置是: > 综合

【teen patti gold png logo】AI算力价格调查:价格回归下的供需平衡术

2024-09-20 07:43:10【综合】7人已围观

简介随着生成式AI浪潮翻涌,AI应用进一步落地,作为新型生产力的算力产业地位关键。其中,擅长加速计算的GPU堪称AI时代的算力核心,又因其制造难度较高,一度因为供不应求而成为各大科技企业抢购的重点产品。据 teen patti gold png logo

随着生成式AI浪潮翻涌,算力术AI应用进一步落地,价格价格作为新型生产力的调查teen patti gold png logo算力产业地位关键。

其中,回归擅长加速计算的供需GPU堪称AI时代的算力核心,又因其制造难度较高,平衡一度因为供不应求而成为各大科技企业抢购的算力术重点产品。

据Verified Market Research数据统计,价格价格2022年全球GPU市场规模达到448.3亿美元,调查预测2027年有望达到1853.1亿美元,回归年平均增速高达32.82%。供需

需求高企的平衡同时,行业也在阶段性发生变化。算力术从国内市场来看,价格价格今年以来,调查随着国内对算力供需关系平衡的预期,部分算力价格开始松动。一方面,有供应链的消息称,英伟达为了吸引客户,将H20单卡价格从12.5万下降至10万左右;另一方面,从AI服务器角度来看,当前也存在一定的价格回调。

目前AI算力真实的市场行情如何?这背后又折射出怎样的趋势?

芯片供需关系逐渐平衡

从需求来看,AI芯片本身在全球市场范围内都炙手可热。

IDC亚太区研究总监郭俊丽对21世纪经济报道记者表示,从全球市场来看,由于人工智能、深度学习及高性能计算的teen patti gold png logo高速发展,全球GPU需求持续上升,比如对于英伟达推出的H100芯片的需求十分强劲。但尽管英伟达已在努力扩充产量,由于供应链方面的瓶颈,比如制造、封装产能有限,以及原材料短缺等因素,目前全球市场中GPU的供给量仍然无法完全满足市场需求。

回到中国市场来看,供不应求的问题也同样存在。郭俊丽指出,由于人工智能的快速发展,中国的数据中心仍然在建设,对GPU的需求也在增长。但是在供给方面,高性能的产品在依赖进口的同时又受到国外限制,进一步加剧了供应紧张的局面。

不过目前,这种供应紧张的状态正处于缓解的过程中。

TrendForce集邦咨询分析师龚明德告诉21世纪经济报道记者,目前来看,由于CoWoS(封装技术)和HBM(存储产品)的供应逐渐缓解,尤其是面向全球市场的H100芯片以及面向国内市场的H20芯片,供应周期显著缩短至12~16周以下,因此供应问题基本解决,预计第二季度后这些产品将会陆续增加出货量。

因受美国出口管制政策影响,英伟达针对中国市场推出新品H20芯片,但是多位业内人士向记者表示,由于其性能被大幅阉割,国内客户购买兴趣不足,选择转向国产AI芯片进行替代。

而英伟达为了吸引客户,选择了对H20芯片进行降价,有产业链人士告诉21世纪经济报道记者,英伟达的H20单卡价格从12.5万下降至10万左右。

但也有大模型厂商人士向记者指出,对于企业而言是否购买H20或者其他AI芯片,更重要的还是考量性价比,如果有一些性能需求相对低一点的应用契合,且采购成本合适,并不排斥购买。

而使用国产芯片还需要生态适配和迁移,同样需要时间来磨合。近期也有消息显示,英伟达H20芯片开始重新引起包括百度、阿里巴巴、腾讯和字节跳动等中国厂商的采购兴趣。

市调机构SemiAnalysis的最新预测数据报道也指出,英伟达今年将向中国市场运送超过100万颗新的NVIDIA H20芯片,预计每颗芯片成本在1.2万美元至1.3万美元之间,预计将为英伟达公司带来超过120亿美元的收入。

目前,国内的算力芯片在不断崛起,包括GPU、CPU、ASIC芯片等等。例如主营GPU的摩尔线程、天数智芯、燧原、壁仞;主营CPU的中科曙光、海光信息、飞腾;以及专攻AI芯片的各大厂,如华为、百度昆仑芯、寒武纪,以及阿里与腾讯等。有国内厂商向记者表示,目前价格方面没有明显的波动。

AI服务器价格回归

从AI服务器角度来看,当前确实存在一定的价格回调。有消息人士向21世纪经济报道记者指出,国内主力AI服务器价格波动约在10%上下。

多名业内人士对21世纪经济报道记者分析,AI服务器价格回调更多可以理解为是一种价格回归。

“个人认为,英伟达旗下GPU服务器因为外部政策限制影响,此前被过度炒作了。去年英伟达大算力的服务器价格已经完全失真,在中国大陆市场几乎脱离了常规商品的概念。”一名数据中心厂商人士对记者表示,如今随着供需关系有所改善,价格回归属于正常现象,相关产品价格也将逐步回到与海外类似的水位。

一名算力租赁行业从业者也对记者分析,算力价格的确有所下降,但更多是恢复到了正常状态。“ChatGPT刚推出时,很长一段时间算力服务器价格大涨,现在是逐渐恢复到了原有价格区间内。因此算力租赁价格有所下降,某种意义上属于正常现象。”

这一定原因在于应用场景不足。“目前虽然海内外头部厂商都在积极建设超大规模计算集群,但还没有特别多的应用场景,来支撑这些算力释放。这导致AI服务器价格无法形成足够支撑力。”前述人士表示。

从公开销售市场看,IDC中国分析师杜昀龙对记者分析道,考虑到A100在中国大陆市场禁售,价格无法统计。“我们统计发现,(公开市场)AI服务器均价下降主要是由于高端卡的限制导致。目前国内可以流通的芯片是H20,其单价低于H100。”

TrendForce集邦咨询分析师龚明德则表示,目前国内主力AI服务器主要搭载H20机种,价格因规模不同而有所浮动,估计波动约在10%上下,主要由于国内AI市场竞争日趋激烈。此外,上游供应紧缺问题逐渐缓解,使得英伟达Hopper系列供货较为顺畅,同时向新一代Blackwell平台推进,使价格有一定调整空间。

智算中心部署趋于谨慎

理论上说,在价格合理时会是数据中心部署的好时期。

“例如对于后发者来说,在当前服务器价格相对合理的时期,可以更好开展大模型训练。毕竟英伟达的软件生态有利于大模型厂商更快完成模型训练。”前述数据中心人士如此对记者分析。

但挑战在于行业环境。该人士指出,其所在的行业当前仍在复苏过程中,因此更考验决策层是否有足够的魄力,在现阶段进一步开展数据中心部署规划。“在大模型还没有形成核心换机动力的前提下,过早进行数据中心部署也会面临难以完成商业模式正向循环的担忧。”

也不可忽视政策因素的影响,主流在全球开展业务部署的公司,都会谨慎对待来自海外的限制销售政策,以免影响自身业务正常开展。

“我预判可能在今年底到明年初,会是数据中心部署的好时机。”他续称,届时随着包括苹果在内的头部科技厂商推出更多大模型用例,可能也将给市场带来新动力。现在会是观察行情波动的时机。“的确现在还没有到大模型应用爆发期,不过已经逐步有一些迹象了。”

一名大模型终端应用公司人士则对记者表示,即便英伟达服务器降价,对模型推理端的影响估计不大。“公司会按照原来的计划继续投入,对于没有做模型推理的部分业务,那么即便算力便宜一点也不会做的。”

但倘若从“被阉割版”英伟达H20角度看,杜昀龙认为,开展相应部署意味着价格降低但性能下降。

“目前对于AI算力还有需求,但如果需要达到原有规划的算力,可能会需要支出更高的成本来搭建。所以对于新部署的智算中心来说,费用会更高;或者算力类型会更多样化,不单纯依靠某一个品牌或者某一种卡。租赁业务也会需要提供多样性的算力给最终用户,让用户挑选适合自己并且性价比合适的算力租赁服务。”杜昀龙指出。

价格战加速大模型生态繁荣

作为算力产业链的重要一环,大模型厂商也在密切关注算力价格的变化。多位大模型厂商人士均向21世纪经济报道记者透露,今年以来,算力价格并没有太大浮动。

一位云厂商人士告诉记者,在同等参数下,模型推理成本没什么下降,它的核心还是与GPU的价格相关。但在同等效果下,随着模型效果提升,模型的参数量在逐步下降。

这意味着,相比过去的模型,现在可以用更少的参数训练出同样的效果,这相当于算力成本的下降。

某大模型创业公司的负责人也向记者表示,他们的模型训练成本今年在减少。原因是该公司专注于训练13B参数的大模型,没有去追求更大参数模型,因此在没有更多新增模型的情况下,模型训练需求及成本都相应减少。

在上游算力价格变化不大的情况下,各个大模型厂商的算力成本变化仍主要取决于模型参数量级。比如部分厂商今年将模型参数量级从千亿级提升至了万亿级,算力成本自然也随之提升。

然而,今年大模型领域突然掀起的一场价格战,直接大幅拉低了大模型的应用门槛。今年5月,多家云厂商相继宣布,下调旗下大模型价格,部分模型甚至免费。

金山办公助理总裁晁云曈告诉21世纪经济报道,大模型API接口降价对于AI发展肯定有很大推动作用。在token很贵的情况下,用户如果有一个40万字的文档要上传,他可能会拿出计算器算下要多少钱。

2022年下半年,晁云曈曾用电子表格做个计算,在用户很多常用的场景中,每使用一次大模型的价格都高得离谱。“这种情况下,用户使用大模型的意愿就很低,因为它要考虑这项能力值不值这么多钱。”晁云曈表示,但现在,如果大模型的成本趋近于零,那用户就可以毫无顾虑地去使用。

对于大模型的价格战,百川智能创始人兼CEO王小川向21世纪经济报道表示,云厂商这样卷价格,会加速整个大模型生态的繁荣。“去年大家都在拥抱大模型,每个企业都想自己训练一个,但市场其实不需要那么多模型提供方,现在随着模型开源以及闭源模型价格下降,会让更多企业清楚自己的定位。”

同时王小川认为,大模型目前推理成本的下降主要是受技术进步所推动。“大厂们应该也预期未来模型的成本会降低特别多,也许今天亏钱,但再过一年可能就不亏钱了。这种情况下,大厂考虑的不是短期亏损的问题,而是未来模型能不能降到足够的便宜。”

从过去数月的行业发展趋势来看,大模型应用生态正迅速崛起。不过一位资深行业人士也向记者表达了他的担忧,“大模型的价格战,短期来看可能是好事,但长期来说,对技术和商业模式都不见得是好事”。

该人士认为,技术的发展需要长期投入,如果打价格战打到大模型的产出价值都不够支付电费,那行业可能就走偏了。“从本质上来说,大模型是因为没有足够的差异化才导致价格战,所以大家最需要的是提高自己产品的区别度,而不是简单地打价格战,这是未来整个行业亟需突破的地方。”

来源:21世纪经济报道

很赞哦!(54)