查看原文
其他

阿里云降价,谁获利最大?

虎嗅APP 2024-03-10

题图|视觉中国


一开春,阿里云就宣布全线产品降价,骤然打破沉寂已久的云计算市场。


2月29日,2024年度战略发布会上,阿里云宣布史上最大力度降价,100多款产品、500多个产品规格的官网价格平均降低20%,最高降幅55%。此次降价几乎覆盖所有核心产品,包括ECS、数据库、存储等使用最广泛的产品,新老同享,官网直降,覆盖最广泛人群,即日起立刻执行。


“猜到了开年会降价,但没想到比去年还狠,直接把最不愁卖的核心的产品打到了全网最低价。”这是发布会当天几乎所有参会者的一致共识。


一定程度上,这次史无前例的大降价,是阿里云明确"AI驱动,公共云优先”战略3个月之后的一次进攻号角。


但背后深意,却绝不仅止于此。


一场瞄准云计算无人区的史上最大力度降价


首先明确一点,降价行为是云计算的常态,甚至核心商业模式。

纵观全球云计算市场,或许有每年都不赚钱的云计算,但还没有过每年都不降价的云计算。

据不完全统计,亚马逊成立17年共降价105次;微软Azure自2012年来,已连续多次降价60%以上;谷歌从2013年左右,也开启了连年降价的措施,保持着最高70%的降价幅度。


国内同行业自然不例外。

作为国内公共云头部玩家,阿里云过去十年提供的算力成本下降了80%,存储成本下降了近90%。自2013年首次降价后,2014年一年就连续降价6次,2015年10月至2016年10月,阿里云更是连续17次降价,此后依然保持着定期降价频率,核心云产品降价幅度一度超过50%。

但这一次与以往全都不同——最直观的体现就是降价幅度。


阿里云智能集团资深副总裁、公共云事业部总裁刘伟光介绍,相比历史上其它几次降价让利,本次阿里云降价,是历史上参与产品范围最大、受益群体最广的一次。

其中,云服务器ECS最高降36%、对象存储OSS最高降55%、云数据库RDS最高降40%,都是数百万云计算用户使用频率最高的核心产品。

以云服务器u1产品为例,购买2c4g配置的五年版需要768元/年,降价后仅需485元/年,降价36%。对象存储OSS标准存储-本地冗余从0.12 /GB/月降至0.09 /GB/月,降幅达25%。数据库方面,以RDS MySQL基础系列为例,购买2c4g通用型配置的五年版需要936元/年,降价后仅需562元/年,降价40%。此外,阿里云还将云数据传输CDT的每月免费公网流量额度从10GB提升至20GB。

这也就意味着,在中小企业市场,放眼国内,阿里云几乎没有对手。

年复一年,降价卷土重来,阿里云意在何方?

刘伟光在会上表示,此次阿里云降价行动是对此前在财报会议上提出的“AI驱动、公共云优先”战略的具体落实,并非短期市场竞争,“作为中国第一大云计算公司,阿里云希望通过此次大规模降价,让更多企业用上先进的公共云服务,加速云计算在中国各行各业的普及和发展。”

更深一层,持续降价的能力,本身就是云计算公司的重要商业模式,甚至是其产品竞争力的体现。

海外以AWS为例,过去十年 AWS 降价近百次,规模不断提升之外,还仍能保持接近 30%的高营业利润率。

公共云行业需要巨大的资本开支和研发投入,技术壁垒高、规模效应大。头部企业拥有更大的规模,也就有了不断降低成本的能力,从而降价让利吸引更多的客户。

如此循环往复,就会形成一个成本-价格-用户体验-规模的飞轮闭环,形成强者恒强的产业格局。
正循环形成的关键在于足够的规模,这也是阿里云降价的底气来源。

据Gartner数据,2022年全球公共云IaaS市场份额中,阿里云市场份额7.71%,位列亚太第一、全球第三。在全球29个地域开放88个可用区,阿里云服务全球200多个国家和地区的400多万客户,为超过60%的A股上市公司、80%中国科技创新企业提供服务。

在国内公共云市场,阿里云已经可以通过较高的用户量来摊薄成本,换来一定程度的利润增长。一个例证是,近年来阿里云持续降价,但利润却在不断拉升。

自阿里云2022财年首次实现年度盈利后,阿里云盈利情况持续改善。2024财年Q2季度,阿里云经调整EBITA利润从3.87亿元大幅提升至14.09亿元,环比增幅达264%。上季度,阿里云利润进一步超预期释放,达到23.64亿元,超过此前三个季度利润总和。

一定程度上,降价是常态,也是商业模式使然。但很显然,一出手就是“全网最低价”的阿里云,还有更大的野心。

一场成本的战争


类比电力来阐述云计算存在的意义,阿里云创始人王坚曾有一段广为流传的比喻:

当需要用电的设备进入千家万户,农场和企业不约而同选择了关闭自己的发电机,转向高效的工业公用事业公司购买电力[1]。

相比于电力的稳定,云计算却仍然在享受技术迭代的红利。

在电力链条中,发电环节技术迭代较为缓慢,效率每提升1%都是重大的突破:1900年的火电机组的能量效率不足5%,1950年代这一数字上升到20%,2000年后又翻倍上涨至40%,现在,上海外高桥第二电厂的超临界机组,能够提供46%的发电效率[2]。

电磁能力的制造效率,在一百年的时间里大约提升了不到10倍,而硅基算力完成同样效率的提升,大约只需要5~8年的时间[3]。

云计算的上游是芯片为核心的交换机、服务器等硬件。而芯片产业的发展,则严格遵守1965 年 Gordon Moore 提出的摩尔定律不断向前发展,即芯片上的晶体管每隔 12 个月将增加一倍(1975 年修正为 24 个月)。

这也就意味着,伴随性能的提升,相同算力芯片的成本将指数下降,相应的,算力性价比的连年提升,也就成为了云计算成本不断下降的核心驱动力。

上游芯片降本之外,十多年来持续投入软硬一体化的技术研发,也为阿里云进一步降低算力单位成本带来了可能。

软件层面,阿里云拥有我国唯一自研云计算操作系统飞天,可以编排调度百万级服务器,单集群调度规模超十万台,具备EB级数据存储能力,并通过CIPU率先实现虚拟化“0”损耗,做到性能与性价比的同时兼顾。

硬件层面:以计算为例,阿里云自研的飞天操作系统和CIPU架构可在同样规格资源下带来更强的性能,同时实现极致弹性调用算力资源,使得资源效率和性能大幅提升;存储方面,阿里云自研的盘古存储系统,通过EC、压缩等自研技术大幅提高了存储的资源利用率;倚天710等自研芯片的不断优化,可将数据库、大数据和AI及高性能计算、视频编解码等场景性价比提升了80%以上,为用户提供了更多选择。

芯片、研发等刚性成本之外,规模效益带来的资源利用率差距,则是决定云计算是否能够降本,以及多大幅度降本的最大底气。

以一位行业专家的话来翻译就是,“云计算的网络已经建成,相当于用的人越多,资源利用率越高,闲置成本就会降到越低”,而规模上,阿里云是亚太规模第一、全球规模第三的云厂商。“随着规模效应的实现,计算成本、存储成本的降低,阿里云选择让利给客户,进一步扩大公共云的规模效应,实现正向循环。” 

体现在数据上,在国内大量自建IDC的平均资源使用率不到5%时,亚马逊、谷歌、阿里云等基于自研云计算操作系统的数据中心资源使用率可达30%~40%。伴随着规模扩大和研发效率提升,公共云厂商选择不断降价,让利用户。

软硬件刚性降本与资源利用率双管齐下,带来的一个结果是:业内头部玩家云单位算力的价格每三年将降低50%[3],几乎成为业内共识。

相应的,云计算的基础设施总体拥有成本TCIO(Total Cost of Infrastructure )将远低于企业自建数据中心,并形成公共云的虹吸效应,吸引更多的企业放弃自建数据中心迁移到公共云上,全面转型云计算。

不过,渗透率与价格的互相反哺之外,身处此时此刻,当下这个节点中,公共云降价,还有其更深一层的含义。

大模型时代的基础设施


前不久,OpenAI推出视觉大模型Sora,再度引发产业界热议。算力制约却一直是笼罩在AI产业上方的“乌云”。

从2012年的AlexNet模型到2017年的AlphaGo Zero,算力消耗足足翻了30万倍。而ChatGPT横空出世的背后是,微软Azure云上的数万张A100芯片,成本高达数亿美元。

有机构估算,对于一个 60帧的视频(约6至8秒), Sora要生成至少约 120万个 Token,这将远超过大语言模型的计算量。即使是 OpenAI这样的 AI大模型企业,推理成本也将是难以承受之重。

但这还只是个开始,根据OpenAI的研究报告,自2012年开始,AI训练需要的算力每隔 3-4 个月便会翻番,到 2018 年,训练所耗费的算力更是增长了大概 30 万倍,而相比之下,摩尔定律在同样的时间里只有 7 倍的增长。从发展趋势看,单个芯片摩尔定律正在失效,单个芯片性能提升远远跟不上算力需求增速。

AI算力需求爆发的同时,我国算力却呈现出大而不强的现状。

刘伟光表示,中国市场的服务器存量规模2000万台,美国服务器存量规模约为2100万台,但美国以公共云形式提供服务的算力占比为60%,中国仅为28%。

更值得关注的是,行业人士指出公共云CPU利用效率高达25%-50%,私有云部署的CPU使用效率通常仅为1%-2%,一般不超过5%。公共云渗透率的差距,在实际上导致了我国有效算力仅是美国的一半。

此外,刘伟光还补充,除了明面上的算力资源的浪费,错过公共云,或者说没有用好公共云的数据的能力、AI的能力,也在一定程度上拖累了中国企业的创新速度。

以时下大火的AI大模型为例解释,大模型是一场“AI+云计算”的全方位竞争,超千亿参数的大模型研发,并不仅仅是算法问题,而是囊括了底层庞大算力、网络、大数据、机器学习等诸多领域的复杂系统性工程,需要有超大规模AI基础设施的支撑。

当前,阿里云已经汇聚270多万名专业的AI开发者,中国有一半大模型跑在阿里云上。

阿里云并不只是为他们提供多元算力支持,还包括网络存储以及配套大数据、AI、MaaS服务、数据中台技术架构的迭代升级。“很多企业需要大模型的能力,但实际上,他们并不需要自己去做推理训练,通过使用公共云上的资源,就可以唾手可得AI能力。” 

一方面是创新速度的提升。左手医生,是一家提供AI问诊、智能导诊、智能病历,GPT模型驱动的整个AI医疗服务的创新企业。在通过GPT生成拟人化医疗助手的过程中,左手医生从自己采购资源训练推理,转而选择阿里云的算力服务,最后实现从GPU就绪到模型训练,项目上线时间缩短67%。

另一方面是创新效率的突破。今年1月,中国一汽与阿里云通义千问联合打造的大模型应用GPT-BI率先落地,可以通过自然语言对话,自动生成企业经营数据分析图表,目前可达到近90%的准确率。

从这角度来说,作为一个社会的创新基础设施,阿里云此番史上最大力度降价,推倒的,是整个社会创新链条的第一张多米诺骨牌。


尾声


将公共云类比基础设施水电煤,已然成为整个科技产业发展的常识。但历史上,水电煤降价之后,到底发生了什么?

在中学课本中,电力的发展,有三个标志性的节点:

第一个节点,1732年,富兰克林通过“风筝实验”,从物理学角度发现了正负电荷的存在;

第二个节点,1831年,法拉第首次发现电磁感应现象,奠定了此后“电为人用”的基础;

第三个,1879年,爱迪生成功点亮了世界上第一个实用的电灯泡,电力从实验室走向普罗大众成为可能。

至此,电的发展已经走过近150年的时间,然而,基于一直以来的直流电思路,在那个变压技术尚不成熟的时代背景下,在长途输电过程中过大的电力损耗,使得电厂必须建在工厂附近的一公里范围内。

高昂的价格,使得用电长期以来都只是部分富人的专属。

直到1893年,这一年,芝加哥博览会上,一位名叫特斯拉的工程师,正式将交流电搬上大众舞台。与此前发展多年的直流电不同,交流电技术的出现,通过改变电压,从而彻底解决了远距离输电过程中的电力损耗问题。


伴随便宜的电价成为可能,电力自此进入工厂、矿山、交通、海运等各个环节,工厂24小时不间断生产成为可能,机器的轰鸣声成为工业化生产的象征;电报、电话、电视、冰箱、电脑各种以电力为基础设施的创新产品,被源源不断生产并推广。20世纪以来全球经济的发展基础自此被正式奠定。

云服务同样如此。明面上价格一降再降,这是所有云服务企业规模效应开启的必经之路;也是千行百业上云的必要条件。

更深一层,云的价格与整个社会的创新之间是一个结构明确的跷跷板,伴随云计算这个社会基础设施成本下降一同发生的,则是跷跷板另一端创新的喷涌而出。

参考资料:

[1]在线,王坚
[2]通往第四次工业革命,阿里云还缺半张门票,饭统戴老板
[3]Moving from the Moore’s Law to “Bezos Law”,Greg O'Connor


特别策划


继续滑动看下一个

阿里云降价,谁获利最大?

向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存