“现在不限速,未来也不会限速。”
“无论是不是会员,都不会限速。”
这样“违和”的声音,来自阿里云盘。
刚刚开启公测,已有用户实测5G下能跑出50~100MB/s的传输速度。
公测期间,免费存储空间也颇为可观——用户最高能拿到2TB的免费存储空间。
国内用户苦网盘限速久矣,但说句实在话,网盘的存储和带宽成本着实不便宜。
阿里就这么祭起“不限速”大旗,是否是为打开市场的权宜之举?
真的靠谱吗?
阿里云盘为什么要强调不限速
自然,从云盘用户的角度来看,上传下载的流畅性,是目前一大核心痛点。
过去的产品方,并不是不清楚这一点,只是在市场探索十多年后选择妥协:作为一个商业化产品,再怎么说,带宽和存储的巨额成本都是在那里摆着的。
就像阿里云盘团队所说,尊重过去市场的探索,但想要走一条新的路。
想要把不限速坚持下去,资源的投入是肯定少不了的。
那么,阿里云盘怎么就非要强调“不限速”呢?
阿里云盘产品负责人齐俊元给出的答案是:只做传统网盘的单一模式很难发展。
齐俊元坦承,如果只按传统网盘的商业模式来操作,“真的太贵了”。
如何另辟蹊径?内测阶段来自用户的反馈,验证了阿里云盘团队的设想:在用不限速保证了用户最基础的体验之后,更多的玩法就出现了。
阿里云盘团队Slogan叫“你的数字世界”,不可否认的是,在当下这个时间节点,物理世界正在和数字世界发生更加深入的交汇。
随着数字化变革的不断演进,越来越多的数据被存储在云端,越来越多的用户行为也会发生在云端。
就像今天你或许已经习惯了用线上协同文档取代word进行文字编辑,那么如果数字内容触手可及,没有了长时间等待上传下载的煎熬,是否基于云的图像、视频协同创作,也将成为常态?
这就与以限制速度为核心的商业模式是相悖的。
实际上,人类历史上存储信息的媒介一直在变化,而变化的目的大都是为了更快地分享利用。
用着分布式的存储,传输却是拨号网络的速度——出发点也许就错了,市场发展也就停滞了。
如此看来,不限速,可以说是迈进数字世界,在其中创造更多可能性的一张入场券。
这也是为什么,阿里云盘在内测阶段,就首先推出了可以一键同步影像的相册功能。齐俊元也进一步透露,下一步会推出不仅仅是基于文字的协同模块。
未来5年,我们是这样看待云盘的增长的:
第一,我们认为用户真的会把内容放进来,有可能是别人分享的,也可能是自己创作的。并且我们认为创作的成分会多一些。
第二,我们认为云盘会从个人消费走向多人消费的场景,比如家庭、工作场景。
事实上,从阿里云盘主要研发成员的构成,也可以一窥对未来个人云的布局:不仅仅是智能存储,还包括移动协同、云网络、视觉智能……
数字资产的存储、传输,还只是阿里云盘,乃至“个人云”迈出的第一步试探。
不限速的阿里云盘,到底靠不靠谱
想法是这么个想法,那么从技术的层面,阿里云盘又能作何保证,证明自己的可持续性呢?
(毕竟谁也不想公测结束又要开始迁移数据了嘛~)
我们照例来扒一扒产品背后的那些事儿。
行业领先的对象存储
简单来说,用户在阿里云盘中存储的数据,会通过哈希函数打散,分布到阿里云对象存储(OSS)、表格存储(OTS)中。
下载的时候,又可以通过5层数据一致性校验、多地就近存储的能力快速合成。
而这个阿里云的对象存储技术,就值得仔细说道说道了。
根据《阿里云存储白皮书》,基于盘古这一分布式存储文件系统,阿里云的对象存储能够提供99.999999999999%(12个9)的数据可靠性,以及99.995%的可用性SLA。
这一数据,已经超过云服务领域龙头AWS的11个9。
具体怎么做到?以多重冗余架构设计为例:
每一个存储到OSS中的文件,每5MB的部分会被进行一次分片,并被分别存储到数据中心不同的磁盘当中,以降低硬件故障造成的数据丢失概率,并避免数据泄露的风险。
值得一提的是,盘古系统采用了纠删码技术(Erasure Coding)。
简单地理解,为了保证数据的可靠性,本来要做3个备份,这样对于网络和磁盘空间而言负担其实很大,也会在维护副本间数据一致性时带来更大的资源损耗。
而使用冗余纠删码算法,例如Reed Solomon,假设原始数据为8块大小相同的数据块,通过编码生成4个冗余块,只要整体数据损失不超过4个块,就能够恢复出全部的数据。也就是说,只需要150%的存储空间,就可以容忍4个磁盘挂掉。
如此一来,可靠性得到保障的同时,所需要的存储空间则能够大大减少。
另外,据阿里云智能存储产品总监余家伟介绍,阿里云OSS提供的存储是分级的,可分为标准存储、低频存储、归档存储等。
而事实上很多归档的数据是长时间不会被调用的,可以放在最低档的冷备份上面。对于这样的数据,存储中的大部分成本来自于电力成本。
对此,阿里云自主设计了叠瓦式高密度磁盘机柜,配合智能上下电算法,可以让存储的性能和能耗更平衡,进一步降低成本。
云边端同时发力,力求“极速”
说完了在保障稳定、可靠的前提下,降低存储成本的技术思路,我们还是回归到“速度”本身。
“不限速”的潜台词,当然是有多快就跑多快。
要在技术上做到传输快,就访问的过程来说具体分为三个部分:端(如手机端)、云端(数据中心)和中间的传输网络。
那么阿里云在这三个点上,又有什么样的技术积累?
在传输网络方面,阿里本身拥有国内最大的CDN内容分发网络,以及全球加速的虚拟云网络——阿里云在全球21个地域、63个可用区、120多个POP点、2800多个边缘节点提供了全球网络服务。
阿里云盘就可以集成阿里云虚拟专网(VPC),全球加速和未来5G边缘节点优化等一系列特性。
而被用户大量分享的内容,还会被智能存储到最接近的内容分发网络(CDN)节点。
在服务端,阿里云存储则在混合存储和QoS能力的项目中,获得了大量经验:能保障数据存储和读取的访问低延时,以及访问延时的稳定性。同时复用阿里云公共云的大规模能力,可以在高并发、海量数据访问的情况下,依然提供稳定的服务能力。
而利用阿里云多区域部署的优势,采用分布式机房的架构,阿里云盘可以实现数据就近存储,减少用户到数据存储中心的距离,缩短数据传输的延时。
另外,针对像图像和视频这样的数据,阿里云盘通过FPGA服务器编解码,进行了转码能力的优化。在不降低图像质量的情况下,可以提高图像的压缩率,从而减少数据的传输量,减少带宽的同时也降低了传输时间。
最后,在手机端,阿里云盘通过分片传输、断点续传等方式,来提高传输的效率,减少传输延时。比如,通过对照片进行进一步的切片,对更临近的数据做加速处理。
同时,在本地进行缓存方面的优化,让用户的体验更“极速”。
据媒体报道介绍,在内测版的测试中,就有用户在5G条件下,下载时能够跑满1Gbps的带宽。
事实上,虽然阿里云盘的公测才刚刚开始,但其背后的技术基础倒是早已经过实战检验。
不只是对内,阿里云的智能存储技术体系,目前已广泛应用于生物基因、自动驾驶、天文观测、智能交互等大数据存储前沿领域。
比如基因数据分析需求每天能产生数百TB的数据,需要TB级别的数据处理能力。
传统的计算方式下,需要3-5天的时间才能输出一个人的基因分析结果。
而在引入基于阿里云平台设计的计算资源弹性伸缩、多级存储、海量存储计算与数据安全的云平台架构之后,22小时内,就能完成千人基因组的分析。
中国天眼(FAST)同样用到了阿里云的存储服务。
射电望远镜的应用场景中,每天会产生非常大量的数据,需要实时进行处理。而更大的难点在于,射电望远镜地处偏僻,受到地理的限制不能在现场设立数据中心。
为此,阿里云为其提供了专线架构服务,保证其带宽,同时通过融合带宽技术加上TBS处理能力,为FAST实现了端到端的计算、存储解决方案。
说了这么多,看样子,阿里云盘敢于“纯纯的不限速”,在技术层面上还是颇有底气的。
如果阿里云盘的模式走通了,无疑给个人云的发展方向蹚出一条新路,给基于云的数字生态拓展出一种to C的可能。
而这样的发展计划,也指向了一个不再被数据存储、传输局限的真·数字时代。
这也是齐俊元为什么会说:“过去行业里面坑很多,但我们做这件事很兴奋。”
目前,在阿里云盘2.0.5版本中,相册自动备份、文件保险箱、影音播放器等功能都已优化升级,分享功能也即将开启。
公测的第一步已经迈出,你是否看好?
如果你已获得公测资格,也欢迎在评论区反馈实际体验~
关键词: 阿里云盘