稳定互联,中美互联,站长交流,虚拟主机,香港主机,美国主机,虚拟空间,免费空间,免费VPS,免费域名

 找回密码
 立即注册
查看: 2609|回复: 0

百度是如何给每个人免费提供2TB存储空间的?

[复制链接]
发表于 2014-4-28 18:02:23 | 显示全部楼层 |阅读模式
baiduyun.jpg

  Y; S+ W' s2 J( l前段时间在使用百度网盘时,突然发现百度网盘可以免费领取 2TB 空间啦!' Z% p; Y8 h4 R, O2 L; u

* s$ }* C( C" H/ h+ }8 K9 Z0 G: b5 n网络硬盘大家可能都或多或少的接触过,不得不说在万物皆云的时代里,这是一种非常好的网络工具,而对我们这种穷到掉渣的免费用户来说,硬盘空间简直就是硬伤,刚开始使用的时候真是为了空间,各种折腾(做他那里所谓的任务),到头来也才扩充了 5G 左右。现在好了,随随便便、轻轻松松就有了 2T 的空间。6 G. D8 d+ ~0 b
; b" j+ D; {0 m- \
而这突如其来的 2T 空间是如何实现的呢?
' P7 G& z3 H4 _( s# m
( T; Q% ^' [  z  z事实是这样滴!4 x0 S5 A. Z/ _8 Z  k

# _2 P7 d$ n( y+ C4 H! C5 K% A4 v- B假如我想要为每个用户提供 1G 的网络存储空间。
# R8 @2 ~5 v4 a3 z$ @( M
! ^) i% B2 Q6 t  x( D- t如果服务器上有一颗 1000G 的硬盘可以全部为用户提供数据储存,如果每个用户分配 1G 的最大储存空间,那么能分配给多少个用户使用呢?2 S9 D9 z' c4 W4 V  n# N$ T
0 E. q4 M: o' h' o+ [  ^: U
你一定说是 1000/1=1000 个用户。+ y+ N/ S1 V5 A' p8 v
& y" z' c5 _( V& |9 l
但是事实上你这么分配了,你会发现每个用户平时根本不会上传 1G 的东西将容量占的满满的,有多有少,但平均用户平时只上传 50M 的文件,也就是说,如果你将 1000G 的硬盘分给 1000 个人使用,但只有效利用了其中的 50M*1000=50G 的空间,剩余 950G 的空间基本都完全浪费了。
/ L& H' `+ f; Y& y+ j% w7 O* _4 C/ r: V) D
那么怎么解决呢?
7 n# K! y7 Y0 t. y: D. j, E" L9 Y( V$ W  a( h
你可以变通一下,将这 1000G 的空间分配给 20000 个用户使用,每个人的上传上限容量还是 1G,但每人平时还是平均上传 50M 的数据,那么 20000*50M=1000G,这下子就把宝贵的服务器上的存储空间充分利用了。但你又怕这样分配给 20000 个人后,万一某一刻人们突然多上传点数据,那么用户不是就觉察出来你分给人家的 1G 空间是假的了吗?所以可以不分配那么多人,只分配给 19000 人,剩下一些空间做应急之用。- X( n# f2 q. j/ _, v$ [1 y8 n0 E4 \1 @) d
2 [" q( Z( {6 s( s9 H& _
突然发现一下子将可分配的用户数量翻了 19 倍啊,了不起。那还有没有办法更加有效的利用一下呢?
: }5 z* o  R7 b# \* E4 f9 H# F1 Z' Z9 C+ r( U( `
如果我有 1000 个以上的服务器,一个服务器上有 1000G 空间,那么我们每个服务器上都要留下 50G 的空白空间以备用户突然上传大数据时导致数据塞满的情况,那么我这 1000 个服务器上就空出了 1000 台*50G=50000G 的空间被浪费了,多么可惜。所以攻城狮们发明了存储集群,使得一个用户的数据可以被分配在多个服务器上存储,但在用户那看起来只是一个 1G 的连续空间,那么就没必要在每个服务器上预留出应急的空间了,甚至可以充分的将前一个服务器塞满后,在将数据往下一个服务器中塞。这样保证了服务器空间的最大利用,如果某一刻管理员发现用户都在疯狂上传数据(在一个大规模用户群下,这样的概率少之又少)导致我现有提供的空间不够了,没关系,只需要随手加几块硬盘或者服务器就解决了。2 V6 j% l$ s3 a! l0 c; z% f- M! b

) I* }* X# b+ u) p好吧,这下子我们的服务器空间利用高多了,可以将一定量的空间分配给最多的用户使用了。但有没有更好的改进方案呢?% `* C, @5 E, x: X) L1 k
/ G4 }/ f# O9 K# B; ~3 o+ N
管理员有一天发现,即使每个用户平均下来只存储 50M 的东西,但这 50M 也不是一蹴而就的,是随着1-2 年的使用慢慢的达到这个数量的,也就是说,一个新的用户刚刚注册我的网络空间时,不会上传东西,或者只上传一点非常小的东西。那么我为每一个用户都初始分配了 50M 的空间,即使将来 2 年后他们会填满这 50M ,但这期间的这空间就有很多是浪费的啊。所以聪明的攻城狮说:既然我们可以分布式、集群式存储,一个用户的数据可以分布在多个服务器上,那么我们就假设一开始就给一个新注册的用户提供 0M 的空间,将来他用多少,我就给他提供多少存储空间,这样就彻底的保证硬盘的利用了。但用户的前端还是要显示 1G 的。! j) K" i2 C6 @9 E* C& Y1 x) l2 m' y

2 |' I  V/ J( E. @工程师的这个点子,使得我在建立网盘初期能用 1 台 1000G 的服务器提供了大约 1000000 人来注册和使用,随着注册的人多了,我也有钱了,也可以不断增加服务器以提供他们后期的存储了。同时因为一部分服务器完成了一年多购买,我的购买成本也下来了。
2 e5 C, J" s+ V' c$ a3 Y7 [! Z0 Q1 D9 w0 o" s1 V$ \2 a
那么…这就结束了吗?- Q+ p9 R1 D* n9 B: \- X  @& @
* C/ f2 y( ^) G5 ]4 P% x$ |2 K* R. ^
若是邮箱提供商的话,这样的利用率够高了。但网盘就不一样了。: z4 Y* u% w. ]5 n. m: ^
% ^. K0 b: m& b" T+ U+ T
聪明的工程师发现:不同于邮箱,大家的内容和附件绝大多数都是自创的和不同的。但网盘上大家上传的东西很多都是重复的。7 x& K5 X7 m3 [6 p: G* h

. }0 _* c, U2 y0 p$ h比如:张三今天下载了一部《TOKYO HOT》上传到了自己的网盘上,李四在三天后也下载了一模一样的《TOKYO HOT》上传到了网络硬盘上,随着用户的增多,你会发现总共有 1000 个人上传了 1000 份一模一样的文件到你宝贵的服务器空间上,所以工程师想出一个办法,既然是一样的文件,我就只存一份不久好啦,然后在用户的前端显示是没人都有一份不久行啦。当某些用户要删除这个文件的时候,我并不真的删除,只需要在前端显示似乎删除了,但后端一直保留着以供其他拥有此文件的用户下载。直到所有使用此文件的用户都删除了这个文件我再真的将其删除吧。0 r  \5 v3 {0 [6 ~7 k; _5 C
) d2 J( S& E3 U! U, n
这样子随着存储的数据越来越多,注册的用户越来越多,其上传的重复数据越来越多。你发现这样的检测重复文件存储的效率越来越大。这样算下来似乎每个人上传的不重复的文件只能平均 1M/用户。这下子你可以提供超过 50 倍的用户使用您这有限的空间了。
" B2 W& }  K! q
. Y1 N9 {( i' y$ w4 b但伴随着使用,你又发现一个规律:/ P" V0 p5 ?9 [/ l5 k0 p, l
  |9 D  Q+ W+ V$ \* f8 x
张三上传的《TOKYO HOT N0124》和李四上传的《TH n124》是同一个文件,只不过文件名不一样,难道我就不能识别出他们是一个文件,然后只将其分别给不同的用户保存成不同的文件名不就行啦?确实可行,但这要利用一些识别文件相同性的算法,例如 MD5 值等。只要两个文件的 MD5 值一样,文件大小一样,我就认为它们是相同的文件,只需要保存一份文件并给不同的用户记作不同的文件名就好了。
3 u+ |' j* j$ ]4 g
  Y6 {8 `7 `  w. A# Y6 A1 T有一天你发现,因为每一个文件都需要计算 MD5 值,导致 CPU 负荷很大,而且本来一样的文件非要浪费带宽上传回来才可以检测一致性,能改进一下吗?" v4 Y" ?9 O; l, K1 x8 F4 m+ x
) s4 G. I; @+ _# ~5 N) q
聪明的工程师写了个小软件或小插件,美其名曰“上传控件”,将计算 MD5 的工作利用这个软件交给了上传用户的电脑来完成,一旦计算出用户要上传的数据和服务器上已经存储的某个数据是一样的,就干脆不用上传了,直接在用户那里标记上这个文件已经按照 XX 文件名上传成功了。这个过程几乎是瞬间搞定了,并给其起了个高富帅的名字“秒传”!
* u1 B8 C( _4 a9 U/ H( x; f7 |* i) z1 u$ H; M( F) F5 z8 r7 _# j. H
通过以上这么多步骤,你发现本来你只能给 1000 用户提供网络空间的,这么多改进办法后,在用户端显示 1G 空间不变的情况下,近乎可以为 1000000 个用户提供网络空间了。+ R4 O) x- M+ [5 o0 _- P3 B$ }

/ d. r7 Y: J# X6 ]/ S这样若是您哪天心情好,对外宣传说:我要将每个用户的存储空间上限提升到 1TB。那么每个用户平均还是只上传 50M 数据,只有极个别的用户上传了突破 1G 原始空间的数据,你会发现所付出的成本近乎是微乎其微的。8 v8 f( n9 X! b1 d" I- P

/ F  N; @* ^1 t/ Z6 B0 U' _辛勤的攻城狮还在为如何更有效率的利用服务器提供的磁盘空间在不屑努力和挖掘着……6 a. C# E' `' x9 v

/ q# h& a# Z! o: ]) f
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|WdidcNet ( 苏ICP备17005075号-1 )

GMT+8, 2025-10-1 09:33 , Processed in 0.014846 second(s), 9 queries , APCu On.

Powered by Discuz!

© 2010-2023.

快速回复 返回顶部 返回列表