为什么会有80GB/320GB这样"非标准"容量的存储卡

在过去很长时间里,存储卡的容量都是2的N次方,比如2GB、4GB、8GB、16GB……但在CFast、XQD、CFexpress卡出现以后,市场上就出现了80GB、120GB、240GB、325GB……等“非标准规格” 。这背后的原因是什么?正式动笔后,我发现这件事情并不是三言两语能够讲清楚的……

为什么会有80GB/320GB这样"非标准"容量的存储卡

文章插图
 
 
ET会尽量剥离掉与大家关系不大的知识点,大家在阅读时也可以忽略括号和*内的部分 。另外,这篇文章包括科普和实测两部分,看在ET码了这么多字的份上,拜托大家至少看到第二部分 。比心!
 
科普
存储卡、固态硬盘都以闪存颗粒(NAND Flash)作为存储介质,而闪存颗粒本身是有擦写次数限制的(即写入寿命) 。为了平衡闪存颗粒不同区块(block)的磨损程度,延长使用寿命,就需要借助一些预留空间 —— 这就是第1层OP空间(Inherent OP) 。
几乎所有存储卡、固态硬盘都会因为因为第1层OP空间而产生容量差额,128GB存储卡可用容量约为118GB、512GB存储卡可用容量约为474GB……这个差额并不是固定值,但总体上会在7%左右 。大概是因为机械硬盘也会因为1000进制和1024进制而产生约7%的差额,所以厂商们并不会因为第1层OP空间而变更产品的标注容量 —— 所以,第1层OP空间的存在无法解释为什么会有标称容量为80GB、120GB、240GB的产品 。
* 1TB机械硬盘在操作系统内显示的可用容量约为931GB 。
预留空间不仅关系到寿命,它的大小还会影响存储性能(特别是随机读写和低可用容量时的性能) 。所以,一些厂商就会在剩余容量里再划走一部分 —— 这就是第2层OP空间(Factory-set) 。因为又少了一部分容量,厂商们必须要调整标称容量了:所以从128GB中衍生出了120GB、256GB中衍生出240GB、512GB中衍生出500GB和480GB 。
* 在固态硬盘上还有第3层OP空间,这里不再展开 。
小结一下:因为第2层OP空间的原因,所以出现了120GB、240GB、480GB这样“非标准”容量的产品 。而无论是64GB、128GB、256GB这样的标准容量,还是120GB、240GB、480GB这样的非标准容量,都会因为第1层OP容量而产生标称容量和实际可用容量的差别 。
为什么会有80GB/320GB这样"非标准"容量的存储卡

文章插图
 
 
讲完了么?不好意思,还没有……接下来我们要讲另一个因素 。
闪存技术的最主要发展方向是密度更高、单价更低,与之相比,速度和寿命其实是排在次要位置的 。从SLC、MLC再到现在的TLC、QLC,容量大了、价格低了,但也带来了“掉速”问题 —— 持续写入较多数据时,写入速度会出现断崖式下降 。明明存储卡标称速度超过了1000MB/s,结果无法持续录制2600Mbps(325MB/s)的视频,这就是掉速造成的 。
为了解决这个问题,一些存储卡厂商使用了名为“全盘pSLC”的工作模式(p=pseudo,有伪/假的意思,也翻译成“模拟SLC”),直白来说就是把当前主流的TLC闪存颗粒当作SLC颗粒使用 。这确实能让写入速度成倍提高,而且几乎不存在“掉速”问题,但代价就是可用容量只有原本的1/3 。
为什么会有80GB/320GB这样"非标准"容量的存储卡

文章插图
 
产品1:使用256GB TLC闪存颗粒,产品标称容量为80GB,实际可用容量只有约74.4GB 。
产品2:使用512GB TLC闪存颗粒,产品标称容量为160GB,实际可用容量为148GB 。
产品3:使用1TB TLC闪存颗粒,产品标称容量为320G,实际可用容量为298GB 。
产品4:使用2TB TLC闪存颗粒,产品标称容量为660GB 。实际可用容量为614GB 。
必须强调的是:市场上也有采用“部分pSLC”模式的产品 。比如某产品的标称容量为80GB,系统显示规格为86GB,实测持续写入超过16GB后出现掉速 。推测它将48GB 空间设置为pSLC模式,获得70GB低速+16GB高速的空间组合(实际可用容量接近80GB) 。这意味着连续写入超过16GB数据后,清空缓存的速度会大幅下降容易出现卡壳情况,高码率视频拍摄也可能发生中断 。


推荐阅读