长图太多了。关于流量的耗电问题,显然要看传输多远,有多少中间环节。摊到移动公司头上,肯定是没有2kWh/GB这么夸张的。
举个简单的例子,用家用WIFI路由器(基站)和手机(终端)上或下行1GB数据,耗电量应该在10Wh数量级,是你声称的200分之一。
但是如果要从本市的数据中心算起,把服务器,至少5级路由器(假设路由没有超出城域范围)和其它环节算上,跑到100Wh/GB是有可能的,这就升高了一个数量级。
如果从美国某个小镇的手机算起,直播到你在中国某个小镇的手机上,2kWh/GB并不意外。假设再把闲时设备空转的功耗摊上,还可能更高呢。
把功耗赖到5G头上是明显错误的。移动通信发展的底层逻辑就是用更少的能量传输更多的比特。
用一部近代非常高效的电台拍发莫尔斯电码,城市中等距离,发得不那么熟练,每小时平均3000波特(375B),耗电2Wh,能耗高达6MWh/GB。假设回到1930年代用电子管,那就要再加一个零。
1G基站(模拟通信不太好说波特率,那就用寻呼台吧)采用FSK或者GMSK窄带通信,波特率19.2kbps,2.4kBps,功率大约是50W,能耗大约6kWh/GB。说功率50W是因为通常的城域通信50W够了,事实上寻呼台可是100W发射功率,300W耗电功率,直接就是36kWh/GB,算上空闲和信令,还要翻三倍。
2G基站传1G,只算基站本身的功耗也会上kWh。到了4G就只剩下几十百来Wh了。到了5G,至少应有一个数量级的节能,估计10Wh水平。
这也可以解释为什么流量资费巨幅下降,而数据中心基础费用没有什么变化。因为服务器随时要耗电,算上空调和供电可靠性保障措施,一台服务器每年的电费就要3000元,实在是没有降价空间。当然,共享或独享带宽的费用是大幅下降了,一台服务器可以接入更大的带宽。十年前100Mbps独享带宽的价格在3万元以上,而当今同样的费用可以做到1Gbps带宽。
时段 | 个数 |
---|---|
{{f.startingTime}}点 - {{f.endTime}}点 | {{f.fileCount}} |