讲道理的话……使用样本标准差的确是为了计算方便
方差或者绝对距离都是一个标准,这个标准越小,说明我们丧失的信息就越少(比如,方差=0,我们得知,我们的全部数据都是样本平均值,于是我们没有数据的损失)
之后就是统计的范畴,最小化这个标准
而最小化,在绝大多数人的眼中,就是求导
计算机对标准差(或者,方差)求导,轻而易举
对绝对值求导……计算机表示自己只想返回一个mmp
有了导数就可以做优化,就可以做各种花哨的计算
……BTW……才发现这个帖子好老好老
讲道理的话……正确的说法其实是这样的:
方差:找到一个\(\dot{x}\)使得\(f(\dot{x})\)最小,\(f(\dot{x})=\sum_{i=1}^n(x-\dot{x})^2\)
于是我们可以推算出\(\dot{x}\)为样本平均值,哪怕有1000000个数据,我们雇佣1000个人,每一个人处理1000次加法运算,之后你再把这1000个结果相加,而后求平均值,无论如何我们也是可以算的。
送计算机,均值只要算1000000次加法,方差无外乎多1000000次乘法,都是可以在1秒之内搞定的事情。
然后,平均距离……其实这个量给错了
仿照方差的定义,平均距离应该是:
找到一个\(\dot{x}\)使得\(f(\dot{x})\)最小,\(f(\dot{x})=\sum_{i=1}^n|x-\dot{x}|\)
于是我们得到\(\dot{x}\)……并没有显式表达,这就是为什么用方差的原因