夕阳无限好,只是近黄昏。
附录
A:估计量的常见理论性质
在统计推断中,我们常常需要评估一个估计量的好坏。通常使用以下几个标准:
无偏性 (Unbiasedness)
-
定义:若估计量 满足
则称它是 的无偏估计。
-
解释:在平均意义上,它不会系统性偏离真值。
-
备注:如果 ,则称为有偏估计,但有时适度的偏差能换取更小的方差,这类估计仍可能在应用中更优(如岭回归)。
一致性 (Consistency)
-
定义:若当样本量 时,估计量收敛到真值:
则称 是一致估计量。
-
解释:样本越大,估计越可靠。
-
备注:一致性通常需要借助大数定律来证明。
这里简单补充一下上述两种收敛方式的概念:
note
-
依概率收敛 ()
-
定义:
-
意义:当样本越来越大时,估计量与真值相差超过 的概率趋近于零。
-
直观比喻:大样本下,估计“通常”离真值很近,但偶尔会偏离。
-
几乎必然收敛 ()
-
定义:
-
意义:以概率 1 的保证,随着样本增加,估计量必然收敛到真值。
-
直观比喻:如果你在一条轨迹上一直观察样本量增加的过程,那么“几乎所有”轨迹都会收敛到真值。
📌 区别:
- 比 要强,几乎必然收敛 依概率收敛,但反之不一定成立。
有效性 / 相合性 (Efficiency)
-
定义(参数情形):在所有无偏估计量中,若某个估计量达到了 Cramér–Rao 下界,则称它是有效的。
-
非参数情形:我们一般用“方差随 的变化”来衡量效率:
-
解释:在有限样本下,方差越小,估计越稳定。
这里我们简单补充一下上述CR下界的概念:
note
一般定义
-
如果一个无偏估计量在所有无偏估计量中具有最小的方差,就称它是 有效估计量。
-
衡量效率的经典工具是 Cramér–Rao 不等式:
其中 是 Fisher 信息量。
Fisher 信息量
- 定义:若总体密度为 ,则
- 直观意义:描述样本对参数 的“信息含量”。信息越多,估计越精确。
Cramér–Rao 下界 (CRLB)
- 结论:任何无偏估计量的方差不可能小于 。
- 若某估计量达到了这个下界,则称其为 有效的。
在非参数统计中的对应
- 在经验分布函数 (EDF) 的情形下,我们也能看到:
- 虽然这里没有直接用到 CRLB,但可以理解为:方差随 增大而下降,说明 在有限样本下是“效率合理的”。