参数估算与类比估算的区别(类比估值指标)

参数估算与类比估算的区别(类比估值指标)

参数估算与类比估算的区别

1、8203,前面“回归分析中的问题和修正的探讨区别。讲到了无偏性和有效性,这里把评价参数估计的常用指标简述下下。

2、估算的偏差就是估计值的期望与真实值的差值。如果有两个估计值,那么分布在距离真实值附近的应该效果更好。在这种思路下,相对有效性是相对值,估计1和估计2的相对有效性是平方差的期望的反比值。

3、如果比值越大估值,说明1越有效。单纯从有效性出发。

4、也就是最好的估计是均方差最小的估计区别。如果是无偏估计,那么就是方差最小了。就是随着样本量增加,最后估算值会按概率收敛到真实值,那么就是一致的估计。所以直观上来说,就是随着样本增加,估计距离真实值的附近的波动越来越小估算。

5、一致性和无偏性有一定相似的地方,都是围绕真实值得参数。但是无偏性可以一直震荡,但不收敛类比,而一致性必须收敛。160估值,无偏性要求分布真实值两边对称,但是无偏性只要收敛,并无对称要求。有偏一致的估计。

类比估值指标

1、160,无偏不一致的估计。4渐进性160。渐近性就是现在不满足,但是按照大数定理估算,随着样本数增长就满足了。常见的有渐进无偏性160区别,

2、当前是有偏的,但是随着增大,可以证明是无偏的。渐进有效性估值,譬如均值估计,方差会越来越小指标,收敛到期望,一般来说最大似然估计满足渐进有效性。简单来说就是就算存在奇异值,参考一个奇异值的江湖,经典统计观类比,的时候估计方法也应该适用的。

3、举个例子参数,均值和中值的对比,当正态分布的时候估算,两者是比较一致的,但是偏度比较大的时候,均值和中值表现就不一样了。中值依然能把数据50%的划分,而均值就不行了。你要想象一下,只是偏度变化就这样了,假如有一个超级大的区别,那么均值肯定效果不好指标,所以中值在估算平均水平的时候比较。这也是为什么,对于有偏度的分布,我们要尽量先进行数据变换,参考数据变换,而对于有异常值得数据,先进性异常值检验,参考一个奇异值的江湖估算。

4、经典统计观,一个奇异值的江湖,机器学习观,因为很多算法并不鲁棒。再延伸一步,这样某种意义上指标,从均值发展而来的最小二乘法,详细参考一步一步走向锥规划,最小二乘法估值。也是不鲁棒的。

5、对比之下,而从加上线性思想发展起来的。类比之下,从排序发展起来的估算,也是鲁棒的。延伸之下指标,从最大似然靠近的,也相对鲁棒。

返回顶部