λ的矩估计值和极大似然估计值均为:1/X-(X-表示均值)。
详细求解过程如下图:
扩展资料:
求极大似然函数估计值的一般步骤:
1、根据总体分布,写出似然函数;
2、对似然函数取对数,并整理;
3、求整理后的似然函数求导数;
4、列出似然方程,并解似然方程。
极大似然估计的特点:
1、比其他估计方法更加简单;
2、收敛性:无偏或者渐近无偏,当样本数目增加时,收敛性质会更好;
3、如果假设的类条件概率模型正确,则通常能获得较好的结果。但如果假设模型出现偏差,将导致非常差的估计结果。
最大似然估计法例题步骤
写出极大似然函数的表达式。
极大似然函数是未知变量X的所有可能结果的概率的乘积。
求出极大似然函数的对数的表达式并化简整理。
由于极大似然函数的表达式是多项的乘积的形式,对关于未知参数求导(梯度)十分复杂,而求其对数之后,不仅没有改变原来的变化趋势,而且求导更加容易。
未知参数的极大似然估计,是使对数极大似然函数最大的值,如下面第一个图所示,简单来讲,就是求对数极大似然函数关于未知参数的导数为0的解。
似然函数直接求导一般不太好求,一般得到似然函数L(θ)之后,都是先求它的对数,即ln L(θ),因为ln函数不会改变L的单调性。然后对ln L(θ)求θ的导数,令这个导数等于0,得到驻点。在这一点,似然函数取到最大值,所以叫最大似然估计法。本质原理嘛,因为似然估计是已知结果去求未知参数,对于已经发生的结果(一般是一系列的样本值),既然他会发生,说明在未知参数θ的条件下,这个结果发生的可能性很大,所以最大似然估计求的就是使这个结果发生的可能性最大的那个θ。
在给定的分布模型下这个结果出现的概率最大,估计的意思就是求得此时分布模型的参数。可见似然也是概率,之所以叫做似然只是一种约定。通常说概率的时候,表示的是不同的结果在分布模型下的取值。此时结果已经出现了。
如果仍然采用在结果出现之前给定的参数,这个结果的概率就是确定的。通过假设检验知道了之前给定的参数是不对的,需要估计新的参数,也就是将参数当作未知的。对于不同的参数,结果将会取得不同的概率值。可见似然函数与概率函数的模型是一样的,区别只在于将谁看作变量,将谁看作参数。
如果将概率函数记作p(x;θ)p(x;θ),那么似然函数应当记作p(θ;x)p(θ;x),此种函数记法中分号左侧的是变量右侧是参数。对于概率函数更一般的记法为p(x|θ)p(x|θ),此时似然函数也记作p(x|θ)p(x|θ),这实际上是条件概率的记法,将参数θθ视作已经出现的条件。
扩展资料:
注意事项:
二项分布:当(n+1)p不为整数时,二项概率P{X=k}在k=[(n+1)p]时达到最大值,当(n+1)p为整数时,二项概率P{X=k}在k=(n+1)p和k=(n+1)p-1时达到最大值。
正态分布:正态曲线呈钟型,两头低,中间高,左右对称因其曲线呈钟形,集中性是正态曲线的高峰位于正中央,即均数所在的位置。
对称性:正态曲线以均数为中心,左右对称,曲线两端永远不与横轴相交。
-二项分布
-最大似然估计
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)