设随机变量$X_{1}, X_{2}…X_{n}…$相互独立,并且具有相同的期望$\mu$和方差$\sigma^{2}$,取前n个随机变量的平均$Y_{n}=\frac{1}{n}\Sigma_{i=1}^{n}X_{i}$,对于任意正数$\varepsilon$,有:
$\lim_{n\to\infty}P\lbrace \vert Y_{n}-\mu \vert \lt \varepsilon \rbrace=1$
其意义,当n很大时,随机变量$X_{1}, X_{2}…X_{n}$的平均值$Y_{n}$在概率意义下无限接近期望$\mu$
$Y_{n}$的期望为$\mu$,方差为$\frac{\sigma^{2}}{n}$,即:
$E(Y_{n})=E(\frac{1}{n}\Sigma_{i=1}^{n}X_{i})$
$=\frac{1}{n}\Sigma_{i=1}^{n}E(X_{i})$
$=\mu$
$D(Y_{n})=D(\frac{1}{n}\Sigma_{i=1}^{n}X_{i})$
$=\frac{1}{n^{2}}\Sigma_{i=1}^{n}D(X_{i})$
$=\frac{1}{n}\sigma^{2}$
根据切比雪夫不等式,对于期望为$\mu$,方差为$\sigma^{2}$的随机变量X,有:
$P\lbrace \vert X-\mu \vert \geq \varepsilon \rbrace \leq \frac{\sigma^{2}}{\varepsilon^{2}}$
代入可得:
$P\lbrace \vert Y_{n}-\mu \vert \lt \varepsilon \rbrace \gt 1-\frac{\sigma^{2}}{n\varepsilon^{2}}$
即有:
$\lim_{n\to\infty}P\lbrace \vert Y_{n}-\mu \vert \lt \varepsilon \rbrace$
$\geq \lim_{n \to \infty} 1-\frac{\sigma_{2}}{n\varepsilon^{2}}=1$