Centralne twierdzenie graniczne to twierdzenie matematyczne mówiące, że jeśli X i {\displaystyle X_{i}} są niezależnymi zmiennymi losowymi pochodzącymi z tej samej populacji o wartości oczekiwanej μ {\displaystyle \mu } oraz dodatniej i skończonej wariancji σ 2 , {\displaystyle \sigma ^{2},} to ciąg zmiennych losowych, w postaci znormalizowanych wartości oczekiwanych U n {\displaystyle U_{n}}
U n = 1 n ∑ i = 1 n X i − μ σ / n {\displaystyle U_{n}={\frac {{\frac {1}{n}}\sum _{i=1}^{n}X_{i}-\mu }{\sigma /{\sqrt {n}}}}} zbieżny jest według rozkładu do standardowego rozkładu normalnego , gdy n → + ∞ . {\displaystyle n\to +\infty .}
Tzn.
lim n → ∞ P ( U n < u ) = 1 2 π ∫ − ∞ u e − x 2 / 2 d x {\displaystyle \lim _{n\to \infty }P(U_{n}<u)={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{u}e^{-x^{2}/2}\,dx} Centralne twierdzenie graniczne znane też pod nazwą twierdzenia Lindeberga-Lévy’ego mówi:
Niech ( X n , k ) {\displaystyle (X_{n,k})} będzie schematem serii , w którym E X n , k = 0 {\displaystyle EX_{n,k}=0} dla k ⩽ n {\displaystyle k\leqslant n} i dla każdego n {\displaystyle n} mamy ∑ k = 1 n D 2 X n , k = 1. {\displaystyle \sum _{k=1}^{n}D^{2}X_{n,k}=1.} Jeśli spełniony jest warunek Lindeberga , tj. dla każdego ϵ > 0 {\displaystyle \epsilon >0} zachodzi lim n → ∞ ∑ k = 1 n E X n , k 2 1 { | X n , k | > ϵ } = 0 , {\displaystyle \lim _{n\to \infty }\sum _{k=1}^{n}EX_{n,k}^{2}\mathbf {1} _{\{|X_{n,k}|>\epsilon \}}=0,} to ∑ k = 1 n X n , k → D N ( 0 , 1 ) . {\displaystyle \sum _{k=1}^{n}X_{n,k}{\xrightarrow {D}}N(0,1).}
Dowodów centralnego twierdzenia granicznego w wersji ogólnej jest kilka. Wszystkie są dość skomplikowane i wymagają korzystania z wielu zaawansowanych narzędzi matematycznych. Poniżej znajduje się jeden z prostszych dowodów, nie dający jednak oszacowania wartości błędu.
Pierwszym krokiem dowodu jest sformułowanie i udowodnienie użytecznych lematów.
Lemat 1
Niech f : R → R {\displaystyle f\colon \mathbf {R} \to \mathbf {R} } będzie funkcją trzykrotnie różniczkowalną taką, że ∀ x ∈ R {\displaystyle \forall x\in \mathbf {R} } zachodzi | f ‴ ( x ) | ⩽ A {\displaystyle |f'''(x)|\leqslant A} oraz | f ″ ( x ) | ⩽ B . {\displaystyle |f''(x)|\leqslant B.} Wówczas: ∀ x , y ∈ R {\displaystyle \forall x,y\in \mathbf {R} }
a) | f ( x + y ) − f ( x ) − f ′ ( x ) y − f ″ ( x ) y 2 2 ! | {\displaystyle {\Bigg |}f(x+y)-f(x)-f'(x)y-{\frac {f''(x)y^{2}}{2!}}{\Bigg |}} ⩽ A | y | 3 3 ! , {\displaystyle {}\leqslant {\frac {A|y|^{3}}{3!}},} b) | f ( x + y ) − f ( x ) − f ′ ( y ) | ⩽ B y 2 2 ! . {\displaystyle {\bigg |}f(x+y)-f(x)-f'(y){\bigg |}\leqslant {\frac {By^{2}}{2!}}.} Dowód
Oznaczmy φ x ( y ) = f ( x + y ) − f ( x ) − f ′ ( x ) y − f ″ ( x ) y 2 2 ! . {\displaystyle \varphi _{x}(y)=f(x+y)-f(x)-f'(x)y-{\frac {f''(x)y^{2}}{2!}}.} Wówczas φ x ( 0 ) = 0 , φ x ′ ( 0 ) = 0 , φ x ″ ( 0 ) = 0. {\displaystyle \varphi _{x}(0)=0,\varphi _{x}'(0)=0,\varphi _{x}''(0)=0.}
Ustalmy dowolne y > 0. {\displaystyle y>0.} Wówczas zgodnie z twierdzeniem Cauchy’ego istnieją takie z , t , w > 0 , {\displaystyle z,t,w>0,} że:
| φ x ( y ) y 3 | = | φ x ( y ) − φ x ( 0 ) y 3 − 0 | {\displaystyle {\Bigg |}{\frac {\varphi _{x}(y)}{y^{3}}}{\Bigg |}={\Bigg |}{\frac {\varphi _{x}(y)-\varphi _{x}(0)}{y^{3}-0}}{\Bigg |}} = | φ x ′ ( z ) 3 z 2 | {\displaystyle {}={\Bigg |}{\frac {\varphi _{x}'(z)}{3z^{2}}}{\Bigg |}} = | φ x ′ ( z ) − φ x ′ ( 0 ) 3 z 2 − 3 ⋅ 0 2 | {\displaystyle {}={\Bigg |}{\frac {\varphi _{x}'(z)-\varphi _{x}'(0)}{3z^{2}-3\cdot 0^{2}}}{\Bigg |}} = | φ x ″ ( t ) 6 t | {\displaystyle {}={\Bigg |}{\frac {\varphi _{x}''(t)}{6t}}{\Bigg |}} = | φ x ″ ( t ) − φ x ″ ( 0 ) 6 t − 6 ⋅ 0 | {\displaystyle {}={\Bigg |}{\frac {\varphi _{x}''(t)-\varphi _{x}''(0)}{6t-6\cdot 0}}{\Bigg |}} = | φ x ‴ ( w ) 6 | ⩽ A 6 . {\displaystyle {}={\Bigg |}{\frac {\varphi _{x}'''(w)}{6}}{\Bigg |}\leqslant {\frac {A}{6}}.} Na tej samej zasadzie:
| φ x ( y ) y 2 | {\displaystyle {\Bigg |}{\frac {\varphi _{x}(y)}{y^{2}}}{\Bigg |}} = | φ x ″ ( t ) 2 | {\displaystyle {}={\Bigg |}{\frac {\varphi _{x}''(t)}{2}}{\Bigg |}} ⩽ B 2 . {\displaystyle {}\leqslant {\frac {B}{2}}.} ◻ {\displaystyle \Box } Lemat 2
Jeżeli X ∼ N ( 0 , 1 ) , {\displaystyle X\sim N(0,1),} to
E | X | 3 = ∫ R | x | 3 1 2 π e − x 2 2 d x = 4 2 π . {\displaystyle E|X|^{3}=\int \limits _{R}|x|^{3}{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}dx={\frac {4}{\sqrt {2\pi }}}.} Dowód
E | X | 3 = ∫ R | x | 3 1 2 π e − x 2 2 d x {\displaystyle E|X|^{3}=\int \limits _{R}|x|^{3}{\frac {1}{\sqrt {2\pi }}}e^{-{\frac {x^{2}}{2}}}dx} = 2 2 π ∫ 0 + ∞ x 3 e − x 2 2 d x . {\displaystyle {}={\frac {2}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }x^{3}e^{-{\frac {x^{2}}{2}}}dx.} Dokonujemy podstawienia x 2 = t ⇒ d x = d t 2 x : {\displaystyle x^{2}=t\Rightarrow dx={\frac {dt}{2x}}{:}}
E | X | 3 = 2 2 π ∫ 0 + ∞ t x e − t 2 d t 2 x {\displaystyle E|X|^{3}={\frac {2}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }txe^{-{\frac {t}{2}}}{\frac {dt}{2x}}} = 1 2 π ∫ 0 + ∞ t e − t 2 d t . {\displaystyle {}={\frac {1}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }te^{-{\frac {t}{2}}}dt.} Teraz całkujemy przez części:
E | X | 3 = − 2 t 2 π e − t 2 | 0 + ∞ + 2 2 π ∫ 0 + ∞ e − t 2 d t {\displaystyle E|X|^{3}=-{\frac {2t}{\sqrt {2\pi }}}e^{-{\frac {t}{2}}}{\Bigg |}_{0}^{+\infty }+{\frac {2}{\sqrt {2\pi }}}\int \limits _{0}^{+\infty }e^{-{\frac {t}{2}}}dt} = − 4 2 π e − t 2 | 0 + ∞ {\displaystyle {}=-{\frac {4}{\sqrt {2\pi }}}e^{-{\frac {t}{2}}}{\Bigg |}_{0}^{+\infty }} = 4 2 π . {\displaystyle {}={\frac {4}{\sqrt {2\pi }}}.} ◻ {\displaystyle \Box } Drugi krok polega na oszacowaniu pewnej wartości:
Niech f : R → R , f ∈ C 3 ( R ) {\displaystyle f\colon \mathbf {R} \to \mathbf {R} ,f\in C^{3}(\mathbf {R} )} będzie funkcją trzykrotnie różniczkowalną taką, że | f ‴ ( x ) | ⩽ A ∀ x ∈ R {\displaystyle |f'''(x)|\leqslant A\;\forall x\in \mathbf {R} } oraz | f ″ ( x ) | ⩽ B ∀ x ∈ R . {\displaystyle |f''(x)|\leqslant B\;\forall x\in \mathbf {R} .}
Rozważamy niezależne zmienne ( G n , k ) {\displaystyle (G_{n,k})} o rozkładzie normalnym takie, że ∀ n , k E G n , k = 0 {\displaystyle \forall n,k\;EG_{n,k}=0} oraz D 2 G n , k = D 2 X n , k . {\displaystyle D^{2}G_{n,k}=D^{2}X_{n,k}.}
Wówczas:
∀ x ∈ R | E f ( x + X n , k ) − E f ( x + G n , k ) | {\displaystyle \forall x\in \mathbf {R} \;{\Bigg |}Ef(x+X_{n,k})-Ef(x+G_{n,k}){\Bigg |}} = | E f ( x + X n , k ) − f ( x ) − f ′ ( x ) ⋅ E X n , k {\displaystyle {}={\Bigg |}Ef(x+X_{n,k})-f(x)-f'(x)\cdot EX_{n,k}} − f ″ ( x ) 2 ! E X n , k 2 − E f ( x + G n , k ) + f ( x ) + f ′ ( x ) ⋅ E G n , k + f ″ ( x ) 2 ! E G n , k 2 | {\displaystyle {}-{\frac {f''(x)}{2!}}EX_{n,k}^{2}-Ef(x+G_{n,k})+f(x)+f'(x)\cdot EG_{n,k}+{\frac {f''(x)}{2!}}EG_{n,k}^{2}{\Bigg |}} = | E [ f ( x + X n , k ) − f ( x ) − f ′ ( x ) ⋅ X n , k {\displaystyle ={\Bigg |}E{\Big [}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}} − f ″ ( x ) 2 ! X n , k 2 ] − E [ f ( x + G n , k ) − f ( x ) − f ′ ( x ) ⋅ G n , k − f ″ ( x ) 2 ! G n , k 2 ] | {\displaystyle {}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Big ]}-E{\Big [}f(x+G_{n,k})-f(x)-f'(x)\cdot G_{n,k}-{\frac {f''(x)}{2!}}G_{n,k}^{2}{\Big ]}{\Bigg |}} ⩽ E | f ( x + X n , k ) − f ( x ) − f ′ ( x ) ⋅ X n , k {\displaystyle \leqslant E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}} − f ″ ( x ) 2 ! X n , k 2 | + E | f ( x + G n , k ) − f ( x ) − f ′ ( x ) ⋅ G n , k − f ″ ( x ) 2 ! G n , k 2 | . {\displaystyle {}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}+E{\Bigg |}f(x+G_{n,k})-f(x)-f'(x)\cdot G_{n,k}-{\frac {f''(x)}{2!}}G_{n,k}^{2}{\Bigg |}.} Przy czym ostatnia nierówność to nierówność trójkąta .
Drugi ze składników daje się na podstawie Lematu 1 oszacować w sposób następujący:
E | f ( x + G n , k ) − f ( x ) − f ′ ( x ) ⋅ G n , k − f ″ ( x ) 2 ! G n , k 2 | {\displaystyle E{\Bigg |}f(x+G_{n,k})-f(x)-f'(x)\cdot G_{n,k}-{\frac {f''(x)}{2!}}G_{n,k}^{2}{\Bigg |}} ⩽ A 6 E | G n , k | 3 . {\displaystyle {}\leqslant {\frac {A}{6}}E|G_{n,k}|^{3}.} Tymczasem G n , k = D 2 X n , k ⋅ G , {\displaystyle G_{n,k}={\sqrt {D^{2}X_{n,k}}}\cdot G,} gdzie G ∼ N ( 0 , 1 ) . {\displaystyle G\sim N(0,1).} W związku z tym (korzystając z Lematu 2):
E | G n , k | 3 = ( D 2 X n , k ) 3 / 2 ⋅ E | G | 3 {\displaystyle E|G_{n,k}|^{3}=(D^{2}X_{n,k})^{3/2}\cdot E|G|^{3}} ⩽ 12 ⋅ ( D 2 X n , k ) 3 / 2 . {\displaystyle {}\leqslant 12\cdot (D^{2}X_{n,k})^{3/2}.} Wobec tego
A 6 E | G n , k | 3 ⩽ 2 A ⋅ ( D 2 X n , k ) 3 / 2 {\displaystyle {\frac {A}{6}}E|G_{n,k}|^{3}\leqslant 2A\cdot (D^{2}X_{n,k})^{3/2}} ⩽ 2 A ⋅ D 2 X n , k ⋅ ( max 1 ⩽ k ⩽ n D 2 X n , k ) . {\displaystyle {}\leqslant 2A\cdot D^{2}X_{n,k}\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}.} Pierwszy ze składników można natomiast oszacować w sposób następujący:
E | f ( x + X n , k ) − f ( x ) − f ′ ( x ) ⋅ X n , k − f ″ ( x ) 2 ! X n , k 2 | {\displaystyle E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}} = E | f ( x + X n , k ) − f ( x ) − f ′ ( x ) ⋅ X n , k − f ″ ( x ) 2 ! X n , k 2 | ⋅ 1 { | X n , k | ⩽ ϵ } {\displaystyle {}=E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|\leqslant \epsilon \}}} + E | f ( x + X n , k ) − f ( x ) − f ′ ( x ) ⋅ X n , k {\displaystyle {}+E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}} − f ″ ( x ) 2 ! X n , k 2 | ⋅ 1 { | X n , k | > ϵ } . {\displaystyle {}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.} Z kolei szacujemy:
E | f ( x + X n , k ) − f ( x ) − f ′ ( x ) ⋅ X n , k − f ″ ( x ) 2 ! X n , k 2 | ⋅ 1 { | X n , k | ⩽ ϵ } {\displaystyle E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|\leqslant \epsilon \}}} ⩽ A 6 E | X n , k | 3 ⋅ 1 { | X n , k | ⩽ ϵ } {\displaystyle {}\leqslant {\frac {A}{6}}E|X_{n,k}|^{3}\cdot \mathbf {1} _{\{|X_{n,k}|\leqslant \epsilon \}}} ⩽ A 6 D 2 X n , k ⋅ ϵ {\displaystyle {}\leqslant {\frac {A}{6}}D^{2}X_{n,k}\cdot \epsilon } oraz
E | f ( x + X n , k ) − f ( x ) − f ′ ( x ) ⋅ X n , k − f ″ ( x ) 2 ! X n , k 2 | ⋅ 1 { | X n , k | > ϵ } {\displaystyle E{\Bigg |}f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}-{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}} ⩽ E | f ( x + X n , k ) − f ( x ) − f ′ ( x ) ⋅ X n , k | ⋅ 1 { | X n , k | > ϵ } + E | f ″ ( x ) 2 ! X n , k 2 | ⋅ 1 { | X n , k | > ϵ } {\displaystyle {}\leqslant E|f(x+X_{n,k})-f(x)-f'(x)\cdot X_{n,k}|\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}+E{\Bigg |}{\frac {f''(x)}{2!}}X_{n,k}^{2}{\Bigg |}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}} ⩽ B ⋅ E X n , k 2 ⋅ 1 { | X n , k | > ϵ } . {\displaystyle {}\leqslant B\cdot EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.} Ostatnia nierówność wynika z Lematu 1.
Zatem ∀ x ∈ R {\displaystyle \forall x\in \mathbf {R} } mamy następujące oszacowanie:
| E f ( x + X n , k ) − E f ( x + G n , k ) | {\displaystyle |Ef(x+X_{n,k})-Ef(x+G_{n,k})|} ⩽ 2 A ⋅ D 2 X n , k ⋅ ( max 1 ⩽ k ⩽ n D 2 X n , k ) + A 6 D 2 X n , k ⋅ ϵ + B ⋅ E X n , k 2 ⋅ 1 { | X n , k | > ϵ } . {\displaystyle {}\leqslant 2A\cdot D^{2}X_{n,k}\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}+{\frac {A}{6}}D^{2}X_{n,k}\cdot \epsilon +B\cdot EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.} Trzeci krok polega na wielokrotnym zastosowaniu oszacowania uzyskanego powyżej.
| E f ( X n , 1 + X n , 2 + … + X n , n ) − E f ( G n , 1 + G n , 2 + … + G n , n ) | {\displaystyle |Ef(X_{n,1}+X_{n,2}+\ldots +X_{n,n})-Ef(G_{n,1}+G_{n,2}+\ldots +G_{n,n})|} ⩽ | E f ( X n , 1 + … + X n , n ) − E f ( X n , 1 + … + X n , n − 1 + G n , n ) | {\displaystyle {}\leqslant |Ef(X_{n,1}+\ldots +X_{n,n})-Ef(X_{n,1}+\ldots +X_{n,n-1}+G_{n,n})|} + | E f ( X n , 1 + … + X n , n − 1 + G n , n ) − E f ( X n , 1 + … + X n , n − 2 + G n , n − 1 + G n , n ) | {\displaystyle {}+|Ef(X_{n,1}+\ldots +X_{n,n-1}+G_{n,n})-Ef(X_{n,1}+\ldots +X_{n,n-2}+G_{n,n-1}+G_{n,n})|} + … + | E f ( X n , 1 + G n , 2 + … + G n , n ) − E f ( G n , 1 + G n , 2 + … + G n , n ) | . {\displaystyle {}+\ldots +|Ef(X_{n,1}+G_{n,2}+\ldots +G_{n,n})-Ef(G_{n,1}+G_{n,2}+\ldots +G_{n,n})|.} Rozpatrzmy k {\displaystyle k} -ty z powyższych wyrazów.
Podstawiamy
Y := X n , 1 + … + X n , k − 1 + G n , k + 1 + … + G n , n . {\displaystyle Y:=X_{n,1}+\ldots +X_{n,k-1}+G_{n,k+1}+\ldots +G_{n,n}.} Zmienna Y {\displaystyle Y} jest niezależna od X n , k {\displaystyle X_{n,k}} i G n , k . {\displaystyle G_{n,k}.} Wobec tego:
| E f ( X n , 1 + … + X n , k + G n , k + 1 + … + G n , n ) − E f ( X n , 1 + … + X n , k − 1 + G n , k + … + G n , n ) | {\displaystyle |Ef(X_{n,1}+\ldots +X_{n,k}+G_{n,k+1}+\ldots +G_{n,n})-Ef(X_{n,1}+\ldots +X_{n,k-1}+G_{n,k}+\ldots +G_{n,n})|} = | E f ( Y + X n , k ) − E f ( Y + G n , k ) | = | ∫ R E f ( y + X n , k ) d μ Y ( y ) {\displaystyle {}=|Ef(Y+X_{n,k})-Ef(Y+G_{n,k})|={\bigg |}\int \limits _{R}Ef(y+X_{n,k})d\mu _{Y}(y)} − ∫ R E f ( y + G n , k ) d μ Y ( y ) | {\displaystyle {}-\int \limits _{R}Ef(y+G_{n,k})d\mu _{Y}(y){\bigg |}} ⩽ ∫ R | E f ( y + X n , k ) {\displaystyle {}\leqslant \int \limits _{R}|Ef(y+X_{n,k})} − E f ( y + G n , k ) | d μ Y ( y ) {\displaystyle {}-Ef(y+G_{n,k})|d\mu _{Y}(y)} ⩽ 2 A ⋅ D 2 X n , k ⋅ {\displaystyle {}\leqslant 2A\cdot D^{2}X_{n,k}\cdot } ( max 1 ⩽ k ⩽ n D 2 X n , k ) {\displaystyle {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}} + A 6 D 2 X n , k ⋅ ϵ {\displaystyle {}+{\frac {A}{6}}D^{2}X_{n,k}\cdot \epsilon } + B ⋅ E X n , k 2 ⋅ 1 { | X n , k | > ϵ } . {\displaystyle {}+B\cdot EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}.} Zatem:
| E f ( X n , 1 + X n , 2 + … + X n , n ) − E f ( G n , 1 + G n , 2 + … + G n , n ) | {\displaystyle |Ef(X_{n,1}+X_{n,2}+\ldots +X_{n,n})-Ef(G_{n,1}+G_{n,2}+\ldots +G_{n,n})|} ⩽ 2 A ⋅ ( ∑ k = 1 n D 2 X n , k ) ⋅ ( max 1 ⩽ k ⩽ n D 2 X n , k ) {\displaystyle {}\leqslant 2A\cdot {\bigg (}\sum _{k=1}^{n}D^{2}X_{n,k}{\bigg )}\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}} + A 6 ( ∑ k = 1 n D 2 X n , k ) ⋅ ϵ {\displaystyle {}+{\frac {A}{6}}{\bigg (}\sum _{k=1}^{n}D^{2}X_{n,k}{\bigg )}\cdot \epsilon } + B ⋅ ( ∑ k = 1 n E X n , k 2 ⋅ 1 { | X n , k | > ϵ } ) {\displaystyle {}+B\cdot {\bigg (}\sum _{k=1}^{n}EX_{n,k}^{2}\cdot \mathbf {1} _{\{|X_{n,k}|>\epsilon \}}{\bigg )}} ⩽ 2 A ⋅ ( max 1 ⩽ k ⩽ n D 2 X n , k ) {\displaystyle {}\leqslant 2A\cdot {\bigg (}\max _{1\leqslant k\leqslant n}{\sqrt {D^{2}X_{n,k}}}{\bigg )}} + A 6 ϵ + B ⋅ L n ( ϵ ) . {\displaystyle {}+{\frac {A}{6}}\epsilon +B\cdot L_{n}(\epsilon ).}
Pierwszy i ostatni składnik z warunku Lindeberga zbiegają do zera, gdy n {\displaystyle n} dąży do nieskończoności. W związku z tym:
∀ ϵ > 0 lim sup n → ∞ | E f ( X n , 1 + … + X n , n ) − E f ( G n , 1 + … + G n , n ) | ⩽ A ⋅ ϵ . {\displaystyle \forall \epsilon >0\;\limsup _{n\to \infty }|Ef(X_{n,1}+\ldots +X_{n,n})-Ef(G_{n,1}+\ldots +G_{n,n})|\leqslant A\cdot \epsilon .} Oznacza to, że:
E f ( X n , 1 + … + X n , k ) {\displaystyle Ef(X_{n,1}+\ldots +X_{n,k})} → n → ∞ E f ( G n , 1 + … + G n , n ) = E f ( G ) , {\displaystyle {}{\xrightarrow[{n\to \infty }]{}}Ef(G_{n,1}+\ldots +G_{n,n})=Ef(G),} gdzie G ∼ N ( 0 , 1 ) . {\displaystyle G\sim N(0,1).} Czwarty krok polega na wyliczenie dystrybuanty granicznej na podstawie powyższych oszacowań.
Weźmy funkcję f : R → R , f ∈ C 3 ( R ) {\displaystyle f\colon \mathbf {R} \to \mathbf {R} ,f\in \mathbb {C} ^{3}(R)} spełniającą warunek ∀ x ∈ R 1 ( t + δ , + ∞ ) ( x ) {\displaystyle \forall x\in \mathbf {R} \;\mathbf {1} _{(t+\delta ,+\infty )}(x)} ⩽ f ( x ) ⩽ 1 ( t , + ∞ ) ( x ) {\displaystyle {}\leqslant f(x)\leqslant \mathbf {1} _{(t,+\infty )}(x)} dla pewnych t ∈ R , δ > 0. {\displaystyle t\in \mathbf {R} ,\delta >0.}
Wówczas:
P ( X n , 1 + … + X n , n ⩾ t ) ⩾ E f ( X n , 1 + … + X n , n ) ⩾ P ( X n , 1 + … + X n , n ⩾ t + δ ) . {\displaystyle P(X_{n,1}+\ldots +X_{n,n}\geqslant t)\geqslant Ef(X_{n,1}+\ldots +X_{n,n})\geqslant P(X_{n,1}+\ldots +X_{n,n}\geqslant t+\delta ).} Ale:
E f ( X n , 1 + … + X n , n ) → n → ∞ E f ( G ) {\displaystyle Ef(X_{n,1}+\ldots +X_{n,n}){\xrightarrow[{n\to \infty }]{}}Ef(G)} oraz
P ( G ⩾ t ) ⩾ E f ( G ) ⩾ P ( G ⩾ t + δ ) . {\displaystyle P(G\geqslant t)\geqslant Ef(G)\geqslant P(G\geqslant t+\delta ).} W związku z tym:
lim inf n → ∞ P ( X n , 1 + … + X n , n ⩾ t ) {\displaystyle \liminf _{n\to \infty }P(X_{n,1}+\ldots +X_{n,n}\geqslant t)} ⩾ P ( G ⩾ t + δ ) → δ → 0 + P ( G ⩾ t ) {\displaystyle {}\geqslant P(G\geqslant t+\delta ){\xrightarrow[{\delta \to 0^{+}}]{}}P(G\geqslant t)} oraz podobnie
lim sup n → ∞ P ( X n , 1 + … + X n , n ⩾ t ) {\displaystyle \limsup _{n\to \infty }P(X_{n,1}+\ldots +X_{n,n}\geqslant t)} ⩽ P ( G ⩾ t − δ ) → δ → 0 + P ( G ⩾ t ) . {\displaystyle {}\leqslant P(G\geqslant t-\delta ){\xrightarrow[{\delta \to 0^{+}}]{}}P(G\geqslant t).} Otrzymujemy więc
P ( X n , 1 + … + X n , n ⩾ t ) → n → ∞ {\displaystyle P(X_{n,1}+\ldots +X_{n,n}\geqslant t){\xrightarrow[{n\to \infty }]{}}} P ( G ⩾ t ) ⇒ P ( X n , 1 + … + X n , n < t ) → n → ∞ P ( G < t ) . {\displaystyle P(G\geqslant t)\Rightarrow P(X_{n,1}+\ldots +X_{n,n}<t){\xrightarrow[{n\to \infty }]{}}P(G<t).} Ale z ciągłości dystrybuanty rozkładu normalnego wnioskujemy, że
P ( X n , 1 + … + X n , n ⩽ t ) → n → ∞ P ( G ⩽ t ) . {\displaystyle P(X_{n,1}+\ldots +X_{n,n}\leqslant t){\xrightarrow[{n\to \infty }]{}}P(G\leqslant t).} Ponieważ punktowa zbieżność dystrybuant w punktach ciągłości dystrybuanty granicznej jest równoważna zbieżności według rozkładu, więc ostatecznie:
∑ k = 1 n X n , k → n → ∞ D N ( 0 , 1 ) . {\displaystyle \sum _{k=1}^{n}X_{n,k}{\xrightarrow[{n\to \infty }]{D}}N(0,1).} ◻ {\displaystyle \Box }