User talk:Miroslaw.Makowiecki

thumb|350px|gęstość rozkładu normalnego Artykuł zawiera wszystkie informacje dotyczące rozkładu normalnego, które są potrzebne do jego wyprowadzenia i prostą jego interpretację, a w szczególności interpretację $$\sigma$$ oraz punktu przegięcia, kiedy wyniki pomiaru należy odrzucić, a kiedy przyjąć.

Niżej znajdują się wszystkie momenty statystyczne rozkładu normalnego. Należy zaznaczyć, że momenty statystyczne o nieparzystym stopnia są równe zeru, a pozostałe są od niego różne. Można tak interpretować, że rozrzut wyników doświadczalnych wokół wartości najprawdopodobnej $$x_0$$ jest symetryczny, tzn. ilość wyników pomiarowych przed i za $$x_0$$ jest taka sama, czyli funkcja gęstości prawdopodobieństwa jest funkcją parzystą, z tego powodu momenty statystyczne nieparzystego stopnia są równe zero, gdyż funkcja podcałkowa jest funkcją nieparzystą w całce symbolizującej moment statystyczny.

Twierdzenie o rozkładzie normalnym – szczególny przypadek twierdzenia o rozkładzie dwumianowym w szczególności Bernoulliego dający odpowiedź na pytanie jak postępować z danymi doświadczalnymi: czy je odrzucić jako mało prawdopodobne, czy je przyjąć w zależności od danych doświadczalnym uzyskanych z doświadczenia poprzez uprzednie obliczenie $$x_{srednie}$$ i $$\sigma$$, czyli wartość średnią (arytmetyczną) i średnie odchylenie standardowe (zob. reguła trzech sigm). Zasady obliczania tych wskaźników $$x_{srednie}$$ czy $$\sigma$$ będziemy tu przyjmować za znane i nie będziemy do tego problemu podchodzić, tylko wyprowadzimy wzory na $$\sigma_p$$- to jest niepewność standardowa pojedyńczego pomiaru, a $$\sigma_{srednie}$$ to jest niepewność standardowa średniej arytmetycznej uzyskanych z doświadczenia wszystkich nie odrzuconych pomiarów, oraz $$x_{srednie}$$ określa wartość, której prawdopodobieństwo uzyskanie w naszym doświadczeniu jest największe, jest to wartość najdokładniejsza ze wszystkich uzyskanych  $$x_i$$ względem wartości dokładnej $$x_0$$, i celem doświadczenia jest uzyskanie wartości $$x_0$$, ponieważ nie jest możliwe uzyskanie tej wartości,lub dokonania nieskończenie wielu pomiarów, bo wtedy $$x_{srednie}=x_0$$, to zamiast niej uzyskujemy $$x_{srednie}$$ (średniej arytmetycznej), która jest liczona dla każdej serii danych doświadczalnych wykorzystując do tego celu rozkład normalny, w której w miejsce wartości dokładnej wsadzamy $$x_{srednie}$$.

Zwykle tak się robi w fizyce doświadczalnej, nie patrząc na opinie matematyków, w której matematycy mówią że wszystko musi być dokładne, nie ma wartości przybliżonej a jeśli są to trzeba określić je określić w sposób ściśle określony, a według fizyków nie ma wartości dokładnej, są tylko wartości przybliżone. W doświadczeniach fizycznych dane doświadczalne układają się wokół punkt x_0 (wartości dokładnej}, i bardzo rzadko się zdarza, że wyjdzie jakiś wynik(pomiar), który jest odległy od $$x_0$$ nawet $$o 2\sigma$$, i jest to raczej błąd systematyczny, które może mówić o błędzie eksperymentatora, niedostosowanej np. temperatory do warunków doświadczalnych itp. dlatego odrzucanie wyników doświadczalnych bardzo oddalonych od $$x_0$$, należy przyjąć jako odrzucone Gdy $$|x_{i}-x_{srednie}|>2\sigma$$ odrzuca się te $$x_i$$ z poszczególnych prób i serii. Liczba wyników doświadczalnych powinna być na tyle duża, nawet po odrzuceniu pewnych danych doświadczalnych szczególnie zawężonym do $$|x-x_i|>\sigma$$. Mówi się, że przy typ, że przybliżeniu $$n \to \infty$$ jest spełniony tutaj rozkład normalny, a przy małym n nie jest, ponieważ w doświadczeniu powinno się robić co najmniej 30 doświadczeń w poszczególnych próbach, by rozkład w miarę był spełniony. Rozrzut wyników wokół wartości dokładnej jest porozrzucany po obu stronach $$x_0$$ i tak się dzieje, że wyniki doświadczalne znajdują się bardzo blisko wartości dokładnej. Prawdopodobieństwo uzyskania wyników o błędzie większym od $$\sigma$$ a nawet $$2\sigma$$ jest bardzo mało prawdopodobne i odrzucanie tychże wyników doświadczalnych nie wnosi prawie żadnego wkładu do obliczania $$\sigma$$ i $$x_0$$. Rozkład normalny jest spełniony dla nieskończonej ilości stopni swobody (liczby uzyskanych danych doświadczalnych), oczywiście minus jeden, bo mamy wzór na średnią arytmetyczną, licząc je dla poszczególnych prób.

Niepewność pomiarowa w doświadczeniu, określmy jako średni błąd, który można popełnić, dla poszczególnych doświadczeń w próbach. A jeśli niepewności są większe niż $$\sigma$$, to taki wynik częściowy doświadczenia należy odrzucić, toteż $$x_{srednie}$$ i $$\sigma$$ należy przeliczyć od nowa, czy nie ma dalszych wyników doświadczenia tzn.: $$x_i$$ określić jako odrzucone.Jeśli są to tą procedurę powtarzamy aż do skutku. Po tej czynności należy przejść do dalszego etapu badania jakim są zależności w naszym doświadczeniu w poszczególnych próbach.

Dlaczego trzeba odrzucać wyniki dla której $$(x_i-x_{srednie})>2 \sigma$$, dlatego jak zapoznamy się z wyprowadzeniem wzoru na rozkład normalny zastosowano szereg Taylora zastosowanej wokół wartości $$x_0$$,i jak znamy z analizy matematycznej gdy większa różnica między $$x_i$$- wynikiem pomiaru a $$x_0$$- wartością dokładną to szereg Taylora przestaję być spełniona poza promieniem promieniem zbieżności i dlatego odchyły od $$x_0$$ nie powinny być za duże.

Wzór na rozkład Bernoulliego
Rozkład Bernoulliego jest szczególnym przypakiem twierdzenia rozkładu Bernoulliego, a jeszcze dokładniej dwumianowego. Aby wyprowadzić twierdzenie na rozkład normalny, należy skorzystać z twierdzenia na rozkład Bernoulliego. Jest to twierdzenie, które zależy od n,k, czyli ilości przeprowadzonej doświadczeń na obiekcje S i uzyskanych wyników poprawnych na S czyli k razy. Na sam początek: twierdzenie Bernoulliego, znane ze szkoły średniej, ze statystyki matematycznej:


 * $$P_{nk}={n \choose k} p^k q^{n-k}$$

gdzie:


 * $$P_{nk}$$-to prawdopodobieństwo uzyskania k razy elementu z n losowań,

ale
 * $$q=1-p$$


 * n- ilość doświadczeń przeprowadzonej na obiekcie S


 * k - ilość doświadczeń na S, w której uzyskaliśmy zdarzenie K, którego wartość uzyskania wynosi p przy pojedyńczym pomiarze. Ale gdy $$k=n$$, ze wzoru na rozkład normalny, uzyskujemy $$P_{nn}=p$$, oraz gdy $$k=0$$, to $$P_{n0}=q=1-p$$, czyli zdarzenie całkowicie przeciwne.

Mamy n doświadczeń uzyskanych,w których dana wartość(właściwość K jest k razy wylosowana), trzeba pamiętać że p jest to prawdopodobieństwo uzyskania pojedyńczego zdarzenia oczekiwanego, w pojedyńczym losowaniu, ale też jest q=p-1 dla pojedyńczego zdarzenia nieoczekiwanego uzyskania wyników przeciwnych niż oczekiwane.

Wyznaczanie wzoru przybliżonego na n!
Obliczająć n! w sposób przybliżony, korzystam z logarytmów naturalnych, by udało się ustalić przybliżoną zależność na n!. W rozkładzie dwumianowym bardzo często występuje silnia, korzystanie z niej szczególnie jest nie wygodne gdy $$n\rightarrow \infty$$ Silnia jest to iloczyn kolejnych liczb naturalnych licząc od 1 do n
 * $$n!=1\cdot2\cdot...\cdot n\;$$

Logarytmując silnia n-tego stopnia mamy:
 * $$ \ln n! =\ln (1\cdot2\cdot ...\cdot n)\;$$

Korzystając, że logarytm (w szczególności naturalny) iloczynu dwóch czynników, jest to sumą logarytmów naturalnych, czyli według wzoru:
 * $$\ln {xy} =\ln x+\ln y\;$$

Wykorzystując tą prawdę mamy:
 * $$ \ln n!=\ln 1+\ln 2+..+\ln n\;$$

Stąd jego dyskretna suma jest równa:
 * $$\ln n!=\sum\limits_{i=1}^n \ln i\;$$

Udowodnijmy do zapomocą indukcji matematycznej. Dla n=1 wiadomo że $$\ln 1!=\ln 1=0\;$$ Załóżmy że twierdzenie jest spełnione dla n i udowodnijmy to dla n+1, otrzymujemy:

$$ \ln (n+1)!=\ln (n! (n+1))=ln n!+ln (n+1)=\ln 1+\ln 2+..+\ln n +\ln (n+1)\;$$

Czyli twierdzenie na $$ \ln(n!)$$ zostało udowodnione. Można dokonać małego przybliżenia zastępując sumę logarytmów na całkę, czyli zamienić na całkę, która jest w pewnym sensie sumą ciągłą, z definicji całki, a jeszcze poza tym zamieńmy i na x. Zastosowanie takiego przybliżenia dla dużych n nie powoduje dużego błędu, czyli np. pole pod krzywą powstałych z połączeń punktów $$\ln(i)$$ odcinkami. gdzie i to numer argumentu dla której liczymy wartość. Udowodnijmy twierdzenie:


 * $$\int\limits^n_1 ln(x)=\sum_{i=1}^{n-1} \int\limits^{i+1}_{i} ln(x)dx$$

Korzystając z twierdzenia Langrange'a, tzn.:$${{f(b)-f(a)}\over{b-a}}=f^'(c)$$ a więc
 * $${\int\limits^n_1 \ln n}=\sum_{i=1}^{n-1} {\ln(i+\theta)\int\limits^{i+1}_i dx}=\sum_{i=1}^{n-1}\ln(i+\theta)$$

Trzeba pamiętać $$\theta\in(0,1)$$

W porównaniu z dwoma sumami skrajnymi mamy:


 * $$\sum_{i=1}^{n-1}\ln(i+0)\leq\int\limits^n_1 \ln i\leq\sum_{i=1}^{n-1}\ln(i+1)$$

Obliczając różnice prawej i lewej strony mamy:


 * $$\sum_{i=1}^{n-1} \ln(i+1)-\sum_{i=1}^{n-1}\ln(i)=\sum_{i=2}^{n}\ln i-\sum_{i=1}^{n-1} \ln i=\ln n-\ln 1=\ln n$$

I obliczmy całkę $$\int\limits^n_1 \ln x$$ Dokonując całkowania przez części otrzymuję:


 * $$\ln n!\simeq[{x} \ln {x}]_{1}^{n}- \int\limits^n_1 {x} {1 \over {x}} d{x}=n \ln n-n-1\simeq n\ln n-n=\ln n^n-\ln e^n=\ln {{n^n} \over {e^n}}\;$$

A więc mamy:


 * $$ \ln n!\simeq\ln {{n^n}\over{e^n}}\;$$

A dokładniej:

$$ \ln n!= ln{{n^n}\over{e^n}}\pm \ln n\;$$

Błąd bezwzględny jest równy $$\ln n\;$$

Obliczmy błąd względny, który tak naprawdę mówi, jak nasza wartość przybliżona $$\ln n!\;$$ jest poprawna. Otóż mamy:

$$\lim_{n \rightarrow \infty}{{\ln n}\over{ln{{n^n}\over{e^n}}}}=\lim_{n \rightarrow \infty}{{\ln n}\over {n ln n-n}}=\lim_{n \rightarrow \infty}{1\over{n-{n\over \ln n}}}=\lim_{n \rightarrow \infty}{1\over{n(1-{1\over \ln n})}}=(\lim_{n \rightarrow \infty} {1\over n}){1\over{1-\lim_{n \rightarrow \infty} {1 \over ln n}}}=0 \cdot 1=0$$

Czyli wyznaczone wartości przybliżone tzn. :$$n!\simeq={{n^n}\over{e^n}}$$ jest spełnione dobrze dla dużych n,a dla $$ n \rightarrow \infty$$ to przybliżenie staje się dokładne. W poniższym dowodzie będziemy operować na n nieskończenie dużym, i małych odchyleń od $$x_0$$ w porównaniu z $$\sigma$$, bo tylko wtedy nasze twierdzenie jest twierdzeniem względnie dokładnym. Należy pamiętać, mimo że błąd bezwzględny dąży do nieskończoności, to w tym przypadku dla $$n\rightarrow \infty\;$$, błąd względny jest wprost równy zero, i dlatego ten rodzaj błędu jest dla nas ważny.

Etap obliczeń korzystając z przybliżonego wzoru na n!
Mając uzyskany wzór na n! mogę wykorzystać go w dalszej części rozumowania. Przekształcając wzór z twierdzenia Bernoulliego za pomocą wzoru ostatnio wyprowadzonego na n! uzyskujemy:
 * $$P_{nk}= {{n!} \over {k! (n-k)!}} p^k (1-p)^{n-k} \simeq {{{n^n} \over {e^n}} \over }$$

Grupujemy wartości względem $$e^{cos}$$od $${cos}^{cos}$$ w osobne czynniki i mamy:
 * $$P_{nk}={n^n \over {{(n-k)^{n-k}}k^k}}{{e^k e^{n-k}} \over e^n}p^k (1-p)^{n-k}$$

Wykonując prostych obliczeń na $$e^{cos}$$ i skróceniu tychże czynników w sposób całkowity zależnych od liczby e mamy:
 * $$P_{nk}={{n^n}\over{ {(n-k)^{n-k}}k^k}}{{e^n \over e^n}p^k (1-p)^{n-k}}={{n^n} \over }p^k(1-p)^{n-k}$$

rozkładając na czynniki wyrażenie $$(n-k)^{(n-k)}\;$$ na $${{(n-k)}^n}\over{{(n-k)}^k}\;$$ mamy: $$P_{nk}={{n^n} \over {{(n-k)^{n}} \over {(n-k)^k}}k^k}p^k(1-p)^{n-k}$$

Zaczynamy grupowania potęg względem wykładników k oraz n, mamy:


 * $$P_{nk}={{n^n} \over {(n-k)^n}} {{(n-k)^k} \over {k^k}}p^k(1-p)^{n-k}$$

Dokonując przekształceń na ilorazach typu $${{x \pm 1}\over{x}}=1 \pm {1\over x}$$, mamy:

$$P_{nk}={1 \over {(1- {k \over n})^n}}{({n \over k} - 1)^k}p^k(1-p)^{n-k}$$

Następne warunki przybliżające lub wzory
Wyprowadzenie rozkładu normalnego z obfituje w obliczeniami z przybliżonymi wartościami, $$k,n \rightarrow \infty$$ a także $$k<<n$$ Te warunki jak wiadomo są w naszych doświadczeniach całkowicie są spełnione, w przeprowadzonym, tzn.mamy nieskończenie wiele liczb z przedziału $$x\in(-\infty,\infty)$$, a liczba trafień np. w wartość $$x_i$$ jest mała w porównaniu z liczbą wszystkich możliwych trafień jakie można dokonać w doświadczeniu.

Trzeba pamiętać, że obliczenia są przeprowadzone w przybliżeniu bo n skończone, ale gdy przejdziemy do $$n \rightarrow \infty$$, to wzory są całkowiecie względnie dokładne, ale przy pewnych warunkach przeprowadźmy nieskończoną ilość doświadczeń, by uzyskać $$x_0=x_{srednie}$$,tzn.$$x_0$$ dokładnie i $$\sigma$$ też dokładnie. Określmy przedział $$\Delta x<\infty$$, ale na tyle małe, by doświadczenia fizyczne miały sens, i mówiąc gęstość prawdopodobieństwa, w tymże przedziale jest jednakowe, ale można powiedzieć, że jeszcze $$Delta x$$ jeszcze nie 0, ale dostatecznie małe uzyskania x'a, jest z małym w przybliżeniem dostatecznie małe tzn. $$\rho_{max(x)}-\rho(x)_{min(x)}\simeq 0$$. Liczby trafione w przedział $$x\in(x-{\Delta x},x+{\Delta x})$$ mają takie same prawdopodobieństwo trafienia w ten obszar podczas eksperymentu fizycznego.

Następne zastosowanie przybliżeń lub warunków przybliżających
Ale liczba wyników liczby x uzyskanych wyników ściśle określonych k razy, jest o wiele mniejsza od liczby n, czyli od liczby doświadczeń wykonanym na obiekcie powiedźmy S. W obliczeniach będziemy przyjmować, że $$k\rightarrow \infty$$ oraz $$n \rightarrow \infty$$ Ale tak że spełniony jest warunek$${{k}\over{n}}<<1$$

Wzory przybliżone i zastosowania w wyprowadzeniu twierdzenia
Korzystająć z ostatniego warunku często należy korzystać ze wzoru przybliżonego:


 * $$ {1 \over {1-{x}}} \simeq {1+{x}}$$

Ostatni wzór można wyprowadzić z twierdzenia Taylora czyli:

$${1\over {1-{x}}}={1+\sum^{\infty}_{i=1}}{{x^i}\over{n}}\simeq 1+x$$, Stosując to przybliżenie dla pierwszego czynnika w ilorazie mamy:


 * $$P_{nk}\simeq{(1+ {k \over n})^n}{({n \over k}-1)^k}p^k(1-p)^{n-k}$$

Zastosowanie wzorów przybliżonych i warunków przybliżających
Stosując $$\lim_{n\rightarrow \infty}{(1+{k\over n})}^n=e^k$$ otrzymujemy:
 * $$P_{nk}\simeq{(1+ {k \over n})^n}{({n \over k}-1)^k}p^k(1-p)^{n-k}=(1+ {1 \over {n \over k}})^{{n \over k}k}({n \over k}-1)^k p^k(1-p)^{n-k}\rightarrow{e^k}({n \over k}-1)^k p^k(1-p)^{n-k}$$

Rozszerzenie przedziałów uzyskania wyników na R (liczby rzeczywiste)
Dla doświadczenia spełnione są warunki, wiedząc jednak ,że $$\Delta x \rightarrow 0$$, gdzie jest to malutki przedział dla którego wartości naszego pomiaru są nierozróżnialne względem niepewności pomiarowej, ale i też $$d \rightarrow \infty$$, co przedstawia rozległość pomiarów co spełnia warunki dla rozkładu normalnego, a więc z użyciem tych warunków wzór na $$p= {{\Delta x} \over d}$$,czyli $$p \rightarrow 0$$, oraz następny wzór $$n={d \over { \Delta x}}$$, który przedstawia liczbę punktów pomiarowych w przedziale d, tzn. punktów $$x\in(x_0-{d\over 2},x_0+{d\over 2})$$czyli $$n \rightarrow \infty$$. Zwykle w doświadczeniach w fizyce mamy, że d jest bardzo duże w porównaniu $$\Delta x$$ bo $$d>> {\Delta x}$$ i jest conaj wyżej skończone,bo nie możemy badać wyników, które uzyskamy w przedziale $$x\in{(-\infty,\infty)}$$,nie dość że długość przedmiotów miała by wiele do życzenia, jak i prawa fizycznego, które badamy może być nie spełnione dla aż tak dużego, np. prędkość świata dla d względnie miarę małego w porównywana tysiącami kilometrów, prędkość światła można zaniedbać, a dla dużych odległości, raczej już nie. Również $$\Delta x$$ nie może być nieskończenie małe ponieważ niepewność pomiarowa przedmiotów jest jakaś tam, tak że rozróżnienie wyników w $$x\in(x-\chi,x+\chi)$$ graniczy z cudem. Czyli pomiary jakieś wielkości fizycznej nie mogą być pomiarami zbyt rozległymi względem naszego doświadczenia, jak i pomiarami bardzo małymi względnie wielkości które mierzymy.

Zastosowanie ostatnich warunków
Podstawiając za p,mamy:
 * $$P_{nk}\rightarrow e^k({1 \over {k \over n}}-1)^k p^k(1-p)^{n-k}={e^k ({1 \over {k \over n}}-1)^k} {({{\Delta x} \over d})^k}{(1-{{\Delta x} \over d})^{n-k}}$$

stosujemy, że $$k<<n\;$$ otrzymujemu: $$P_{nk}\simeq {e^k ({1 \over {k\over n}}-1)^k} {({{\Delta x} \over d})^k}{1 \over{(1+{1 \over {d \over {\Delta x}}})^n}}$$

Korzystając ze wzoru przybliżonego na odwrotność różnicy ilorazu
Stosując: $$({1+{1\over{{d}\over{\Delta x}}}})^{d \over {\Delta x}}\rightarrow e$$ mamy


 * $$P_{nk}\rightarrow {e^k {({1 \over {k \over n}}-1)^k}({{\Delta x} \over d})^k}{1 \over{(1+{1 \over {d \over {\Delta x}}})^}}\rightarrow e^k ({{1 \over {k \over n }}-1})^k ({{\Delta x} \over d})^k {1 \over {e^{n {{\Delta x} \over d}}}}={e^k e^{-n{{\Delta x} \over d}}}({{1 \over {k \over n}}-1)^k}({{ \Delta x} \over d})^k=$$

Ogólne stosowane twierdzenia

 * $$e^x\simeq 1+x$$,  oraz     $$ x\simeq e^x-1$$

Zastosowanie ostatnich przybliżeń
Wykorzystując wzór $${k \over n}\simeq e^{k \over n}-1$$,oraz $${{\Delta x}\over{d}}=e^{{\Delta x}\over{d}}-1$$
 * $$P_{nk}\rightarrow { {e^k e^{-n {{\Delta x} \over d}}} ({{1 \over{e^{k \over n}-1}}-1})^k({e^{{\Delta x} \over d}}-1)^k}=e^k e^{-n{{-\Delta x}\over{d}}}({{1-e^{k \over n}+1}\over{e^{k \over n}-1}})^k({e^{{\Delta x} \over d}-1})^k$$

Następnie stosując twierdzenie $$e^{k \over n}={k \over n}+1$$


 * $$P_{nk}=e^k e^{-n{{-\Delta x}\over{d}}}({{2-e^{k \over n}}\over{e^{k \over n}-1}})^k({e^{{\Delta x} \over d}-1})^k={e^k e^{-n{{\Delta x} \over d}}}({{2-(1+{k \over n})}\over{e^{k \over n}-1}})^k(e^{{\Delta x} \over d}-1)^k$$

Tutaj stosujemy twierdzenie:$${1-{k \over n}}\simeq{{1}\over{1+{k\over n}}}$$
 * $$P_{nk}={e^k e^{-n{{\Delta x} \over d}}}{{({1-{k \over n}})^k}\over {({e^{k \over n}-1})^k}}({e^{{\Delta x}\over d}-1})={1 \over{(1+ {k \over n})^k}}({e^{{\Delta x} \over d}-1})^k$$

Tutaj możemy zastosować troszkę zmodyfikowaną wersję:$$\lim_{n \rightarrow \infty}{(1+{k\over n})}^n=e^k$$
 * $$P_{nk}\rightarrow{1 \over{({(1+{1 \over{n \over k}})^)^{{k \over n}k}}}}({e^{{\Delta x} \over d}-1})^k\rightarrow {{e^k e^{-n {{\Delta x} \over d}}}\over}{e^{-{{k^2} \over n}}}{(e^{{\Delta x} \over d}-1)^k}$$

Odpowiednio grupując wyrazy:
 * $$P_{nk}\rightarrow{{e^k e^{-n{{\Delta x} \over d}}e^{-{{k^2}\over n}}}\over{(e^{k \over n}-1)^k}}({e^{{\Delta x} \over d}-1})^k$$

Do czego dąży $$P_{nk}$$ gdy $$ n\rightarrow \infty$$ i gdy $$k<<n$$
Ale $$n\Delta x=d\;$$ $$\lim_{n \rightarrow \infty} P_{nk}={{ { {e^k e^{-1} e^0} } {({\Delta x \over d})}^k}\over {k \over n}}=e^{k-1}{ { {\Delta x}\over{n \Delta x} }^k \over{k \over n}}\simeq {{e^k n^{-k}} \over{k n^{-1}}}={e^k\over k}n^{-n-1}={e^k \over{n^{k+1}}}=\simeq e^k\cdot 0=0$$ A więc niema sensu stosowania twierdzenia że $$P_{nk}!=0\;$$ tylko $$\lim_{n \rightarrow \infty}P_{nk}=0$$

Ilość pomiarów dąży do nieskończoności
Jeśli $$k<<n$$, to mamy$$P_{nk}\rightarrow 0$$ A więc należy zastosować definicję gęstości prawdopodobieństwa, bo posługiwanie się samym $$P_{nk}$$ nie ma wielkiego sensu bo:


 * $$\lim_{n \to \infty} P_{nk}=0$$

Przejście od prawdopodobieństwa do gęstości prawdopodobieństwa

 * $$\rho_{nk}\rightarrow{{e^ke^{-n{{ x} \over d}}e^{-{k^2 \over n}}}\over{({e^{k \over n}}-1)^k}}{({e^{{\Delta x} \over d}-1})^k}{1 \over }$$

bo
 * $$\rho_{nk}={{P_{nk}}\over {\Delta x}}$$

gdzie:
 * $$\rho_{nk}$$ jest to gęstość prawdopodobieństwa uzyskania k razy jakiegoś wyniku w n losowaniach

Uzyskanie wzoru na gęstość prawdopodobieństwa

 * $$\rho_{nk}\rightarrow {{e^ke^{-{k^2}\over n}}\over{e^{k \over n}-1}}{{e^{-n{{\Delta x} \over d}}({e^{{ \Delta x}\over d}-1})^k}\over}$$

Względem dwóch ostatnich czynników w liczniku przez $$\Delta x$$ stosując regułę de'Hospitala uzyskując:


 * $$\rho_{nk}\rightarrow {{e^ke^{-{{k^2}\over n}}}\over{(e^{k \over n}-1)^k}}{{e^{-n{{\Delta x}\over d}}{(-{n \over d})}({e^{{\Delta x}\over d}-1})^k+e^{-n{{\Delta x}\over d}}k({e^{{\Delta x}\over d}-1})^{k-1}e^{{\Delta x}\over d}{1\over d}}\over{1}}$$



\rho_{nk}\rightarrow e^{-n{{\Delta x}\over d}}[-{n \over d}(e^{{ \Delta x}\over d}-1)^k+k(e^{{\Delta x} \over d}-1)^{k-1}{{e^{{\Delta x}\over d}}\over d}]$$$$\rho_{nk}\rightarrow {{e^k e^{-{{k^2}\over n}}}\over{(e^{k\over n}-1)^k}}e^{-n{{\Delta x}\over d}}({e^{{\Delta x}\over d}-1})^{k-1}[{-{n}\over{d}}({e^{{\Delta x}\over d}-1})+k{{e^{{\Delta x}\over d}}\over {d}}]$$


 * $$\rho_{nk}\rightarrow {{e^k e^{-{k^2}\over n}}\over{(e^{k \over n}-1)^k}}e^{-n{{ \Delta x}\over d}}({e^{{\Delta x}\over d}-1})^{k-1}[-{{n}\over{d}}{\over{d}}+{{k}\over{d}}({{\Delta x}\over d}+1)]=$$
 * $$\rho_{nk} \rightarrow {{}e^ke^{-{{k^2}\over n}}\over{({e^{k\over n}-1})^k}}e^{-n{{\Delta x}\over d}}({e^{{\Delta x}\over d}-1})^{k-1}[-{{{\Delta x}n}\over{d^2}}+{{k{\Delta x}}\over{d^2}}+{k\over d}]$$

Upraszczanie ostatniego wzoru względem ostatniego czynnika korzystając $$ d = {\Delta x} n$$
Ale dla czynnika w nawiasie kwadratowym zachodzi:
 * $$-{{{\Delta x}n}\over{d^2}}+{{k{\Delta x}}\over{d^2}}+{{k}\over{d}}=-{{{\Delta x}n}\over{n^2{\Delta x}^2}}+{{k{ \Delta x}}\over{n^2{\Delta x}^2}}=-{{1}\over{n{\Delta x}}}+{{k}\over{n^2{\Delta x}}}+{{k}\over{n{\Delta x}}}\simeq{{k-1}\over{n{\Delta x}}}$$

Stosując $$e^{k \over n}-1={k\over n}$$ oraz $$d=\Delta x n\;$$

A więc:
 * $$ \rho_{nk}\rightarrow {{e^ke^{-n{{k^2}\over n}}}\over{({{k}\over{n}}})^k}e^{-n{{{\Delta x}}\over{n{\Delta x}}}}({e^{1\over n}-1})^{k-1}{{k-1}\over n{\Delta x}}\rightarrow {{e^ke^{-{k^2}\over{n}}}\over{e{({k\over n})^k}}}{({{1}\over n})}^{k-1}{{k-1}\over{n{\Delta x}}}=$$

Odpowiednio przekształcając manewrując czynnikami

\rho_{nk}\rightarrow e^{k-{{k^2}\over n}-1}{{n^k}\over{k^k}}{{n}\over{n^k}}{{k-1}\over{n{\Delta x}}}$$ Stąd ostateczny wzór:
 * $$\rho_{nk}\rightarrow e^{k-{{k^2}\over n}-1} {{k}\over{k^{k-1}n{\Delta x}}}$$

Następne przybliżenia
Ale wiadomo $$k<<n\;$$,a także $$k^2<<n\;$$, a uzyskując:$$k-{{k^2}\over n}\simeq k\;$$,i jeszcze $$k-1\simeq k\;$$ Korzystając z ostatniego wyprowadzonego wzoru oczywiście mamy:


 * $$\rho_{nk}\simeq {{e^{k-1}}\over{k^{k-1}}}{{1}\over{n{\Delta x}}}\simeq {{k^{-k+1}}\over{e^{-k+1}}}{{1}\over{n{\Delta x}}}\simeq {{k^{-k}}\over{e^{-k}}}{{1}\over{n{\Delta x}}}\rightarrow {{e^{ln k^{-k}}}\over{e^{-k}}}{{1}\over{n{ \Delta x}}}$$


 * $$\rho_{nk}\rightarrow {{e^{-k ln k}}\over{e^{-k}}}{{1}\over{n{ \Delta x}}}\rightarrow {{e^{-k ln k +k}}\over {n{\Delta x}}}={{e^{-k[ln k-1]}}\over {n{\Delta x}}}$$ale$$ k>>1\;$$ stąd $$\rho_{nk}\rightarrow {{e^{-k ln k}}\over{n{\Delta x}}}$$

Określanie względem wartości najprawdopodonej
Ale przez $$ \rho_{n}^{s}$$ oznaczając jako zdarzenie najbardziej prawdopodobne, a przez $$\rho_{nk} $$jako zwykłe zdarzenie, stąd możemy powiedzieć:


 * $$ {{\rho_{nk}^{s}}\over{\rho_{nk}}}\rightarrow {{e^{-k_s ln k_s}}\over{e^{-k ln k}}}{{1 \over{n{\Delta x}}}\over{1\over {n{\Delta x}}}}$$

stąd po skróceniu skadników mamy:


 * $$\rho_{nk}\rightarrow {{e^{-k \ln k}}\over{e^{-k^s_n \ln k^s_n}}}\rho_{n}^s$$

A więc określając stał przez $$\beta(k_s)={1 \over{e^{-k_n^s \ln k^s_n}}}$$,i po zastąpieniu otrzumuję:
 * $$\rho_{nk}\rightarrow\beta(k_s) e^{-k \ln k}$$

Zerowy moment statystyczny, czyli normowanie funkcji $$\rho_{nk}$$
Teraz normujemy funkfcję $$\rho_{nk}$$ do jedynki, bo prawdopodobieństwo znalezienia zdarzenia  w $$ x\in(-\infty,\infty)$$ jest pewne czyli jest równe jedynce
 * $$1=\int\limits^{\infty}_{-\infty}{\rho_{nk}dx}=\int\limits^{\infty}_{-\infty}=\beta(k_s) \int\limits^{\infty}_{-\infty}{e^{-k \ln k}dx}$$

stąd:


 * $$\beta(k_s)={1 \over{\int\limits^{\infty}_{-\infty}{e^{-k \ln k}dx}}}$$

A więc: Stosując twierdzenie Tayelora można uzyskać to co poniżej, i dlatego trzeba ucinać pewne wyniki doświadczalne które są daleko od $$x_0$$,tak żeby był spełniony rozkład Tayelora, która jest napewno spełniony dla małych odchyleń x od $$x_0$$ A nawet nieznamy promienia zbieżności takowego szeregu przybliżającego $$k \ln k$$ ale spróbujemy je wyznaczyć później.


 * $$ \rho_{nk}={{e^{-k \ln k}}\over{\int\limits^{\infty}_{-\infty}e^{-k \ln k}}}$$

Mając n pomiarów, w której gęstość prawdopodobieństwo jest równe $$\rho(x_i)$$,a więc łączna gęstość prawdopodobieństwa jest równa:
 * $$\rho^{all}=\rho(x_1)\rho(x_2)...\rho(x_n)\;$$

Zakładam że gestości prawdopodobieństwa w poszczególnych pomiarach są takie same. A więc:
 * $$\rho^{all}_{nk}={{e^{-\sum^n_i(k_i \ln k_i)}}\over{(\int\limits^{\infty}_{-\infty}e^{-k \ln k})^n}}\;$$

-to jest gęstość prawdopodobieństwa uzyskania n wyniku $$x_i$$ $$k_i$$ razy jednocześnie dla $$i\in Z$$. A łączne prawdopodobieństwo uzyskania tych wszystkich wartości jest równe: Rozłóżmy wyrażenie $$k \ln k$$ na szereg Tayelora,wokół punktu $$x_0$$czyli wokół wartości dokładnej, a więc mamy:
 * $${k_i\ln k_i}={k_{si} ln k_{si}}+_{k_{si}}{({x_i-x_0})}+{({{\delta x(k_i\ln k_i)}\over{\delta x^2}})}_{k_{si}} {(x_i-x_0)^2\over 2}+...$$

czyli
 * $$k_i \ln k_i= D_i+A_i(x_i-x_0)+{{B_i}\over 2}(x_i-x_0)^2$$

Stąd wszystko podstawiając według wzoru $$\rho^{all}(k)$$ Przyjmujemy,że rozkłady prawdopodobieństw poszczególnych pomiarów są jednakowe,takie same.


 * $$\rho^{all}_{k}={{e^{-\sum^n_{i=1}D_i-\sum^n_{i=1}A_i(x_i-x_0)-\sum^n_{i=1}{{B_i}\over 2}(x_i-x_0)^2}}\over{(\int\limits^{\infty}_{-\infty}\rho(x)})^n}$$

Po przekształceniach:
 * $$\rho^{all}_{k}={{e^{-nD}}\over{(\int\limits^{\infty}_{-\infty}\rho(x))^n}}e^{-A\sum^n_{i=1}(x_i-x_0)}e^{-{{B}\over 2}\sum^n_{i=1}(x_i-x_0)^2}$$

Funkcję którą otrzymaliśmy, nie da się unormować, a nawet mamy wątpliwości co to stosowalności szerego Tayelora dla $$x\rightarrow\pm\infty$$, gdy $$A\not=0\;$$, a więc przyjmnijmy A=0, które na pewno spełnia wszystkie warunki naszego rozkładu. Wiadomo że musi być B\not=0, bo z tym warunkiem rozkład $$\rho(k)$$ daje się w ogólności unormować,i szereg Tayelora jest spełniony Oznaczając przez $$A=A_i$$ i $$B=B_i$$, oraz $$D_i=D$$ ponieważ ma symetryczność względem numeru pomiaru,tzn.: niezależy od wyniku pomiarowego, które uzyskaliśmy, ale istnieje takie same prawdopodobieństwo uzyskania pomiaru $$x_i$$ jak i pomiaru $$x_j$$, jak przy pomiarze i, jak pomiarze j, czyli ten sam wynik można uzyskać z takim samym prawdopodobieństwem niezależnie od kolejności wykonywania doświadczeń. Oznaczając
 * $$C={{e^{-D}}\over{({\int\limits^{\infty}_{-\infty}\rho(x)}})^n}$$

Stąd mamy:
 * $$\rho^{all}(x)=C e^{{-B\over 2}\sum^n_{i=1}{({x_i-x_0})^2}}$$

Gęstość prawdopodobieństwa uzyskania średniej arytmeycznej jest równa:
 * $$\rho^{all}(x^{srednie})=C e^{-{B\over 2}\sum^n_{i=1}{(x^{srednie}-x_0)}}$$

Określimy czemu jest równa gęstość prawdopodobieństwa jeśli znamy tylko gęstość prawdopodobieństwo, a mianowicie:
 * $$\rho^{srednie}={{C_1}\over{c_2}}{{e^{-{B\over 2}\sum^n_{i=1}(x_i-x_0)^2}}\over {e^{-{B\over 2}\sum^n_{i=1}(x^{srednie}_i-x_0)^2}}}$$

A teraz
 * $$\rho^{srednie}=C_3 e^{-{B\over 2}(\sum^n_i((x_i-x_0)^2-(x^{srednie}_i-x_0)^2))}$$

W wykładniku liczby e przekształcając:


 * $$(x_i-x_0)^2=(x_i-{x_{srednie}}+-x_0)^2=(x_i-x_{srednie})^2+({x_{srednie}}-x_0)^2+(x_i-x_{srednie})({x_{srednie}}-x_0)\;$$

Otrzymujemy wzór:
 * $$\rho^{srednie}=C_3 e^{-{B\over 2}\sum^n_{i=1}(x_i-x_{srednie})^2} e^{-{B\over 2}\sum^n_{i=1}({x_{srednie}}-x_0)}e^{-{B\over 2}\sum^n_{i=1}((x_i-x_{srednie})({x_{srednie}}-x_0))}e^{{B\over 2}\sum^n_{i=1}(x_0-x_{srednie})^2}$$

Skracając drugi i czwarty wyraz,i korzystając z wyniki odtrzymane z doświadczenia są nie zeleżne od siebie, mamy:
 * $$\rho^{srednie}=C_3 e^{-{B \over 2}\sum^n_{i=1}(x_i-x_{srednie})^2}$$

Mając wzór na rokład średniej $$x_{srednie}$$wokół wartości dokładnej $$x_0$$
 * $$\rho(x_{szrednie})=C e^{-{B \over 2}\sum ^n_{i=1}(x_{srednie}-x_0)}$$

Korzystająć z definicji wartości dokładnej: tzn:$$x_{srednie}=\sum^n_{i=1}{{x_i}\over{n}}$$
 * $$\rho(x_{srednie})=C e^{-{B\over 2}{\sum^n_{i=1}({{\sum^n_{j=1}{x_j}}\over {n}}-x_0)^2}}$$
 * $$\rho(x_{srednie})=C e^{-{B \over 2}{\sum^n_{i=1,j=1}({{x_j-x_0}\over{n}})^2}}$$$$=C e^{-{B \over 2}n\sum^n_{i=1}({{{x_i-x_0}}\over{n}})^2}$$$$=C e^{-B{\sum^n_{i=1}(x_i-x_0)^2}\over {2n}}$$

Jeszcze raz przejdźmy do $$\rho^{srednie}$$czyli
 * $$\rho^{srednie}=C_3{{e^{-{B\over 2}\sum^n_{i=1}(x_i-x_0)^2}}\over {e^{-{B\over {2n}}\sum^n_{i=1}(x_i-x_0)^2}}}$$$$=C_3 e^{-{B\over 2}(1-{1\over n})\sum^n_{i=1}(x_i-x_0)^2}$$=$$=C_3 e^{-{B\over 2}{{{n-1}\over{n}}\sum^n_{i=1}(x_i-x_0)^2}}$$

Wyznaczamy stałe B i C we wzorze na rozkład normalny
Określmy całki znane analizie matematycznej: Zakładamy,że mamy rozkład:
 * $$\rho=C e^{-{B\over 2}(x-x_0)}$$

gdzie $$x_p$$ jest to dowolna stałą taką, że $$E(x)=x_0$$
 * $$\int\limits^{-\infty}_{\infty} e^{-\alpha x^2}=\sqrt{{\pi}/{\alpha}}$$

oraz całkę


 * $$\int\limits^{-\infty}_{\infty} x^2 e^{-\alpha  x^2}={{1}\over{2}}\sqrt{{\pi}\over{\alpha^{3}}}$$

Funkcję na g(x), możemy unormować,


 * $$1=\int\limits^{\infty}_{-\infty}Ae^{-{B\over 2}( x- x_{0})^2}=A \int\limits^{\infty}_{-\infty}e^{-{B\over 2}( x- x_{0})^2}\Rightarrow 1=A \sqrt\Rightarrow A=\sqrt{{B\over 2}\over{\pi}}\Rightarrow \rho(x)=\sqrt{{B \over 2}\over{\pi}}e^{-{B\over 2}( x- x_{0})^2}$$

Stąd średnie odchylenie kwadratowe wyrażone jest wzorem:


 * $$\sigma^2=\int\limits^{\infty}_{-\infty}{( x- x_0)^2} \sqrt{{B}\over{2\pi}}e^{-B( x- x_0)^2}d x\Rightarrow\sigma^2=\sqrt{{B}\over{2\pi}}\int\limits^{\infty}_{-\infty}{t^2e^{-Bt^2}}$$


 * $$\sigma^2=\sqrt{{B\over 2}\over{\pi}}{{1}\over{2}}\sqrt{{\pi}\over{{B^3}\over 8}}\Rightarrow\sigma^2={{1}\over{B}}\Rightarrow B={{1}\over}$$

Związki w rozkładzie normalnym
Przedstawmy podstawowe wzory, które otrzymaliśmy z powyższych obliczeń,by określić w sposób ścisły stałe B i C
 * $$\rho^{srednie}=C_3 e^{-{B\over 2}{{{n-1}\over{n}}\sum^n_{i=1}(x_i-x_0)^2}}$$
 * $$\rho(x_{srednie})=C e^{-B{\sum^n_{i=1}(x_i-x_0)^2}\over {2n}}$$
 * $$\rho^{srednie}=C_3 e^{-{B \over 2}\sum^n_{i=1}(x_i-x_{srednie_i})^2}$$

Względem ostatniego wzoru mamy:
 * $$ C={{1}\over{\sqrt{2\pi}\sigma}} $$ i
 * $$B={{1}\over{\sigma^2}}$$

Jest to błąd pomiaru pojedyńczej wartości Dla drugiego wzoru mamy:
 * $${B\over n}={1\over \sigma^2}\Rightarrow {1 \over {n{(\sigma^{srednie})}^2}}={{1}\over {\sigma^2}}\Rightarrow {({\sigma^{srednie}}_2)}^2={{\sigma^2} \over n}$$

Wiadomo, że wzory pierwszy i trzeci oznaczają to samo,a więc:
 * $$C e^{-{B\over 2}{{{n-1}\over{n}}(x_i-x_0)^2}}=C e^{-{B \over 2}(x_i-x_{srednie_i})^2}$$

stąd sumując obie strony po 'i' mamy:
 * $$\sum^n_{i=1} {{n-1}\over n}(x_i-x_0)^2=\sum^n_{i=1}(x_i-{x_{srednie_i}})^2$$
 * $$\sum^n_{i=1}(x_i-{x_{srednie_i}})^2={n\over {n-1}}\sum^n_{i=1}(x_i-x_0)^2$$

Biorąc średnią arytmetyczną prawej i lewej strony otrzymujemy:
 * $${(n-1)\over n}\sum^n_{i=1}(x_i-x_0)^2=\sum^n_{i=1}(x_i-x_{srednie})^2$$

stąd otrzymuję:
 * $${\sum^n_{i=1}(x_i-x_0)^2}={n\over {n-1}}\sum^n_{i=1}(x_i-x_{srednie})^2$$

Biorąc srwdnią prawej i lewej strony otrzymuję błąd pojedyńczego pomiaru:
 * $$\sigma=\sqrt{\sum^n_{i=1}({x_i-x_{srednie})^2}\over{n-1}}$$

A stąd błąd średniej arytmetycznej:
 * $$\sigma_{srednie}=\sqrt{\sum^n_{i=1}({x_i-x_{srednie})^2}\over{n(n-1)}}$$

Rozkład normalny
Stąd po krótkich przekształceniach mamy:


 * $$\rho^{all}(\vec{x})={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{\sum^n_{i=1}(x_i- x_0)^2}\over{2\sigma^2}}}$$

W zastosowaniach fizycznych stosowany jest przede wszystkim:
 * $$\rho(x_{srednie},\vec{x})={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{\sum^n_{i=1}(x_i- x_{srednie})^2}\over{2\sigma^2}}}$$

Zwykle pomija się znaki sumy w wykładników potęgi, i piszemy:
 * $$\rho^{all}(x_i)={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{(x_i- x_0)^2}\over{2\sigma^2}}}$$

W zastosowaniach fizycznych stosowany jest przede wszystkim:
 * $$\rho(x_i,x_{srednie})={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{(x_i- x_{srednie})^2}\over{2\sigma^2}}}$$

Z obliczeń otrzymaliśmy też:


 * $$A=({{\delta k_i \ln k_i}\over{\delta x}})_{k_s}=0$$ oraz: $$B={({{\delta^2 k_i \ln k_i}\over {\delta x^2}})_{k_s}}={1 \over {\sigma^2}}$$ oraz $$C={{e^{-nD}}\over{({\int\limits^{\infty}_{-\infty}\rho(x)}})^n}={{1}\over{\sqrt{2\pi}\sigma}}$$

oraz $$D=k_i \ln k_i\;$$

Obliczanie poszczególnych momentów statystycznych dla rozkładu normalnego
Momenty ogólnie definiują się:
 * $$\gamma_n=\int\limits^{\infty}_{-\infty}(x-x_0)^{n}\rho(x)dx$$

Dla momentów statystycznych o stopniu nieparzystym:


 * $$\gamma_{2n+1}=\int\limits^{\infty}_{-\infty}(x-x_0)^{2n+1}\rho(x)dx$$$$=({{\int\limits^{x_0}_{-\infty}}+{\int\limits^{\infty}_{x_0}}})(x-x_0)^{2n+1}\rho(x)dx$$

Obliczamy tą całkę uwzględniając $$ t=x-x_{0}$$, toteż mamy:


 * $$\gamma_{2n+1}=({\int\limits^{0}_{-\infty}+\int\limits^{\infty}_{-0}})t^{2n+1}\rho(t)dt$$

A następnie biorąc podstawienie dla pierwszej całki$$t \rightarrow -t$$ mamy


 * $$\gamma_{2n+1}=\gamma_{2n+1}=({\int\limits^{\infty}_0-\int\limits^{\infty}_0})t^{2n+1}\rho(t)dt=0$$

Czyli momenty statystyczne o nieparzystym stopniu są równe zero.

Obliczenie momentów statystycznych o stopniu parzystym:

Wiadomo, że:


 * $$\sqrt=\int\limits^{\infty}_{-\infty}e^{-\alpha(x-x_0)^2}$$

Obliczając kolejne pochodne z lewej i z prawej strony ostatniego wzoru otrzymujemy dla pierwszej pochodnej::


 * $$\sqrt{\pi} {1\over 2}\alpha^{-{{3}\over{2}}}=\int\limits^{\infty}_{-\infty}(x-x_0)^2 e^{-\alpha(x-x_0)^2}$$

biorąc jeszcze raz pochodną ostatniej obliczonej obustronnie pochodną mamy:


 * $$\sqrt{\pi}{1 \over 2}{3 \over 2}\alpha^{-5 \over 2}=\int\limits^{\infty}_{-\infty}(x-x_0)^4 e^{-\alpha(x-x_0)^2}$$

Stąd ogólnie:


 * $$ \sqrt{\pi}{{(2n-1)!!}\over{2^n}}\alpha^{-{2n-1}\over{2}}=\int\limits^{\infty}_{-\infty}(x-x_0)^{2n}e^{-\alpha(x-x_0)^2}$$

Momenty statystyczne dla rozkładu normalnego dla potęg parzystych po podstawieniu $$\alpha \rightarrow {{1}\over{2\sigma^2}}$$ wynosi:


 * $$\sqrt{\pi}{{(2n-1)!!}\over{2^n}}2^{n+{{1}\over{2}}}\sigma^{2n+1}=\int\limits^{\infty}_{-\infty}(x-x_0)^{2n}e^{-{(x-x_0)^2}\over{2\sigma^2}}$$

Mnożąc obustronnie przez:


 * $${1\over{\sqrt{2\pi}\sigma}}$$

Stąd 2n-ty moment statystyczny wynosi:


 * $$\gamma_{2n}={(2n-1)!!}\sigma^{2n}\;$$

przyjmując jednocześnie $$(-1)!!=1\;$$, to obejmiemy również szczegół normowania gęstości prawdopodobieństwa dla $$n=0$$;

Punkt przegięcia w rozkładzie normalnym
Mamy oto rozkład normalny:


 * $$\rho(x)={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{(x-x_0)}^2}\over{2\sigma^2}}$$

Wykonując pochodną względem x otrzymujemy:


 * $${{d\rho(x)}\over{dx}}={{1}\over{\sqrt{2\pi}\sigma}}e^{-{{(x-x_0)}^2}\over{2\sigma^2}}(-2){{x-x_0}\over{2\sigma^2}}$$

Oznaczając za stałe przez C, mamy:


 * $${{d^2\rho}\over{dx^2}}=C (e^{-{{(x-x_0)}^2}\over{2\sigma^2}}(-2){{(x-x_0)^2}\over{4\sigma^4}}+ e^{-{{(x-x_0)}^2}\over{2\sigma^2}}{{1}\over{2\sigma^2}})$$


 * $${{d^2\rho}\over{dx^2}}=Ce^{-{{(x-x_0)}^2}\over{2\sigma^2}}{{1}\over{2\sigma^2}}(1-{{(x-x_0)^2}\over{\sigma^2}})$$

Ponieważ liczymy punkty przegięcia funkcji Gausa rozkładu normalnego, to mamy:


 * $${{d^2\rho(x)}\over{dx^2}}=0$$

Stąd mamy:


 * $$1-{{(x-x_0)^2}\over{\sigma^2}}=0$$

W ostatecznych obliczeniach mamy:


 * $$x=x_0 \pm \sigma$$

Stąd można z interpretować jako że otrzymane $$x_i$$ w obliczeniach powinno się mieścić w granicach $$x_{i} \in (x_0-\sigma,x_0+\sigma)$$, a te wyniki, które nie spełniają tego warunku, powinny być odrzucone z danych doświadczalnych, i odnowa trzeba wyznaczać $$x_{srednie}$$ i $$\sigma$$ Przypominając przy liczeniu $$\rho(x)$$ trzeba wstawić za $$x_0$$ $$x_{srednie}$$ co dla dużej ilości wyników doświadczalnych jest w zupełności spełnione, ponieważ średnia arytmetyczna ma najmniejszą niepewność pomiarową z tych wszystkich otrzymanych $$x_i$$ z danych doświadczalnych. Dla tych wyników doświadczenia, które nie powinny być odrzucone funkcja z matematycznego punktu widzenia dla tego punktu powinna być wklęsła. Funkcja Gausa dla $$x\in (x_0-\sigma,x_0+\sigma)$$ jest funkcja wklęsła,a dla dopełnienia wcześniej przedstawionego wzoru jest wypukła.

Warto zauważyć, że definicja $$\sigma$$ dana za pomocą momentu statystycznego o stopniu dwa czyli średnie odchylenie standardowe jest poprawna.

Bibliografia
Siegmund Brandt: Analiza danych, metody statystyczne i obliczeniowe - PWN Warszawa 1999

B.M. Jaworski: A.A. Dietław Fizyka Poradnik encyklopedyczny - PWN Warszawa 1996

I.N. Bronsztejn: K.A.Siemiendiawjew Matematyka Poradnik encyklopedyczny - PWN Warszawa 1996

G.M.Fichtenholz: Rarunek różniczkowy i całkowy,tom 1 PWN Warszawa 1999

Zobacz też

 * rozkład normalny wielowymiarowy,
 * centralne twierdzenie graniczne,
 * przegląd zagadnień z zakresu matematyki,
 * przegląd zagadnień z zakresu statystyki

Twierdzenia matematyczne Rozkłady prawdopodobieństwa Dowody matematyczne Fizyka_matematyczna