PIZL:Dodatek matematyczny

Z Skrypty dla studentów Ekonofizyki UPGOW

Kl.png
Ue.png




Spis treści

DODATEK MATEMATYCZNY

A. Elementy teorii dystrybucji

Fizycy często beztrosko stosują osiągnięcia matematyki. Dla przykładu, czasami chcą różniczkować funkcje które w standardowej teorii rachunku różniczkowego nie są różniczkowalne. Przypomnijmy, że nie wszystkie funkcje ciągłe są różniczkowalne. Z pewnością funkcje nieciągłe nie są różniczkowalne. A fizycy chcą różniczkować funkcje nieciągłe. W historii tak często bywało. Z początku matematycy trochę marudzili i wytykali fizykom stosowanie niedozwolonych chwytów. Ale fizycy są na ogół nieposłuszni. Jedynym wyjściem dla matematyków było skonstruowanie porządnej teorii, w której można różniczkować funkcje nieróżniczkowalne. I tak powstała teoria dystrybucji. Stworzył ją francuski matematyk Laurent Schwartz, który w 1948 roku opublikował pierwszą prace na ten temat. Nie będziemy tu przedstawiać teorii dystrybucji, ale te jej elementy, które potrzebne są w teorii zmiennych losowych i teorii procesów stochastycznych.

Dystrybucją nazywamy funkcjonał liniowy i ciągły na odpowiedniej przestrzeni funkcyjnej. Funkcjonał to takie odwzorowanie w wyniku którego otrzymujemy liczby. Dystrybucja \(T\) nie jest funkcją w tradycyjnym sensie. My zdefiniujemy ją jako obiekt \(T\) określony przez wyrażenie


\(<T, \psi> = \int_{-\infty}^{\infty} T(x) \psi(x) dx \)


dla dowolnej funkcji \(\psi(x)\). Funkcja \(\psi(x)\) jest tzw. funkcja próbną lub funkcją szybko malejąca. Dla nas ta druga klasa jest ważniejsza. Będziemy żądać, aby funkcje \(\psi(x)\) były gładkie (nieskończenie wiele razy różniczkowalne w sposób ciągły) i znikały w \(\pm \infty\) wraz z pochodnymi dowolnegp rzędu pomnożonymi przez wielomiany dowolonego rzędu. Na przykład taką funkcją jest funkcja Gaussa \(\exp(-x^2)\). Zauważmy, że całka oznaczona jest liczbą. Całka jest funkcjonałem liniowym i ciągłym. Więc takie przedstawienie dystrybucji jest użyteczne. Jest ono dobrze określone gdy \(T(x)\) jest funkcją lokalnie całkowalną. Dystrybucja generowana przez funkcję lokalnie całkowalną nazywa się dystrybucją regularną. W przeciwnym przypadku mówimy o dystrybucjach osobliwych. Wszelkie działania na dystrybucjach określamy z powyższego całkowego przedstawienia. Należy jednak zwrócić uwagę na to, że \(T(x)\) w wyrażeniu podcałkowym w ogólności nie jest tradycyjną funkcją i zapis \(T(x)\) jest często umowny.


A1. Funkcja schodkowa Heaviside'a \(\theta(x)\)

Zaczniemy od prostej funkcji schodkowej i odpowiadającej jej dystrybucji. Funkcja ta jest różnie definiowana. Dla naszych potrzeb przyjmujemy następującą definicję:


\[\theta (x) = \{ {{1 \; \; \; \; \mbox{gdy} \; \; \; \; x \ge 0} \atop {0 \; \; \; \; \mbox{gdy} \; \;\; \; x<0 }} \]

Można spotkać definicje różniące się wartością tej funkcji w punkcie \(x=0\). W czysto matematycznej teorii, wartość ta może być dowolna. Czasami przyjmuje \(\theta(0) =1/2\), czasami \(\theta (0) =0\). Nasz wybór podyktowany jest definicją dystrybuanty zmiennej losowej i chęcią zapisu dytrybuanty zmiennej losowej dyskretnej za pomocą zgrabnej formuły matematycznej:

\[F_{\xi}(x) = \sum_{k} p_k \theta (x-x_k)\, \]

gdzie \(x_k\) to możliwe wartości zmiennej losowej dyskretnej, natomiast \(p_k=Pr\{\xi =x_k\}\) jest prawdopodobieństwem tego, że zmienna losowa przyjmuje wartość \(x_k\).


Należy pamiętać, że funkcja teta Heaviside'a jest określona dla dowolnych argumentów w taki sposób, że wynosi ona 0, gdy argument jest ujemny i wynosi 1 w przeciwnym przypadku. Innymi słowy


\[\theta (g(x)) = \{ {{1 \; \; \; \; \mbox{gdy} \; \; \; \; g(x) \ge 0} \atop {0 \; \; \; \; \mbox{gdy} \; \;\; \; g(x) <0 }} \]


Funkcja teta Heaviside'a \(\theta(x)\) jest "porządną" funkcją (to znaczy lokalnie całkowalną). Generuje ona dystrybucję regularną \(\theta\) poprzez wyrażenie

\(<\theta, \psi> = \int_{-\infty}^{\infty} \theta(x) \psi(x) dx = \int_{-\infty}^{0} \theta(x) \psi(x) dx + \int_{0}^{\infty} \theta(x) \psi(x) dx = \int_{0}^{\infty} \psi(x) dx\)

gdzie skorzystaliśmy z definicji funkcji \(\theta(x)\): w przedziale całkowania \((-\infty, 0)\), funkcja Heaviside'a wynosi zero; w przedziale całkowania \((0, \infty)\), funkcja Heaviside'a wynosi 1.

Na tym przykładzie możemy wyjaśnić różnicę między funkcją i dystrybucją. Funkcją jest tutaj \(\theta(x)\), której wartość wynosi 0, gdy argument x jest ujemny i wynosi 1 gdy argument x jest nieujemny. Natomiast dystrybucja \(\theta\) jest zdefiniowana następująco: dla dowolnej funkcji \(\psi\), dystrybucja \(\theta\) to wartość całki od zera do nieskończoności z funkcji \(\psi\). W tej drugiej definicji, nie ma sensu mówić o wartości dystrybucji \(\theta\) w punkcie.


A2. Delta Diraca \(\delta(x)\)


Obiekt ten nie jest funkcją w tradycyjnym sensie. Dystrybucja ta nie jest generowana przez funkcję lokalnie całkowalną. Jest to dystrybucja osobliwa, zdefiniowana dla naszych potrzeb przez wyrażenie


\(<\delta, \psi> = \int_{-\infty}^{\infty} \delta(x) \psi(x) dx = \psi(0)\)


dla dowolnej funkcji \(\psi(x)\). Funkcja \(\psi(x)\) jest tzw. funkcja próbną lub funkcją szybko malejąca. Korzystając z własności całek otrzymujemy szereg własności delty Diraca. Oto dwie z nich:


\( \int_{-\infty}^{\infty} \delta(x-a) \psi(x) dx = \psi(a)\)


\( \int_{-\infty}^{\infty} \delta(ax) \psi(x) dx = \frac{1}{|a|}\psi(0)\)


Gdybyśmy koniecznie chcieli wyobrazić sobie \(\delta\)-Diraca, to miałaby ona postać funkcyjną


\[\delta (x) = \{ {{0 \; \; \; \; \mbox{gdy} \; \; \; \; x \ne 0} \atop {\infty \; \; \; \; \mbox{gdy} \; \;\; \; x=0 }} \]

oraz

\( \int_{-\infty}^{\infty} \delta(x) dx = 1\)


Takie przedstawienie \(\delta\)-Diraca jest uzasadnione dzięki twierdzeniu o ciągach delta-podobnych:

Niech dana będzie funkcja \(h(x)\) taka, że


\( \int_{-\infty}^{\infty} h(x) dx = 1\)

to znaczy dowolna funkcja normowalna. Tworzymy ciąg funkcyjny


\(h_{\epsilon}(x) = \frac{1}{\epsilon} h\left(\frac{x}{\epsilon}\right)\)


Wówczas


\(\lim_{\epsilon \to 0} h_{\epsilon}(x) = \delta(x)\)


w takim sensie, że dla dowolnej funkcji \(\psi(x)\) zachodzi relacja


\( \lim_{\epsilon \to 0} \int_{-\infty}^{\infty} h_{\epsilon}(x) \psi(x) dx = \psi(0) = \int_{-\infty}^{\infty} \delta(x) \psi(x) dx \)


Na przykład funkcja Gaussa \(h(x) = (1/\sqrt{\pi} \exp(-x^2)\) jesy unormowana do 1. Ciąg funkcyjny


\(h_{\epsilon}(x) = \frac{1}{\epsilon} h\left(\frac{x}{\epsilon}\right) = \frac{1}{\epsilon \sqrt{\pi}} e^{-(x/\epsilon)^2} \to \delta(x) \; \; \; \mbox{gdy} \; \; \; \epsilon \to 0\)


Gdy \(\epsilon \to 0\), wartość funkcji \(h_{\epsilon}(x)\,\) w \(x=0\,\) dąży do nieskończoności, natomiasty gdy \(x\ne 0\,\), funkcja ta dąży szybko do zera. Mozna też sprawdzić, że dla dowolnego \(\epsilon\) zachodzi równość

\( \int_{-\infty}^{\infty} h_{\epsilon}(x) dx = 1\)


Stąd widać, że wyobrażenie fizyków o \(\delta\)-Diraca jest uzasadnione.


A3. Pochodna dystrybucji


Jeżeli \(T\) jest dowolna dystrybucją, to jej pochodna \(T'\)jest zdefiniowana przez równość


\(<T', \psi> = - <T, \psi'> \,\)


Zapis ten oznacza tyle, że dla dowolnej funkcji \(\psi(x)\) zachodzi równość


\( \int_{-\infty}^{\infty} T'(x) \psi(x) dx = - \int_{-\infty}^{\infty} T(x) \psi'(x) dx \)


Równość ta jest rezultatem całkowania przez części. Zastosujmy powyższe wyrażenie do obliczenia pochodnej \(\theta(x)\):

\( \int_{-\infty}^{\infty} \theta'(x) \psi(x) dx = - \int_{-\infty}^{\infty} \theta(x) \psi'(x) dx = -\int_{0}^{\infty} \psi'(x) dx = -\psi(x)\, |^{\infty}_0 = \psi(0) \)

\( = \int_{-\infty}^{\infty} \delta(x) \psi(x) dx \)

gdzie w ostatniej linijce skorzystalismy z definicji \(\delta\)-Diraca. Porównanie pierwszej całki z ostatnią całką prowadzi do wniosku, że


                                     \(\theta'(x)=\delta(x)\,\)

B. Różniczkowanie całki względem granic całkowania

TWIERDZENIE B1:

Niech funkcja \(f(x)\) będzie funkcją ciągłą na odcinku \([a, b]\) oraz

\[F(x) = \int_a^x f(s) ds\]

Funkcja \(F(x)\) jest funkcją górnej granicy całkowania \(x\). Zachodzi twierdzenie


\[\frac{dF(x)}{dx} = f(x)\]


Innymi słowy, jeżeli różniczkujemy całkę względem górnej granicy całkowania, to w wyniku otrzymujemy funkcję podcałkową \(f\) w punkcie górnej granicy całkowania \(x\). Oto kilka przykładów:

1. \[F(x) = \int_a^x \sin(s) e^{s+2} ds\]

wówczas

\[\frac{dF(x)}{dx} = sin(x) e^{x+2} \]


2. \[g(y) = \int_{-\infty}^y sin(s) e^{s+2} ds\]

wówczas

\[\frac{dg(y)}{dy} = sin(y) e^{y+2} \]


Zwróćmy uwagę na to, że otrzymane funkcje \(F'\) oraz \(g'\) to te same funkcje, chociaż użyliśmy innych oznaczeń dla argumentów (raz \(x\), raz \(y\)).


BB. Uogólnione twierdzenie rachunku całkowego


TWIERDZENIE B2:

Jeżeli \(h(x)\) jest funkcją różniczkowalną oraz


\[F(x) = \int_a^{h(x)} f(s) ds\]

to


\[\frac{dF(x)}{dx} = f(h(x)) h'(x) = f(h(x)) \frac{dh(x)}{dx}\]


Innymi słowy, wyrażenie to jest pochodną funkcji złożonej:

\[\frac{dF}{dx} = \frac{dF}{dh}\frac{dh}{dx} = f(h) h' \]


Przykład:

Jeżeli

\[F(x) = \int_a^{cos(x)} [3 s^2 + 5s] ds\]

to

\[\frac{dF(x)}{dx} = \{3 [cos(x)]^2 + 5 cos(x)\} [-sin(x)] \]


Jeżeli istnieje potrzeba różniczkowania całḱi

\[G(x) = \int_x^b f(s) ds\]

względem dolnej granicy całkowania to należy skorzystać z własności

\[G(x) = \int_x^b f(s) ds = -\int_b^x f(s) ds\]

i następnie zastosować TWIERDZENIE B1.




C. Rozwinięcie funkcji w szereg Taylora

Niech \(f(x)\) będzie funkcją nieskończenie wiele razy różniczkowalną. Wówczas:


\(f(x_0+h) = f(x_0) + f'(x_0) h + \frac{1}{2!} f''(x_0) h^2 + \frac{1}{3!} f'''(x_0) h^3 + \frac{1}{4!} f''''(x_0) h^4 + \dots\)


Szereg ten nazywamy szeregiem Taylora funkcji f. Jeżeli x_0 = 0, to szereg ten nazywamy szeregiem Maclaurina. Niech \(x_0=0\) oraz oznaczmy \(h=x\). Wówczas wzór powyższy ma postać następującego szeregu Maclaurina


\(f(x) = f(0) + f'(0) x + \frac{1}{2!} f''(0) x^2 + \frac{1}{3!} f'''(0) x^3 + \frac{1}{4!} f''''() x^4 + \dots\)


Zastosujmy tę formułę dla funkcji exponencjalnej \(f(x) = e^x\). Jest to najbardziej lubiana funkcja ponieważ pochodna dowolnego rzędu tej funkcji jest znowu tą samą funkcją oraz \(f(0)=1\). Dlatego też łatwo można otrzymać jej rozwinięcie w szereg:


\(e^x = 1 + x + \frac{1}{2!} x^2 + \frac{1}{3!} x^3 + \frac{1}{4!} x^4 + \dots = \sum_{k=0}^{\infty} \frac{x^k}{k!}\)


Dla funkcji dwóch zmiennych \(F(x, y)\) szereg Taylora ma postać


\(F(x+h, y+\epsilon) = F(x, y) + \frac{\partial F(x, y)}{\partial x} h + \frac{\partial F(x, y)}{\partial y} \epsilon \)

\[ + \frac{1}{2!} \left[\frac{\partial^2 F(x, y)}{\partial x^2} h^2 + 2\frac{\partial^2 F(x, y)}{\partial x \partial y} h \epsilon + \frac{\partial^2 F(x, y)}{\partial y^2} \epsilon^2\right] + \dots\]




D. Transformacja Fouriera

Niech \(f \) będzie funkcją bezwzględnie całkowalną na zbiorze \(R^1\), to znaczy całka

\[ \int_{-\infty}^{\infty} |f(x)| dx < \infty \]

jest liczbą skończoną. Wówczas transformatą Fouriera funkcji \(f\) nazywamy funkcję

\[ h(\omega) = \int_{-\infty}^{\infty} e^{i\omega x} f(x) dx \]

gdzie \(\omega \in R^1\) jest liczbą rzeczywista, Liczba \(\omega\) występuje w całce jako parametr: gdy zmieniamy wartość tego parametru, to w ogólności zmienia się wartość całki, czyli całka ta jest funkcją \(\omega\). Aby zaznaczyć, żą ta nowa funkcja \(h\) jest związana z funkcją \(f\), stosuje się oznaczenie

\[h(\omega) = \hat f(\omega)\]

Stąd w podręcznikach spotyka się następującą formę dla transformaty Fouriera


\[\hat f(\omega) = \int_{-\infty}^{\infty} e^{i\omega x} f(x) dx \]


Odwrotna transformacja Fouriera dana jest przez wzór

\[f(x) = \frac{1}{2\pi} \int_{-\infty}^{\infty} e^{-i\omega x} \hat f(\omega) d\omega \]


W różnych podręcznikach spotyka się różne wzory na transformaty Fouriera. Czytelnik powinien patrzeć łącznie na dwie transformaty: prostą i odwrotną. Wówczas powinny być spełnione dwie relacje:

(i) jeżeli w jednym wzorze występuje w eksponencie \(\pm i\omega x\) to w drugim wzorze występuje w eksponencie \(\mp i\omega x\), to znaczy zawsze powinny być przeciwne znaki

(ii) iloczyn czynników przez całkami dla \(\hat f\) i \(f\,\) powinien zawsze wynosić \(1/2\pi\,\). Czasami używa się symetrycznego zapisu \(1/\sqrt{2\pi}\) w oby całkach. My stosujemy konwencję jak powyżej, ponieważ transformata Fouriera gęstości rozkładu prawdopodobieństwa \(p(x) \) zmiennej losowej \(\xi\) jest funkcją charakterystyczną tej zmiennej losowej:


\[ C(\omega) = \langle e^{i\omega \xi} \rangle = \int_{-\infty}^{\infty} e^{i\omega x} p(x) dx \]


Podobnie jest dla procesu stochastycznego \(\xi(t)\) o gęstości rozkładu prawdopodobieństwa \(p(x, t)\):


\[ C(\omega,t) = \langle e^{i\omega \xi(t)} \rangle = \int_{-\infty}^{\infty} e^{i\omega x} p(x, t) dx \]




E. Momenty statystyczne dla rozkładu Poissona

Zmienna losowa o rozkładzie Poissona przyjmuje wartości liczb całkowitych nieujemnych, to znaczy


\(\eta = \{0, 1, 2, 3, ...\} = \{x_k = k\}_{k=0}^{\infty} \)


Rozkład prawdopodobieństwa tej zmiennej losowej,który nazywa się rozkładem Poissona o parametrze \(\lambda\) ma postać:


\[ Pr\{\eta = k\} = p_k = p(k) = e^{-\lambda} \; \frac{\lambda ^k}{k!}\]


Wartość średnia tej zmiennej losowej dana jest wyrażeniem


\[\langle \eta \rangle = \sum_{k=0}^{\infty} x_k p_k = \sum_{k=0}^{\infty} k \,e^{-\lambda} \; \frac{\lambda ^k}{k!} = e^{-\lambda} \; \sum_{k=0}^{\infty} k \, \frac{\lambda ^k}{k!} = e^{-\lambda} \; \sum_{k=1}^{\infty} k \, \frac{\lambda ^k}{k!} \]


\[ = e^{-\lambda} \; \sum_{k=1}^{\infty} \frac{\lambda ^k}{(k-1)!} = e^{-\lambda} \; \lambda \sum_{k=1}^{\infty} \frac{\lambda ^{k-1}}{(k-1)!} \]

W trzecim wyrazie po prawej stronie w sumowaniu po \(k\), wyraz z \(k=0\) jest zero i można rozpocząć sumowanie od \(k=1\). Skorzystaliśmy też z tego, że \(k!= k (k-1)!\). W ostatnim wyrażeniu, dokonamy zamiany zmiennej sumowania. Sumowanie po \(k\) zastąpimy sumowaniem po \(n=k-1\). Wówczas


\[\langle \eta \rangle = e^{-\lambda} \; \lambda \sum_{n=0}^{\infty} \, \frac{\lambda ^n}{n!} \]


Suma

\[ \sum_{n=0}^{\infty} \, \frac{\lambda ^n}{n!} = e^{\lambda} \]


Więc ostatecznie


                                       \(\langle \eta \rangle = \lambda
\)


Aby wyliczyć moment statystyczny drugiego rzęu \(\langle \eta^2 \rangle\), obliczymy wartość średnią


\[\langle \eta^2 \rangle - \langle \eta \rangle = \sum_{k=0}^{\infty} x_k^2 p_k - \sum_{k=0}^{\infty} x_k p_k = \sum_{k=0}^{\infty} k^2 \,e^{-\lambda} \; \frac{\lambda ^k}{k!} - \sum_{k=0}^{\infty} k \,e^{-\lambda} \; \frac{\lambda ^k}{k!} \]


\[ = e^{-\lambda} \; \sum_{k=0}^{\infty} (k^2 - k) \, \frac{\lambda ^k}{k!} = e^{-\lambda} \; \sum_{k=0}^{\infty} k(k-1) \, \frac{\lambda ^k}{k!} = e^{-\lambda} \; \sum_{k=2}^{\infty} k(k-1) \, \frac{\lambda ^k}{k!} \]

\[ = e^{-\lambda} \; \sum_{k=2}^{\infty} \, \frac{\lambda ^k}{(k-2)!} \]

Wyraz z \(k=0\) oraz \(k=1\) jest zero i można rozpocząć sumowanie od \(k=2\). Skorzystaliśmy też z tego, że \(k!= k (k-1) (k-2)!\). W ostatnim wyrażeniu, dokonamy zamiany zmiennej sumowania. Sumowanie po \(k\) zastąpimy sumowaniem po \(n=k-2\). Wówczas


\[\langle \eta^2 \rangle - \langle \eta \rangle = e^{-\lambda} \; \sum_{n=0}^{\infty} \, \frac{\lambda ^{n+2}}{n!} = e^{-\lambda} \; \lambda^2 \sum_{n=0}^{\infty} \, \frac{\lambda ^{n}}{n!} = \lambda^2 \]


Z relacji tej otrzymujemy wyrażenie na moment statystyczny drugiego rzędu:


                               \(\langle \eta^2 \rangle = \langle \eta \rangle + \lambda^2 = \lambda^2 + \lambda
\)


Podobną metodą można obliczyć momenty statystyczne wyższego rzędu.


Dla procesu Poissona


\(\lambda = \mu t\,\)


Więc

\[\langle N(t) \rangle = \mu t, \; \; \; \; \; \langle N^2(t) \rangle = (\mu t)^2 + \mu t \]


Z wyrażenia dla wartości średniej otrzymujemy interpretacje parametru \(\mu\):


\[\mu = \frac{\langle N(t) \rangle}{t}\, \]


Jest to średnia liczba urodzin w jednostce czasu, czy też średnia liczba elektrownów wyemitowanych w jednostce czasu, śczy też rednia liczba rozmów telefonicznych w jednostce czasu, itp.




F. Twierdzenie Poissona dla uogólnionych schematów Bernoulliego

W Rozdziale 3 o schematach Bernoulliego widzieliśmy, że rozkład dwumianowy pojawia się wszędzie tam, gdzie mamy powtarzające się zdarzenia, niezależne od siebie i w jednym zdarzeniu możliwe są dwa wyniki: sukces-porażka. Zamiast rozbicia zbioru zdarzeń elementarnych \(\Omega\) na dwa podzbiory i rozważać dwa zdarzenia: sukces-porażka, możemy rozbić zbiór \(\Omega\) na kilka podzbiorów i rozważać kilka zdarzeń. Wówczas otrzymujemy uogólniony schemat Bernoulliego. Rozpatrywaliśmy przypadek trzech podzbiorów. Przypomnijmy ten przypadek. Niech w jednym doświadczeniu ( tu w i-tym doświadczeniu)

\(\Omega_i = A_1 \cup A_2 \cup A_3 \; \; \; \; \; \; \; A_i \cap A_j = \empty \; \; (i\ne j), \; \; \; \; \; i, j =1, 2, 3\)

Niech

\(P(A_i) = p_i, \; \; \; \; \; \; \; \; p_1+p_2+p_3=1\)


Powtarzamy doświadczenie n-razy w sposób niezależny, to znaczy zakładamy, że wynik każdej próby nie zależy od wyników prób poprzednich i nie wpływa na wyniki prób następnych. Prawdopodobieństwo tego, że w n-próbach, zdarzenie \(A_1\) pojawi sie \(k_1\)-razy, zdarzenie \(A_2\) pojawi sie \(k_2\)-razy (a stąd zdarzenie \(A_3\) pojawi sie \(k_3\)-razy) wynosi

(1)\( p_n(k_1, k_2, k_3 ) = \frac{n!}{k_1! \, k_2! \, k_3!} \, p_1^{k_1} \cdot p_2^{k_2} \cdot p_3^{k_3} \; \)

przy czym

\(p_1 + p_2 + p_3 = 1, \; \; \; \; \; \; k_1 + k_2 + k_3 = n \; \)


Jest to uogólnienie formuły (2) w Rozdziale 3. .


Powróćmy do wzoru (1). Zapis \( p_n(k_1, k_2, k_3 )\;\) jest symetryczny ale mylący, ponieważ \(k_3\) oraz \(p_3\) zależą od pozostałych wielkości. Dlatego przepiszemy relację (1) w postaci


(2)\( Pr\{A_1 \; \mbox{zachodzi} \; k_1 \;\mbox{razy}, A_2 \; \mbox{zachodzi} \; k_2 \; \mbox{razy}\} \)

\[ = \frac{n!}{k_1! \, k_2! \, (n-k_1-k_2)!} \, p_1^{k_1} \cdot p_2^{k_2} \cdot [1-(p_1 + p_2)]^{n-k_1 - k_2} \; \]


Z tego wzoru wynika, że dwa zdarzenia: \(\{A_1 \; \mbox{zachodzi} \; k_1 \;\mbox{razy}\} \) oraz \(\{A_2 \; \mbox{zachodzi} \; k_2 \;\mbox{razy}\} \) nie są zdarzeniami niezależnymi, to znaczy


(3)\( Pr\{A_1 \; \mbox{zachodzi} \; k_1 \;\mbox{razy}, A_2 \; \mbox{zachodzi} \; k_2 \; \mbox{razy}\} \)

\[ \ne Pr\{A_1 \; \mbox{zachodzi} \; k_1 \;\mbox{razy}\} \cdot Pr\{A_2 \; \mbox{zachodzi} \; k_2 \; \mbox{razy}\} \]


gdzie po prawej stronie występują rozkłady dwumianowe zdefiniowane w równaniu (1) w Rozdziale 3:

(4)\( Pr\{A_1 \; \mbox{zachodzi} \; k_1 \; \mbox{razy}\} = \frac{n!}{k_1! \, (n-k_1)!} \, \cdot p_1^{k_1} \cdot [1-p_1]^{n-{k_1}} \)


Podobnie dla

(5)\( Pr\{A_2 \; \mbox{zachodzi} \; k_2 \; \mbox{razy}\} = \frac{n!}{k_2! \, (n-k_2)!} \, \cdot p_2^{k_2} \cdot [1-p_2]^{n-{k_2}} \)



Uogolniony schemat Bernoulliego: W przedziale o długości \(T\) jest n losowo wybranych punktów. W przedziale o długości \(T_1\) jest \(k_1\) z tych punktów, natomiast w przedziale o długości \(T_2\) jest \(k_2\) z tych punktów. Pozostałe \(n-k_1-k_2\) punktów jest w przedziale o długości \(T-T_1-T_2\).


Rozważamy przedział liczbowy \([0, T]\). Z przedziału tego wybieram losowo jeden punkt, jedną liczbę. Ponieważ wszystkie liczby są "równo rozłożone", więc prawdopodobieństwo tego, że punkt ten jest w przedziale o długości \(T_1 \subset [0, T] \) wynosi

\[p_1 = \frac{T_1}{T}\]


Podobnie jest dla przedziału o dłogości \(T_2\). Prawdopodobieństwo tego, że punkt ten jest w przedziale o długości \(T_2 \subset [0, T] \) wynosi

\[p_2 = \frac{T_2}{T}\]


Jeżeli wylosowany punkt jest w danym przedziale, uważam to za sukces. Wybieram teraz losowo n punktów z przedzialu \([0, T]\). Prawdopodobieństwo tego, że \(k_1\) z tych wszystkich n-punktów będzie w przedziale \(T_1\) i że \(k_2\) z tych wszystkich n-punktów będzie w przedziale \(T_2\) jest określone przez powyższy rozkład. Teraz dokonuję takiego samego przejścia granicznego jak w twierdzeniu Poissona

\(n \to \infty, \;\;\; T \to \infty \;\;\;\; \mbox{ale} \;\; \frac{n}{T} = \mu = const. \)


jest wielkością stałą i oznacza ilość losowych punktów w jednostkowym przedziale, czyli gęstość losowo wybranych punktów na osi czasu. Przy takim skalowaniu Równanie (1) ma postać


(6)\( P=Pr\{k_1 \mbox{ w } T_1; \; k_2 \mbox{ w } T_2 \} = \frac{n!}{k_1! \, k_2! \, k_3!} \, \left(\frac{T_1}{T}\right)^{k_1} \cdot \left(\frac{T_2}{T}\right)^{k_2} \cdot \left(\frac{T_3}{T}\right)^{k_3} \; \)

gdzie \(T_3 = T - T_1-T_2\). W wyrażeniu tym wstawimy \(T=n/\mu\):


(7)\( P = \frac{n!}{k_1! \, k_2! \, (n-k_1-k_2)!} \, \left(\frac{\mu T_1}{n}\right)^{k_1} \cdot \left(\frac{\mu T_2}{n}\right)^{k_2} \cdot \left[1- \frac{\mu(T_1 +T_2)}{n}\right]^{n-k_1 - k_2} \; \)


\( = \frac{(\mu T_1)^{k_1}}{k_1!} \cdot \frac{(\mu T_2)^{k_2}}{k_2!} \cdot \frac{n!}{n^{k_1} \, n^{k_2} \, (n-k_1-k_2)!} \, \cdot \frac{\left[1- \frac{\mu(T_1 +T_2)}{n}\right]^{n} } {\left[1- \frac{\mu(T_1 +T_2)}{n}\right]^{k_1 + k_2}} \; \)


Graniczna wartość


\( \lim_{n\to \infty} \left[1- \frac{\mu(T_1 +T_2)}{n}\right]^{n} = \mbox{exp}[-\mu(T_1+T_2)] \; \)


\( \lim_{n\to \infty} \left[1- \frac{\mu(T_1 +T_2)}{n}\right]^{k_1+k_2} = 1 \; \)


Wyrażenie


\( \frac{n!}{n^{k_1} \, n^{k_2} \, (n-k_1-k_2)!} = \frac{n!}{n^{k_1+k_2} \, [n-(k_1+k_2)]!} = \frac{n!}{n^{k} \, (n-k)!} \; \)


gdzie \(k=k_1+k_2\), było rozpatrywane przy przejścu granicznym w twierdzeniu Poissona (patrz Rozdział 5). Pokazano tam, ze w granicy \(n\to \infty\), wartość graniczna wynosi 1.

Ostatecznie Równanie (6) w granicznym przypadku ma postać



(8)\( Pr\{k_1 \mbox{ w } T_1; \; k_2 \mbox{ w } T_2 \} = \frac{(\mu T_1)^{k_1}}{k_1!} \cdot \frac{(\mu T_2)^{k_2}}{k_2!} e^{-\mu(T_1+T_2)} \)


\(= \frac{(\mu T_1)^{k_1}}{k_1!} e^{-\mu T_1} \cdot \frac{(\mu T_2)^{k_2}}{k_2!} e^{-\mu T_2} = Pr\{k_1 \mbox{ w } T_1\} \cdot Pr \{ k_2 \mbox{ w } T_2 \} \)


Wynika stąd, że prawdopodobieństwo iloczynu zdarzeń

\(\{k_1 \mbox{ w } T_1; \; k_2 \mbox{ w } T_2 \}\,\)


jest równe iloczynowi prawdopodobieństw zdarzenia


\(\{k_1 \mbox{ w } T_1\}\,\)


oraz zdarzenia


\(\{k_2 \mbox{ w } T_2\}\,\)


Oznacza to, że te dwa zdarzenie są od siebie niezależne. Jeżeli przedział \([0, T]\) jest skończony, to liczba punktów \(k_2\) w przedziale \(T_2\) zależy od tego ile jest punktów \(k_1\) w przedziale \(T_1\), ponieważ wszystkich punktów jest \(n\). Jeżeli \(T \to \infty\) i \(n \to \infty\), to na osi liczbowej \([0, \infty)\) jest nieskończenie wiele punktów. Wówczas w przedziale o długości \(T_1\) może być dowolna liczba punktów, w przedziale o długości \(T_2\) może być dowolna liczba punktów, w przedziale o długości \(T_3\) może być dowolna liczba punktów, itd. Liczba punktów w przedziale \(T_2 \) nie zależy od liczby punktów w przedziale \(T_1\). Widać teraz, dlaczego proces stochastyczny Poissona \(N(t)\) ma przyrosty niezależne. Wielkość \(N(t_2) - N(t_1)\) to liczba punktów w przedziale \((t_1, t_2)\), natomiast wielkość \(N(t_4) - N(t_3)\) to liczba punktów w przedziale \((t_3, t_4)\). Jeżeli te dwa przedziały nie przekrywają się to mamy przypadek rozważany powyżej. I dlatego przyrost \(N(t_4) - N(t_3)\) nie zależy od przyrostu \(N(t_2) - N(t_1)\). To jest bardzo waże stwierdzenie mówiące o tym, że proces Poissona jest procesem o niezależnych przyrostach.




G. Rozkład Gaussa (normalny)

Ciągła zmienna losowa \(\xi \in (-\infty, \infty)\) jest zmienną losową gaussowską (ma rozkład normalny) jeżeli jej gęstość prawdopodobieństwa ma postać


\[p(x) = \frac{1}{\sqrt{2\pi \sigma^2} }e^{-\frac{(x-m)^2}{2\sigma^2}}\]


Rozkład ten jest scharakteryzowany przez dwa parametry rzeczywiste \(m\) oraz \(\sigma\). W statystyce rozkład ten oznacza się jako

\[p(x) = N(m, \sigma) \,\]


Wartość średnia zmiennej losowej gaussowskiej wynosi


\[\langle \xi \rangle = \int_{-\infty}^{\infty} x \;p(x) \,dx = m \]


Wariancja


\[\langle (\xi - m)^2 \rangle = \langle \xi^2 \rangle - \langle \xi \rangle^2 = \sigma^2 \]

Z tych relacji otrzymujemy interpretację parametrów \(m\) oraz \(\sigma\). Parametr \(m\) jest wartością średnia zmiennej losowej, natomiast \(\sigma^2\) jest jej wariancją.

Funkcja charakterystyczna zmiennej losowej gaussowskiej wynosi


\[C(\omega) = \langle e^{i\omega \xi} \rangle = \int_{-\infty}^{\infty} e^{i\omega x} \;p(x) \,dx = e^{im\omega -\frac{1}{2} \sigma^2 \omega^2} \]

Można numerycznie obliczyć prawdopodobieństwo tego, że zmienna losowa \(\xi \in (x_1, x_2)\). Dla przykładu


\[Pr\{ \xi \in (m-1.96 \sigma, m+1.96 \sigma ) \}= 0.95 \]

Natomiast

\[Pr\{ \xi \in (m-2.58 \sigma, m+2.58 \sigma) \}= 0.99\]


Relacje te pokazują, że z prawdopodobieństwem bliskim jedności zmienna losowa gaussowska przyjmuje wartości wokół wartości średniej \(m\) z odchyleniem plus/minus kilka razy \(\sigma\).


Zmienna losowa

\(\eta=c\xi+b\)

gdzie \(c\) oraz \(b\) sa liczbami rzeczywistymi, jest też zmienną losową gaussowską o rozkladzie \(N(c m + b, \, c\sigma)\).


Rozpatrzmy teraz zmienną gaussowską o zerowej wartości średniej, \(m=0\). Nie trudno pokazać, że


\(\langle \xi^{2k}\rangle = 1\cdot 3 \cdot 5 \dots (2k-1) \sigma^{2k} = (2k-1)!! \,\sigma^{2k}, \; \; \; \; \; \langle \xi^{2k+1}\rangle = 0, \; \; \; \; k=1, 2, 3, \dots\)

Innymi słowy, wszystkie momenty statystyczne wyższego rzędu wyrażają się przez moment statystyczny drugiego rzędu \(\sigma^2\). W szczególności


\(\langle \xi^{4}\rangle = 3 \langle \xi^{2}\rangle^2 = 3\sigma^4\)


Często relacja ta służy za miarę odchylenia od "normalności", to znaczy na ile jakaś zmienna losowa różni się od zmiennej losowej gaussowskiej.