Procesy i Zjawiska Losowe

Z Skrypty dla studentów Ekonofizyki UPGOW

Spis treści

PROCESY I ZJAWISKA LOSOWE

Jerzy Łuczka

Skrypt dla studentów ekonofizyki


WAZNE - postaraj sie podzielic tekst na glowne rozdzialy (tak by bylo z 10 sztuk)

Spis treści

  1. Wstęp
  2. Zbiory
  3. Elementy teorii prawdopodobieństa
  4. Próby i schemat Bernoulliego
  5. Procesy Stochastyczne
  6. Procesy Poissona
  7. Procesy Poissona
  8. Procesy Poissona
  9. Procesy Poissona

Błądzenie przypadkowe

W Rozdziale 6 omawialiśmy zmienne losowe Poissona, a w Rozdziale 8 omawialiśmy procesy Poissona, które są granicznym przypadkiem pewnej klasy schematów Bernoulliego: liczba niezależnych doświadczeń (prób) \(n\to \infty\) oraz prawdopodobieństwo sukcesu \(P(A_1) = p\) w jednym doświadczeniu zmierza do zera, \(p \to 0\), ale przejście graniczne jest dokonywane w taki sposób aby iloczyn \(n\cdot p = const. =\lambda\). Przykłady możliwe do realizowania takiego przejścia granicznego podaliśmy w Rozdziale 8. Tego typu przejścia granicznego nie mozna stosowac do doświadczen typu rzut monetą, ponieważ prawdopodobieństwo sukcesu \(P(A_1) = p\) w jednym doświadczeniu jest ustalone i nie może zmierzać do zera.

W następnym rozdziale podamy przykład innego przejścia granicznego prowadzącego do zupełnie nowej rodziny procesów stochastycznych, do procesów Wienera. Zarówno procesy Poissona jak i procesy Wienera stanowią podstawę wszelkich innych procesów stochastycznych. Można powiedzieć, że dowolny proces stochastyczny ma jakiś związek albo z procesem Poissona albo z procesem Wienera lub ich uogólnieniami.

Nim skonstruujemy proces Wienera, zdefiniujmy proces bładzenia przypadkowego. Rozpatrzymy raz jeszcze schemat Bernoulliego podobny do rzutu monetą zakładając możliwość posiadania sfałszowanej monety po to, aby prawdopodobieństwo wylosowania orła \(P(A_1)=p\) mogło być inne niż prawdopodobieństwo wylosowania reszki math>P(A_2)=q</math>.

 RYSUNEK


Zdefinjujemy proces błądzenia przypadkowego w następujący sposób. Rozważmy nieskończoną jednowymiarową sieć (łańcuch) o strukturze periodycznej, o okresie \(L\). Węzły sieci oznaczymy liczbami całkowitymi \(\{\dots, -2, -1, 0, 1, 2, \dots \}\). Odległość między węzłami wynosi \(L\). Niech cząstka w chwili początkowej \(t=0\) znajduje się w węźle oznaczonym umownie \(r=0\). Cząstka co pewien ustalony czas \(T\) wykonuje krok albo w prawo (zdarzenie \(A_1\)) albo w lewo (zdarzenie \(A_2\)). Niech prawdopodobieństwo kroku w prawo wynosi \(p\), a kroku w lewo \(q\), czyli

\(P(A_1) =p, \; \; \; \; \;\;\;\;\; P(A_2) = q, \; \;\;\;\;\; \; \;p+q=1\)


Pytamy, jakie jest prawdopodobieństwo tego, że po \(n\) krokach cząstka jest w węźle o numerze \(r\). Czas \(t\) po \(n\)-krokach wynosi

\(t=nT\;\)

Dlatego czas \(t\) można utożsamiać z ilością kroków \(n\). Położenie w \(r\)-tym węźle wynosi

\(x=rL\;\)

Dlatego położenie \(x\) czas można utożsamiać z numerem węzła \(r\).

czyli położenie cząstki \(\xi(t)\; \) w chwili \(t\) zapiszemy jako


\(\xi(t) = \xi(nT)= x = r L \;\).


Załóżmy, że w \(n\)-krokach, \(k\)-kroków było w prawo (więc cząstka przesunęła się w prawo na odległość \(kL\)), a pozostałe \((n-k)\)-kroków było w lewo (więc cząstka przesunęła się w lewo na odległość \((n-k)L\)). Zatem położenie po \(n\)-krokach wynosi

\(x = k L - (n-k) L = (2k-n)l = rL, \; \; \; \; k=0, 1, 2, \dots, n\).

Stąd otrzymujemy relację

\(r=2k -n \;\;\; \mbox{lub} \;\;\; k=\frac{n+k}{2}, \; \; \;\ \; r= -n, -(n-1), -(n-2), \dots, (n-2), (n-1), n\)

Zauważmy, że tak sformułowany proces błądzenia przypadkowego jest schematem Bernoulliego o n próbach i k sukcesach. Więc prawdopodobieństwo tego, że po \(n\) krokach cząstka jest w węźle o numerze \(r\) dane jest przez rozkład dwumianowy:


(1)\( Pr\{\xi(nT) =rL=(2k-n)L\} = {n \choose k} \cdot p^k \cdot q^{n-k} = \frac{n!}{k! (n-k)!} \cdot p^k \cdot q^{n-k} \;\)


W równaniu tym należy wstawić wyrażenia

\(k=\frac{n+r}{2} \;\;\; \mbox{oraz} \;\;\; n - k=\frac{n-r}{2}\)

Wówczas otrzymamy prawdopodobieństwo \(p_n(r)\) tego, że po n-krokach cząstka jest w węźle r:


(2)\( p_n(r) = Pr\{\xi(nT) =rL\} = {n \choose \frac{n+r}{2}} \cdot p^{\frac{n+r}{2}} \cdot q^{\frac{n-r}{2}} \;\)


Warunek unormowania ma postać

\(\sum_{r=-n}^n p_n(r) = 1\;\)


Jeżeli proces startuje z zerowego węzła, to znaczy \(\xi(0) = 0\), to


(3)\(p_0(0) = 1, \; \; \; p_0(r) = 0 \; \;\ \mbox{dla} \; \; \; r \ne 0\)


To są warunki początkowe dla prawdopodobieństw \(p_n(r) \;\).

Prawdopodobieństwa (2) spełniają równanie ewolucji (master equation) w postaci


(4)\(p_{n+1}(r) = p\cdot p_{n}(r-1) + q \cdot p_{n}(r+1), \; \; \;\; \; \; \; p_0(r)=\delta_{0,r}\)

gdzie zapisaliśmy zgrabnie warunek początkowy (3) przy pomocy delty Kroneckera \(\delta_{0,r}\), która równa się 1 gdy \(r=0\) oraz równa się zero gdy \(r\ne 0\).

Powyższe równanie ewolucji należy następująco interpretować: Z lewej strony równania mamy prawdopodobieństwa tego, że w chwili \((n+1)\) cząstka jest w położeniu \(r\). Z prawej strony równania mamy prawdopodobieństwa tego, że w chwili \(n\) cząstka była w położeniu \((r-1)\) i w następnym kroku z prawdopodobieństwem \(p\) przeskoczyła w prawo, czyli nastąpiło przejście \((r-1) \to r\) lub cząstka była w położeniu \((r+1)\) i w następnym kroku z prawdopodobieństwem \(q\) przeskoczyła w lewo, czyli nastąpiło przejście \((r+1) \to r\).

Dowód Równania (4) nie jest trudny. Należy zgodnie z oznaczeniami w Równaniu (2) wstawić poszczególne wyrażenia dla \(p_{n+1}(r), \; \; p_{n}(r-1)\) i \(p_{n}(r+1)\;\) oraz wykorzystać tożsamość z kombinatoryki dla kombinacji

\({n \choose m-1} + {n \choose m} = {n+1 \choose m}\)

gdzie \(m=(n+r+1)/2\;\). Tożsamość tę można sprawdzić bezpośrednim rachunkiem rozpisując symbol kombinacji jak w Równaniu (1).

Ponieważ znamy prawdopodobieństwa (2) lub równoważnie (1), możemy wyznaczyć momenty statystyczne dla błądzenia przypadkowego. Wygodniej jest wykowywac obliczenia stosując Równanie (1).


Średnie położenie

Wartość średnia procesu \(\xi(t)\), czyli wartość średnia położenia po \(n\)-krokach wynosi (patrz Równanie (1) i Równanie (2))

(5)\(m(t) = m(nT)=\langle \xi(t)\rangle = \langle \xi(nT)\rangle = \sum_{r=-n}^n rL \; p_n(r) = \sum_{k=0}^n (2k-n)L \; {n \choose k} \cdot p^k \cdot q^{n-k} = nL (2p-1) \;\)

Zauważmy, że w symetrycznym przypadku, gdy \(p=q=1/2\), średnie położenie cząstki

\(\langle \xi(nT)\rangle=0\)

Jest to oczywiste, ponieważ z tym samym prawdopodobieństwo cząstka skacze w lewo i w prawo. Jeżeli \(p>q\) to cząstka częściej skacze w prawo niż w lewo i średnio cząstka przemieszcza sie w prawo. Z kolei gdy \(q>p\) to cząstka częściej skacze w lewo niż w prawo i średnio cząstka przemieszcza sie w lewo. Z fizycznego punktu widzenia, przypadek \(p\ne q\) oznacza, że istnieje jakaś przyczyna na to że cząstka dryfuje w jedna stronę. Tą przyczyną może być siła lub asymetria układu. Dlatego przypadek \(p\ne q\) nazywa się asymetrycznym błądzeniem przypadkowym lub błądzeniem przypadkowym z dryfem.


Średnio-kwadratowe przemieszczenie


Jeżeli mówimy o poruszających się cząstkach, to drugi moment centralny procesuy stochastycznego nazywamy często średnio-kwadratowym przemieszczeniem lub fluktuacjami położenia. Dla błądzenia przypadkowego otrzymujemy

(6)\( \sigma^2(t) = \sigma^2(nT)= \langle [\xi(t) - m(t)]^2\rangle = \sum_{r=-n}^n [rL -m(nT)]^2 \; p_n(r) \)

\( \,\ \; \; \; \; \; \; \; \; = \sum_{k=0}^n [(2k-n)L - nL(2p-1)]^2\; {n \choose k} \cdot p^k \cdot q^{n-k} = 4n L^2p(1-p) \; \)


W symetrycznym przypadku, gdy \(p=q=1/2\), dyspersja ma postać

(7)\(\sigma(nT) = L \sqrt{n} \;\)


Podamy teraz ważną poglądową własność ruchu przypadkowego. Trajektorie cząstki (realizacje procesu) mogą bardzo różnie przebiegać, czasami znacznie się różnić. Jednak zdecydowana większość trajektorii fluktuuje wokół wartości średniej i jest w przedziale:


\(\xi(t) \in [\langle \xi(t)\rangle - \sigma(t), \langle \xi(t)\rangle + \sigma(t)] \;\)

W przypadku symetrycznym większość trajektorii jest w przedziale:


\(\xi(nT) \in [ - \sigma(nT), + \sigma(nT)] = [-L\sqrt{n}, L\sqrt{n}] \;\)

Zauważmy, że gdy ilość kroków \(n\) rośnie (czas \(t=nT\) rośnie) to narastają też fluktuacje położenia. Innymi słowy, trajektorie mogą rozbiegać sie coraz bardziej od wartości średniej. Ta rozbieżność jest pierwiastkowa z ilością kroków: \(\propto \sqrt{n}\).


Powyżej używałem różnych zapisów tej samej wielkości. Pamiętajmy, że położenie cząstki w chwlili \(t\) jest opisane przez \(\xi(t)\), czas \(t\) utożsamiamy z ilościa kroków \(n\), z kolei położenie cząstki po \(n\)-krokach oznaczyliśmy przez \(r\). W praktyce, najprościej jest wyliczyć wartość średnią i wariancję używając wyrażeń z sumą po \(k\). Wówczas można wykorzystać wzór na dwumian Newtona

\( (x+y)^n = \sum_{k=0}^n {n \choose k} \cdot x^k \cdot y^{n-k} \; \)

Różniczkując (jednokrotnie i dwukrotnie) powyższy wzór względem x, przyjmująć \(x=p\) oraz \(y=q=1-p\) otrzymamy warażenia na występujące powyżej sumy. Dla przykładu obliczmy sumę


\( S_1 = \sum_{k=0}^n k \; {n \choose k} \cdot p^k \cdot q^{n-k} \;\)

Zróżniczkujmy obustronie dwumian Newtona względem x:

\( n(x+y)^{n-1} = \sum_{k=0}^n k \; {n \choose k} \cdot x^{k-1} \cdot y^{n-k} \;\)

Wyrażenie to mnożymy obustronnie przez \(x\), następnie podstawiamy \(x=p , \; y=q\) pamiętając że \(p+q=1\;\). W rezultacie otrzymamy

\( np = \sum_{k=0}^n k \; {n \choose k} \cdot p^k \cdot q^{n-k} =S_1\;\)

Dwukrotne różniczkowanie ze względu na \(x\) pozwala na wyliczenie sum zawierających \(k(k-1)=k^2-k\), ale sumę zawierającą \(k\) własnie wyliczyliśmy. Dlatego tez można wyliczyc sumę zawierającą \(k^2\). Tym sposobem możemy obliczyć momenty dowolnego rzędu dla błądzenia przypadkowego.


UWAGi:

1. Powyższe rozważania mozna uogólnić na ruch cząstki na płaszczyźnie (ruch dwu-wymiarowy) i w przestrzeni (ruch trój-wymiarowy).

2. Można rozważać także przeskoki o 2 (3, 4, ...) węzły.

3. Można dokonac uogólnienia zakładając, że czastka z prawdopodobieństwem \(p_1\) przeskakuje w prawo, z prawdopodobieństwem \(p_2\) przeskakuje w lewo oraz z prawdopodobieństwem \(p_3\) nie przeskakuje (czeka).

4. Rozważany w Rozdziale 8.2 proces urodzin i śmierci też opisuje błądzenie przypadkowe cząstki: przejściu (narodziny) \(k \to k+1\) odpowiada przeskok w prawo z węzła \(k\) do węzła \(k+1\), podobnie przejściu (śmierci) \(k \to k-1\) odpowiada przeskok w lewo z węzła \(k\) do węzła \(k-1\). Jest to rozszerzenie procesu urodzin i śmierci ponieważ przestrzeń stanów zawiera wszystkie liczby całkowite numerujące węzły sieci (dla procesu urodzin i śmierci przestrzeń stanów to liczby całkowite nieujemne).

Proces dyfuzji - proces Wienera

Proces Wienera jest, obok procesu Poissona, najważniejszym procesem stochastycznym. Jest on punktem wyjścia nieskończenie wielkiej gamy procesów stochastycznych o ciągłych realizacjach, w odróżnieniu od realizacji procesu Poissona, które są nieciągłymi funkcjami czasu. Tak jak procesu Poissona jest granicznym przypadkiem pewnej klasy schematów Bernoulliego, tak i proces Wienera jest również granicznym przypadkiem pewnej klasy schematów Bernoulliego. Czytelnik oczywiście domyśla się, że musi to być inne przejście graniczne. To przejście graniczne dokonamy dla błądzenia przypadkowego z poprzedniego rozdziału. Jak wiemy, błądzenie przypadkowe jest także schematem Bernouliego.


Przejście graniczne w procesie błądzenia przypadkowego

Błądzenie przypadkowe jako proces stochastyczny posiada poważny (realny) mankament: przejścia z jednego węzła na sąsiedni węzeł odbywają się dokładnie co okres czasu \(T\) tak jak tykanie porządnego zegara kwarcowego. Idealne skoki o odległość \(L\) też są fikcją fizyczną. Tym niemniej, proces taki odgrywał, odgrywa i będzie odgrywał bardzo ważna rolę nie tylko w naukach przyrodniczych, ale także ekonomicznych i socjologicznych.

Dokonajmy takiego przejścia granicznego dla błądzenia przypadkowego , aby cząstka mogła skakać coraz częściej i mogła robić dowolnie małe skoki. Innymi słowy, skalujemy tak aby


(8)\(\Delta t=T \to 0, \; \; \; \; \; \Delta x = L \to 0\)


Tego typu przejście graniczne może być realizowane na nieskończenie wiele sposobów. Co mam na myśli? Przypomnijmy przejście graniczne realizowane dla procesu Poissona. Tam \(n\to \infty,\; \; \; p\to 0\), ale w taki sposób aby \(n\cdot p = const. = \lambda\) lub też

\(n\to \infty,\; \; \; T\to \infty\), ale w taki sposób aby gęstość punktów \(n/T = \mu\;\) była stała. Postępując analogicznie, powinniśmy żądać, aby iloraz \(L/T\) był stały lub ogólniej aby iloraz

\(\frac{L^a}{T^b} = const.\)

gdzie \(a\) i \(b\) są skalującymi wykładnikami. W zależności od ich wartości, możemy dokonywać różnych (bardziej lub mniej uzasadnionych lub bardziej lub mniej realnych) przejść graniczych. Zauważmy, że najprostszy wybór \(a=b=1\;\) daje skalowanie

\(\frac{L}{T} = \frac{ \Delta x}{\Delta t} = const. =v\)

gdzie \(v\;\) ma wymiar prędkości [m/s]. Ktoś powie: wspaniale, prędkość to "dobrze zadomowione" pojęcie. Więc tak skalujmy. Wybierzemy inną drogę. Będziemy dokonywali przejścia granicznego (8), ale bez konkretnego skalowania tak długo, jak to możliwe.

Startujemy z Równania (4) dla prawdopodobieństwa \(p_n(r)\) tego, że po \(n\)-krokach cząstka jest w węźle \(r\), lub inaczej mówiąc, w chwili \(t=nT\;\) jest w położeniu \(x=rL\;\). Wprowadzimy nowe oznaczenie na to prawdopodobieństwo

(9)\(p(r, n) = p_n(r)\; \)

Z relacji

\(x = rL = r \Delta x, \; \; \; \; \; \; t=nT = n \Delta t\)

otrzymamy

\(r = \frac{x}{\Delta x}, \; \; \; \; \; \; n = \frac{t}{\Delta t}\)

Przy takich oznaczeniach

\(p(r, n) = p\left(\frac{x}{\Delta x}, \frac{t}{\Delta t}\right)\; \)


Zdefiniujemy gęstość prawdopodobieństwa (prawdopodobieństwo na jednostkę długości) za pomocą relacji


(10)\(f(x, t) = \lim_{\Delta t \to 0,\ \Delta x \to 0} \frac{1}{2 \Delta x} p\left(\frac{x}{\Delta x}, \frac{t}{\Delta t}\right)\)


Gęstość prawdopodobieństwa \(f(x, t)\) powinna być unormowana, to znaczy


\(\int_{-\infty}^{\infty} f(x, t) \; dx =1\)


Faktycznie można to pokazać dokonując przejścia granicznego w Równaniu (xx--CrossReference--eqn:10.32-equation--xx). Otrzymamy wówczas jawną postać gęstości \(f(x, t)\). Jednak nasz cel jest inny: my chcemy otrzymać graniczną postać równania ewolucji (4):

\(p_{n+1}(r) = p \cdot p_n(r-1) + q \cdot p(r+1) \)

które przedstawimy w postaci (patrz Równanie (9))


\(p(r, n+1) = p \cdot p(r-1, n) + q \cdot p(r+1, n) \)


Ustalamy wartości czasu \(t\) i położenia \(x\) cząstki, natomiast zmniejszamy \(\Delta t\) oraz \(\Delta x\). To jest możliwe, gdy jednocześnie liczba kroków \(n\to \infty\) oraz numer węzła określający położenie \(|r| \to\infty\). Korzystając z definicji (9), powyższe równanie transformuje sie do postaci

\(f(x, t + \Delta t) = p \cdot f(x - \Delta x, t) + q \cdot f(x + \Delta x, t) \)


Aby do końca przeprowadzić przejście graniczne (8), rozwiniemy funkcje \(f(x, t + \Delta t), \; \; f(x - \Delta x, t), \; \; f(x + \Delta x, t)\) w szereg Taylora otrzymując wyrażenie

(11)\( f(x, t) + \frac{\partial f(x, t)}{\partial t} \Delta t+ \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial t^2} (\Delta t)^2 + \dots \)

\( = p\left\{ f(x, t) - \frac{\partial f(x, t)}{\partial x} \Delta x + \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial x^2} (\Delta x)^2 - \frac{1}{3!} \frac{\partial^3 f(x, t)}{\partial x^3} (\Delta x)^3 + \dots \right\} \)


\( + q \left\{ f(x, t) + \frac{\partial f(x, t)}{\partial x} \Delta x + \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial x^2} (\Delta x)^2 + \frac{1}{3!} \frac{\partial^3 f(x, t)}{\partial x^3} (\Delta x)^3 + \dots \right\} \)


PRZYPADEK SYMETRYCZNY


Aby wybrać poprawne skalowanie, musimy najpierw rozpatrzeć przypadek symetryczny błądzenia przypadkowego

\(p=q = \frac{1}{2}\;\)

Wówczas otrzymamy równanie

\( \frac{\partial f(x, t)}{\partial t} \Delta t+ \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial t^2} (\Delta t)^2 + \dots = \left\{ \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial x^2} (\Delta x)^2 + \frac{1}{4!} \frac{\partial^4 f(x, t)}{\partial x^4} (\Delta x)^4 + \dots \right\} \)

Dzieląc obustronie to równanie przez \(\Delta t\) otrzymamy

(12)\( \frac{\partial f(x, t)}{\partial t} + \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial t^2} \Delta t + \dots = \left\{ \frac{1}{2} \frac{ (\Delta x)^2}{\Delta t} \frac{\partial^2 f(x, t)}{\partial x^2} + \frac{1}{4!} \frac{(\Delta x)^4}{\Delta t} \frac{\partial^4 f(x, t)}{\partial x^4} + \dots \right\} \)

Jeżeli teraz

(13)\(\Delta t \to 0, \; \; \; \; \; \Delta x \to 0, \; \; \; \; \mbox{ale} \; \; \; \; \; \; \lim_{\Delta t \to 0,\ \Delta x \to 0} \frac{\Delta x}{\Delta t} = const. \)

to otrzymamy "dziwny" przypadek


\( \frac{\partial f(x, t)}{\partial t} =0 \)


Stąd wynika, że gęstość \(f(x, t)\) nie zależy od czasu. To z kolei oznacza, że prawdopodobieństwo tego, że cząstka jest w przedziale np. \([2, 5]\) nie zmienia się w czasie. To nie może być prawdą. Pamiętamy, że w chwili \(t=0\), cząstka była w położeniu \(x=0\) (cząstka była w węźle 0). Skoro tak, to prawdopodobieństwo tego, że była w przedziale np. \([2, 5]\) wynosi 0. A to nie zmienia się, więc nigdy cząstka nie mogłaby znależć sie w tym przedziale. To jest w sprzeczności z wynikami, jakie uzyskalismy dla błądzenia przypadkowego. Dlatego też skalowanie (13) nie jest rozsądne. Nie jest dobrze jak znikają wszystkie wyrazy po prawiej stronie Równania (12). Jeżeli chcemy uzyskać nietrywialny wynik, załóżmy takie skalowanie, aby chociaż jeden wyraz po prawej stronie Równania (12) nie znikał. To nam sugeruje następujące skalowanie

(14)\(\Delta t \to 0, \; \; \; \; \; \Delta x \to 0, \; \; \; \; \mbox{ale} \; \; \; \; \; \lim_{\Delta t \to 0,\ \Delta x \to 0}\frac{(\Delta x)^2}{\Delta t} = const. \equiv 2 D\)

Teraz Równanie (12) redukuje sie do postaci


(15)\( \frac{\partial f(x, t)}{\partial t} = D \frac{\partial^2 f(x, t)}{\partial x^2} \)


Równanie to nazywa się równaniem dyfuzji i opisuje ono proces który nazywa się procesem dyfuzji. Jest to równanie różniczkowe cząstkowe drugiego rzędu, parabolicznego typu. Parabolicznego - ponieważ z lewej strony jednokrotnie różniczkujemy względem \(t\) (oznaczmy taką operację y), a z prawej strony dwukrotnie różniczkujemy względem \(x\) (oznaczmy taką operację z), czyli symbolicznie \( y=D z z = D z^2\), a to jest równanie paraboli (za takie wyjaśnienie matematycy mnie zjedzą). Ponieważ jest to równanie różniczkowe, więc musimy sformułować warunek początkowy \(f(x, 0)\). Wiemy, że w chwili \(t=0\), cząstka jest w położeniu \(x=0\), czyli proces stochastyczny \(\xi(t)\) startuje z zera, \(\xi(0) = 0\), to z Rozdziału 4 wiemy że dla zmiennej losowej \(\xi =0\) dystrybuantą jest funkcja schodkowa Heaviside'a \(F_{\xi}(x)=\theta(x-0)\), a odpowiadająca jej gęstość prawdopodobieństwa jest pochodną dystrybuanty, czyli delta Diraca` \(\delta(x-0)\). Dlatego też warunek początkowy dla cząstki startującej z zera ma postać


(16)\(f(x, 0) = \delta(x)\;\)

Ponieważ gęstość rozkładu prawdopodobieństwa \(f(x, t)\) zależy także od zmiennej przestrzennej, potrzebne sa także warunki brzegowe. Funkcja \(f(x, t)\) jest unormowana do 1, więc powinna dostatecznie szybko znikać w nieskonczoności. Istnieją kontrprzykłady na to, ale dla rzeczywistych układów


(17)\(\lim_{x\to\pm \infty} f(x, t) = 0 \;\)


Parametr \(D\) w równaniu dyfuzji nazywa się współczynnikiem dyfuzji i dla cząstki błądzącej ma wymiar \([m^2/s]\). W ogólnym przypadku, wymiarem jest kwadrat procesu stochastycznego \(\xi^2(t)\) podzielony przez argument \(t\), czyli \([\xi^2]/[t]\).

Unormowanym rozwiązaniem równania dyfuzji jest następujaca funkcja

(18)\(f(x, t) = \frac{1}{\sqrt{4\pi D t} }\; \exp \left[ - \frac{x^2}{4Dt}\right]\)

Jest to funkcja Gaussa opisujaca zmienne losowe normalne lub gaussowskie. W takim razie, w granicznym przypadku błądzenie losowe cząstki jest procesem gaussowskim lub procesem o rozkładzie normalnym (nazwa 'proces normalny' brzmi myląco). Można udowodnić, że proces ten ma niezależne przyrosty na nieprzekrywających się przedziałach \([t_i, \; t_{i+1}]\).

Znajomość gęstości rozkładu prawdopodobieństwa \(f(x, t)\) pozwala na wyznaczenie momentów statystycznych procesu. Ponieważ \(f(x, t)\) jest funkcja parzystą, więc wartość średnia procesu jest zero. Wariancja procesu

\(\sigma^2(t) = 2Dt\;\)


Proces, który w przypadku symetrycznym otrzymaliśmy jako proces graniczny błądzenia przypadkowego nazywa się procesem Wienera i oznacza przez \(W(t)\). W naszych rozważaniach opisuje on losowe położenie cząstki błądzącej czyli \(W(t)\) jest położeniem cząstki w chwili \(t\). Oczywiście w zależności od zagadnienia, interpretacja \(W(t)\) może byc inna. Podamy teraz formalną definicję tego procesu.


PROCES WIENERA \(W(t)\)

1. Proces stochastyczny \(W(t)\) jest procesem rzeczywistym

2. \(W(0)=0\) (proces startuje z zera)

3. Proces \(W(t)\) ma stacjonarne i niezależne przyrosty na nieprzekrywających się przedziałach

4. \(W(t)\) jest procesem Gaussa o zerowej wartości średniej

(19)\(\langle W(t_2) - W(t_1) \rangle = 0 \)

i wariancji przyrostów

(20)\(\langle [W(t_2) - W(t_1)]^2 \rangle = 2D(t_2 - t_1), \; \; \; \; t_2 > t_1 \)


Zauważmy, że własności 1, 2 i 3 są podobne do własności procesu Poissona. ale na tym podobieństwa sie kończą.


Przyrost \(W(t_2) - W(t_1)\) jest zmienna losową gaussowską o zerowej wartości średniej i wariancji \( = 2D(t_2 - t_1) \). Więc jego rozkład prawdopodobieństwa ma postać


(21)\(f_{W(t_2) - W(t_1)}(x) = \frac{1}{\sqrt{4\pi D (t_2 - t_1)} }\; \exp \left[ - \frac{x^2}{4D(t_2 - t_1)}\right]\)

Przyjmując \(t_1=0\) oraz \(t_2=t\) otrzymamy gęstość prawdopodobieństwa w postaci

(22)\(f_{W(t)}(x) = f(x, t) \;\)

gdzie funkcja \(f(x, t) \) dana jest przez Równanie (18).

Prawdopodobieństwo tego, że w chwili \(t\) cząstka jest w przedziale \([a, b]\) dane jest przez wzór


(23)\(Pr\{W(t) \in (a, b)\} = \int_a^b f(x, t) \; dx = \frac{1}{\sqrt{4\pi D t} }\; \int_a^b \exp \left[ - \frac{x^2}{4Dt}\right] \; dx\)

Czytelnik zauważy, że niekonsekwentnie piszę czasami przedział domknięty \([a, b]\), a czasami przedział otwarty \((a, b)\). W tym przypadku to jest bez różnicy ponieważ


\(Pr\{W(t) \in (a, b)\} = Pr\{W(t) \in [a, b]\} = Pr\{W(t) \in [a, b)\} = Pr\{W(t) \in (a, b])\} \)

Proces Wienera został otrzymany z procesu błądzenia przypadkowego jako graniczny przypadek: skoki są coraz mniejsze i coraz częstsze. Rozpatrzmy realizacje błądzenia przypadkowego w określonym przedziale czasu \([0, t]\). W przedziale tym wybrana realizacja posiada określoną ilość skoków w których funkcja ta jest nieróżniczkowalna. Przy skalowaniu skoki są coraz mniejsze, ale jest ich znacznie więcej. Więc w przedziale czasu \([0, t]\) realizacja posiada znaczniej więcej punktów, w których jest nieróżniczkowalna. W granicy, wielkość skoków dąży do zera, ale ich ilość dąży do nieskończoności. Oznacza to, że realizacja staje się funkcją ciągłą (wysokość skoków dąży do zera), ale jednocześnie nigdzie nie jest różniczkowalna (liczba skoków dąży do nieskończoności). Jest to przykład wyjątkowo dziwnej funkcji. Takiej funkcji nie możemy narysować, ale to co opisałem powyżej powinno wyrobić w nas intuicję o własnościach realizacji procesu Wienera. Matematycy (jak zwykle) dowodzą to ściśle, a fizycy to czują i wiedzą dlaczego tak jest.

Nieróżniczkowalność procesu Wienera można zrozumieć "bardziej analitycznie". Niech we wzorze (xx--CrossReference--eqn:11.12-equation--xx) czas \(t_1=t\) oraz \(t_2=t+\Delta t\). Otrzymamy przyrost procesu Wienera

\(\Delta W(t) = W(t+\Delta t) - W(t) \;\)

i wzór (xx--CrossReference--eqn:11.12-equation--xx) ma postać


(24)\(\langle [\Delta W(t)]^2 \rangle = \langle [W(t+\Delta t) - W(t)[^2 \rangle = 2D \Delta t \)

Dlatego można wnioskować, że w sensie średnio-kwadratowym

\(\Delta W(t) \sim \sqrt{ \langle [\Delta W(t)]^2 \rangle } \sim \sqrt{ \Delta t} \)

Stąd otrzymamy

\(\frac{\Delta W(t)}{\Delta t} \sim \frac{1}{\sqrt{ \Delta t}} \to \infty \; \; \; \; \mbox{gdy} \; \; \; \Delta t \to 0 \)

Ponieważ iloraz różnicowy jest w granicy rozbieżny, pochodna nie istnieje. Inaczej mówiąc, proces ten nie jest różniczkowalny (nawet w sensie średnio-kwadratowym). Mimo to fizycy chętnie posługują się pochodną procesu Wienera i ku zdziwieniu "klasyków" otrzymują prawidłowe wnioski o realnym świecie. Do tego problemu powrócimy w następnym rozdziale.


FUNKCJA KORELACYJNA PROCESU WIENERA

Przytoczyłem pewną własność procesu Wienera, a mianowicie tę, że jest on procesem o niezależnych przyrostach na nieprzekrywających się przedziałach. Niektórzy autorzy wkładają tę własność do definicji procesu Wienera. Traktując proces Wienera jako graniczny przypadek błądzenia przypadkowego, tę własność można udowodnić. Podobną własność ma także proces Poissona. Dla procesu Poissona udowodniliśmy to, korzystając z uogólnionego schematu Bernoulliego.

Twierdzenie: Funkcja korelacyjna procesu Wienera ma postać

(25)\(R(t_2, t_1) = \langle W(t_2) W(t_1)\rangle = 2D \; \mbox{min}(t_2, t_1) \;\)

gdzie funkcja \(\mbox{min}(t_2, t_1) \;\) jest zdefiniowana w Równaniu (xx--CrossReference--eqn:8.16-equation--xx) i oznacza mniejszą z dwóch liczb \(t_2, \; t_1\). Funkcja korelacyjna procesu Wienera zawiera tę samą specyficzną funkcję \(\mbox{min}(t_2, t_1) \;\). Funkcja ta pojawia się we wszystkich procesach o niezależnych przyrostach na nieprzekrywających się przedziałach. Jeszcze raz pojawi się ona w teorii procesów Levy'ego.

Dowód: (i) Niech \(t_2 > t_1 > t_0=0\). Przyrosty \(W(t_2) - W(t_1) \) oraz \(W(t_1) - W(t_0) \) są zmiennymi losowymi niezależnymi dla których

\(\langle[W(t_2) - W(t_1)] [ W(t_1) - W(t_0)] \rangle = \langle W(t_2) - W(t_1) \rangle \cdot \langle W(t_1) - W(t_0) \rangle = 0\)

Średnia wartość przyrostu procesu Wienera wynosi zero, dlatego też w rezultacie otrzymamy zero.

Z drugiej strony, wymnożymy wyrażenia w nawiasach pamietając, że \(W(t_0) = W(0) = 0\) (proces Wienera startuje z zera). Wówczas otrzymamy

\(\langle W(t_2) W(t_1) - W^2(t_1) \rangle = \langle W(t_2) W(t_1) \rangle - \langle W^2(t_1)\rangle =0\)

Stąd wynika, że

\(\langle W(t_2) W(t_1) \rangle = \langle W^2(t_1)\rangle = 2D t_1 \; \; \; \; \mbox{dla} \; \; \; t_2 > t_1\)

(ii) Niech \(t_1 > t_2 > t_0=0\). Przyrosty \(W(t_1) - W(t_2) \) oraz \(W(t_12 - W(t_0) \) są zmiennymi losowymi niezależnymi. Możemy powtórzyć trzy kroki analogiczne do tych w powyższych trzech równanich otrzymując

\(\langle W(t_1) W(t_2)\rangle = \langle W^2(t_2)\rangle = 2D t_2 \; \; \; \; \mbox{dla} \; \; \; t_1 > t_2\)

Ponieważ

\(\langle W(t_2) W(t_1)\rangle = \langle W(t_1) W(t_2)\rangle\)

otrzymujemy tezę twierdzenia.


SKALOWANIE PROCESU WIENERA

Proces Wienera jest samopodobny. Mówiąc obrazowo, jego mniejszy kawałek jest podobny do większego kawałka. To trochę tak jak z kalafiorem: oderwana różyczka z kalafiora jest podobna do kalafiora. Pojęcie samopodobieństwa jest dobrze matematycznie zdefiniowane. W sensie matematycznym kalafior nie jest samopodobny, ale przykład ten jest pod wieloma względami dobry (dla przykładu, każdy go zna, po analizie jego samopodobieństwa można go spożyć).

Zaczniemy analizę samopodobieństwa od równania dyfuzji (15): gęstość rozkładu prawdopodobieństwa \(f(x, t) \) procesu Wienera spełnia to równanie. Równanie dyfuzji jest niezmiennicze względem pewnych transformacji czasu \(t \) i położenia \(x\).

Dokonajmy następującej transformacji skalowania

\(x \to cx, \; \; \; \; \; \; t \to c^2 t\)


Wówczas postać Równania (15) nie zmienia się ponieważ w mianownikach po obu stronach tego równania pojawia się stała \(c^2\), która upraszcza się. Przeprowadźmy te transformację w rozwiązaniu (18): Exponenta nie zmienia się, ale czynnik przed exponentą zmienia się i wówczas funkcja \(f \) nie jest unormowana. Natomiast funkcja \( c \cdot f\) jest unormowana. Dokładniej, powyższa transformacja skalowania prowadzi do relacji


(26)\( c f(cx, c^2 t) = \frac{1}{\sqrt{4\pi D t} }\; \exp \left[ - \frac{x^2}{4Dt}\right]\)

Prawa strona jest taka sama jak w Równaniu (18), czyli otrzymujemy relację

\(f(x, t) = c \; f(cx, c^2 t)\)

Co to oznacza? Niech proces Wienera \(W(t)\) będzie opisany rozkładem (15), czyli funkcją \(f(x, t)\). Niech proces Wienera \({\tilde W(t)}\) będzie opisany rozkładem (26), czyli funkcją \(g(x, t) = c f(cx, c^2t)\). Stąd otrzymujemy następującą informację:

  • Jeżeli proces Wienera \(W \;\) przyjmuje wartość \(x\) w chwili \(t\) to
  • proces Wienera \({\tilde W}\) przyjmuje wartość \(cx\) w chwili \(c^2 t\). Podobnie
  • proces Wienera \({\hat W}\) przyjmuje wartość \(x/b\) w chwili \(t/b^2\).

czyli proces Wienera można w odpowiedni sposób "ściskać" lub "rozdmuchiwac".


Mozna to zgrabnie sformulować następująco:


Jeżeli \(W(t)\) jest procesem Wienera o zerowej wartości średniej i wariancji \(\langle W^2(t)\rangle = 2D t\) to przeskalowany procesem Wienera

\({\tilde W(t)} = c W(t/c^2)\) jest procesem Wienera o zerowej wartości średniej i wariancji \(\langle \tilde W^2(t)\rangle = 2D t\), czyli statystycznie jest nieodróżnialny od \(W(t)\) i te dwa procesy można utożsamiać.


Spójrzmy na rysunek przedstawiający realizacje procesu Wienera. Niech przedział położeń będzie \([1, 3]\) i przedział czasu \([2,4]\). Niech parametr skalowania \(c=3\). Wówczas w przedziale położeń \([3, 9]\) i przedziale czasu \([18, 36]\) statystycznie mamy nieodróżnialny proces Wienera od tego w przedziale położeń \([1, 3]\) i przedziale czasu \([2,4]\). Możemy zwiększać lub zmiejszać w odpowiednie sposób skale położeń i czasu, i ciągle mieć ten sam proces Wienera. W realnym świecie nie ma idealnego procesu Wienera i nie ma idealnego samopodobieństwa (jak z kalafiorem). Proces ten jest idealizacją, która znakomicie opisuje pewne klasy procesów w naszym świecie.

Biały szum gaussowski

W rozdziale 8.4 podaliśmy definicję białego szumu poissonowski jako formalną pochodna procesu Poissona. Nie przeszkadza nam to (w odróżnieniu od matematyków), że taka pochodna nie jest "porządnie" zdefiniowana. Podobnie definiujemy biały szum gaussowski jako pochodną procesu Wienera:


(27)\(\Gamma(t) = \frac{dW(t)}{dt}\)


Nie trudno pokazać, że każda operacja liniowa nad zmienna losową normalną (Gaussa) jest znowu zmienną losową normalną (Gaussa). Na przykład suma dwóch zmiennych losowych normalnch jest zmienną losową normalną. Z tego wynika, że suma dowolnej ilości zmiennych losowych normalnych jest zmienną losową normalną; dalej wynika, że pochodna (jest operacją liniową) procesu Gaussa jest procesem Gaussa, a także całka (przypominam, że całka to graniczna wartość sumy, całka też jest operacją liniową) z procesu Gaussa jest procesem Gaussa. Skoro tak, to wystarczy znać wartość średnią oraz funkcję korelacyjną procesu Gaussa, aby wiedzieć wszystko o tym procesie. Te dwie wielkości dla białego szumu gaussowskiego mają postać:

\(\langle \Gamma(t) \rangle = 0, \; \; \; \; \langle \Gamma(t_2) \Gamma(t_1)\rangle = 2D \delta(t_2 - t_1) \)

Relacje te wykazuje się identycznie jak dla białego szumu poissonowskiego, patrz Rozdział 8.4.

Z Równania (27) otrzymamy formalne relacje


(28)\(dW(t) = \Gamma(t) dt \; \; \; \; \mbox{lub} \; \; \; \; W(t) = \int_0^t \Gamma(s) \; ds\)

Procesy Levy'ego

Podaliśmy dwa przykłady najbardziej popularnych modeli szumu białego: gaussowskiego i poissonowskiego. Są one pochodną procesów Wienera i Poissona, procesów o przyrostach niezależnych na nieprzekrywających się przedziałach. Oba procesy są szczególnymi przypadkami ogólnej klasy procesów stochastycznych, które nazywają się procesami Levy'ego \(L(t)\).

Definicja procesu Levy'ego \(L(t)\) jest następująca:

(1) Jest to proces rzeczywisty, który prawie wszędzie jest prawostronnie ciągły i posiada wszędzie lewostronne granice

(2) \(L(0)=0\) (proces startuje z zera)

(3) \(L(t)\) ma przyrosty niezależne na nieprzekrywających się przedziałach, to znaczy zmienne losowe \(L(t_4) -L(t_3)\) oraz \(L(t_2) -L(t_1)\) są niezależna dla \(0 \le t_1 \le t_2 \le t_3 \le t_4\)

(4) \(L(t)\) ma stacjonarne przyrosty, to znaczy rozkład prawdopodobieństwa zmiennej losowej \(L(t_2) -L(t_31\) zależy od różnicy czasów \(t_2 -t_1\) dla \($0 \le t_1 \le t_2\)

(5) \(L(t)\) jest stochastycznie ciągły, to znaczy dla każdego \(t \ge 0\) oraz \(\epsilon > 0\)

\(\lim_{s\to t} P(|L(t) -L(s)|>\epsilon)=0\)


Z własności (3) wynika, że funkcja korelacyjna procesu Levy'ego o wartości średniej zero, \(\langle L(t)\rangle =0\), ma postać

\( \langle L(t) L(s) \rangle = 2D_0 \mbox{min} (t, s) \equiv 2D_0 [t \theta(s-t) + s \theta(t-s)] \)

gdzie \(D_0 > 0\) jest stałą, nazywaną natężeniem lub intensywnością pprocesu Levy'ego.


Procesy Levy'ego są przykładem losowego ruchu którego trjektorie (realizacje) są funkcjami prawostronnie ciągłymi (tak jak proces Poissona) i mogą mieć co najwyżej przeliczalną ilość punktów nieciągłości w losowych chwilach czasu na każdym skończonym przedziale czasu.

Istnieje wspaniała formuła Levy'ego-Chinczyna dla funkcji characterystycznej procesu Levy'ego


\( C(\omega, t) = \langle \mbox{e}^{i\omega L(t)} \rangle = \mbox{e}^{t \psi(\omega)} \)

gdzie

\( \psi(\omega) = ia_0 \omega -\frac{1}{2} b \omega^2 + \int_{-\infty}^{\infty} \left[\mbox{e}^{i\omega y} - 1 - i\omega y {\mathbb I}_{(-1,1)}(y) \right] \nu (dy), \)

Parametry \(a_0\in R, b \ge 0\). Funkcja

\( {\mathbb I}_A(y)= \{ {{1 \; \; \mbox{if} \; \; y \in A} \atop {0 \; \; \mbox{if} \; \; y \notin A }} \)

nazywa się funkcją charakterystyczną zbioru \(A\) lub indykatorem zbioru \(A\), a wielkość \(\nu = \nu(dy) \) jest tzw. miarą Levy'ego na zbiorze \(R-\{0\}\) o własnościach


\( \nu (R-[-1, 1]) < \infty, \quad \int_{-1}^1 y^2 \nu(dy) < \infty \)

Czytelnik, który nie ma zacięcia matematycznego może myśleć o mierze Levy'ego jako o wyrażeniu

\( \nu = \nu(dy) = \rho(y) dy, \; \; \; \; \rho(y) \ge 0 \)

Nieujemna funkcja \(\rho(y)\) ma wiele cech wspólnych z gęstością rozkładu prawdopodobieństwa.

Jak widać, proces Levy'ego jest w pełni określony przez tryplet \((a_0, b, \nu)\) w którym \(a_0\) opisuje dryf, \(b\) charakteryzuje proces Wienera (ruch Browna) i składowa nieciągła procesu Levy'ego opisana jest miarą Levy'ego \(\nu\). Tryplet \((0, b, 0)\) opisuje proces Wienera. Tryplet \((0, 0, \mu \delta(y-1))\) opisuje proces Poissona o parametrze \(\mu\) i o jednostkowym skoku. Jezeli mamy dowolne losowe skoki (uogólniony proces Poissona) opisane rozkładem prawdopodobieństwa \(\nu(dy)\) to wówczas


\( \psi(\omega) = \mu \int_{-\infty}^{\infty} \left[\mbox{e}^{i\omega y} - 1 \right] \nu (dy) \)


Jeżeli \( \nu(R) = \infty\) wówczas \(L(t)\) opisuje nieciągły proces, który ma nieskończoną ilość małych skoków w dowolnym skończonym przedziale czasu. Taki proces nie opisuje realnych procesów, ale może być przydatną idealizacją.

Z twierdzenia Levy'ego-Ito wynika, że dowolny proces Levy'ego \(L(t)\) można rozłożyć na cztery niezależne procesy


\( L(t)=L_1(t) +L_2(t) + L_3(t) + L_4(t)\; \)

gdzie \(L_1(t)\) opisuje dryf (proces deterministyczny), \(L_2(t)\) jest procesem Wienera, \(L_3(t) \) jest uogólnionym procesem Poissona oraz \(L_4(t)\) opisuje nieciągły proces, który ma nieskończoną ilość małych skoków w dowolnym skończonym przedziale czasu (a pure jump martingale). Wynika to z przedstawienia


\( \psi(\omega) = \psi_1(\omega) +\psi_2(\omega) +\psi_3(\omega) +\psi_4(\omega) \; \)

gdzie


\( \psi_1(\omega) = i a_0 \omega \;\)

\( \psi_2(\omega) = -\frac{1}{2} b \; \omega^2 \)

\( \psi_3(\omega) = \int_{|y| \ge 1} \left[\mbox{e}^{i\omega y} - 1 \right] \nu (dy) \)

\( \psi_4(\omega) = \int_{|y| < 1} \left[\mbox{e}^{i\omega y} - 1 - i\omega y \right] \nu (dy). \)

Liniowa kombinacja nezależnych procesów Levy'ego jet też procesem Levy'ego.

Specjalna klasą procesów Levy'ego jet tzw. \(\alpha\)-proces o indeksie \(\alpha \in (0, 2]\) opisany przez tryplet \((a, 0, \nu)\) z miarą Levy'ego

\( \nu(y) = \left[ c_{1} {\mathbb I}_{(0,\infty)}(y) + c_{2} {\mathbb I}_{(-\infty,0)}(y) \right] |y|^{-\alpha -1}\ dy, \)

gdzie

\(c_1>0, \; c_2>0\).

Funkcja charakterystyczna takiego procesu ma postać

\( \psi(\omega) = \{ [[:Szablon:I a \omega - c]] \)

gdzie parametry


\( \alpha\in(0, 2], \; \; \beta =\beta(c_1, c_2) \in [-1, 1], \; \; c = c(\alpha, c_1, c_2) \in(0, \infty), \; \; a = a(a_0, \alpha, c_1, c_2) \)


Przypadek \(c_1=c_2\) implikuje \(\beta=0\) i proces jest procesem symetrycznym.


Biały szum Levy'ego jest zdefiniowany podobnie jak biały szum poissonowski i biały szum gaussowski:


\( Z(t)=\frac{dL(t)}{dt} \)

Dla procesu Levy'ego o zerowej wartości średniej funkcja korelacyjna ma postać


\( \langle Z(t) Z(s) \rangle = \frac{\partial^2}{\partial t \partial s} \ \langle L(t) L(s) \rangle = 2D_0 \delta (t-s), \)

Przypominam, że zawsze można przedefiniowac proces stochastyczny tak, aby jego wartość średnia była zero:


\(L(t) \to \tilde L(t) = L(t) - \langle L(t)\rangle, \; \; \; \; \; \langle \tilde L(t)\rangle = 0\)


Funkcjonał charakterystyczny symetrycznego \(\alpha\)-stabilnego białego szumu Levy'ego \(Y(t)\) ma postać


\( {\mathbb C}[f] =\langle \mbox{exp}\left[i \int_0^{t} ds\; f(s) Y(s) \right] \rangle = \mbox{exp}\left[- c \int_0^{t} dt\; |f(s)|^{\alpha} \right] \)

dla dowolnej tzw. testowej funkcji \(f(s)\). Jeżeli \(f(s) = \omega\) wówczas funkcjonał charakterystyczny redukuje się do funkcji charakterystycznej dla procesu Levy'ego \(L(t)\). Zkolei, jeżeli wybierzemy \(f(s) = \omega \delta(s-\tau)\) wówczas funkcjonał charakterystyczny redukuje się do funkcji charakterystycznej dla białego szumu Levy'ego \(Y(\tau)\) gdy \(\tau \in (0, t)\).

Stochastyczne równania różniczkowe

Równanie Kramersa-Moyala

Proste i odwrotne równanie Kołmogorowa. Równanie Fokkera-Plancka

Równanie Ito a proces dyfuzji

Równanie Ito i równanie Stratonowicza

Twierdzenie Ito o różniczce funkcji procesu stochastycznego

Przykłady zastosowań równań stochastycznych w ekonomii

Geometryczny proces Wienera

Dodatek matematyczny

1. Elementy teorii dystrybucji: delta Diraca, funkcja schodkowa i jej pochodna , różniczkowanie funkcji nieciągłej


2. Podstawowe tw. w teorii całki Riemanna , różniczkowanie całki wz. górnej granicy całkowania


3. Transformacja Fouriera


4. Momenty statystyczne dla rozkładu Poissona

5. Twierdzenie Poissona dla uogólnionych schematów Bernoulliego