PIZL:Proces Wienera i proces dyfuzji

Z Skrypty dla studentów Ekonofizyki UPGOW

Kl.png
Ue.png




Spis treści

PROCES DYFUZJI - PROCES WIENERA

Przejścia graniczne w procesie błądzenia przypadkowego

Proces Wienera jest, obok procesu Poissona, najważniejszym procesem stochastycznym. Jest on punktem wyjścia nieskończenie wielkiej gamy procesów stochastycznych o ciągłych realizacjach, w odróżnieniu od realizacji procesu Poissona, które są nieciągłymi funkcjami czasu. Tak jak procesu Poissona jest granicznym przypadkiem pewnej klasy schematów Bernoulliego, tak i proces Wienera jest również granicznym przypadkiem pewnej klasy schematów Bernoulliego. Czytelnik oczywiście domyśla się, że musi to być inne przejście graniczne. To przejście graniczne dokonamy dla błądzenia przypadkowego z poprzedniego rozdziału. Jak wiemy, błądzenie przypadkowe jest także schematem Bernouliego.


Błądzenie przypadkowe jako proces stochastyczny posiada poważny (realny) mankament: przejścia z jednego węzła na sąsiedni węzeł odbywają się dokładnie co okres czasu \(T\) tak jak tykanie porządnego zegara kwarcowego. Idealne skoki o odległość \(L\) też są fikcją fizyczną. Tym niemniej, proces taki odgrywał, odgrywa i będzie odgrywał bardzo ważna rolę nie tylko w naukach przyrodniczych, ale także ekonomicznych i socjologicznych.

Dokonajmy takiego przejścia granicznego dla błądzenia przypadkowego , aby cząstka mogła skakać coraz częściej i mogła robić dowolnie małe skoki. Innymi słowy, skalujemy tak aby


(1)\(\Delta t=T \to 0, \; \; \; \; \; \Delta x = L \to 0\)


Tego typu przejście graniczne może być realizowane na nieskończenie wiele sposobów. Co mam na myśli? Przypomnijmy przejście graniczne realizowane dla procesu Poissona. Tam \(n\to \infty,\; \; \; p\to 0\), ale w taki sposób aby \(n\cdot p = const. = \lambda\) lub też \(n\to \infty,\; \; \; T\to \infty\), ale w taki sposób aby gęstość punktów \(n/T = \mu\;\) była stała. Postępując analogicznie, powinniśmy żądać, aby iloraz \(L/T\) był stały lub ogólniej aby iloraz

\(\frac{L^a}{T^b} = const.\)

gdzie \(a\) i \(b\) są skalującymi wykładnikami. W zależności od ich wartości, możemy dokonywać różnych (bardziej lub mniej uzasadnionych lub bardziej lub mniej realnych) przejść graniczych. Zauważmy, że najprostszy wybór \(a=b=1\;\) daje skalowanie

\(\frac{L}{T} = \frac{ \Delta x}{\Delta t} = const. =v\)

gdzie \(v\;\) ma wymiar prędkości [m/s]. Ktoś powie: wspaniale, prędkość to "dobrze zadomowione" pojęcie. Więc tak skalujmy. Wybierzemy inną drogę. Będziemy dokonywali przejścia granicznego (1), ale bez konkretnego skalowania tak długo, jak to możliwe.

Startujemy z równania dla prawdopodobieństwa \(p_n(r)\) tego, że po \(n\)-krokach cząstka jest w węźle \(r\), lub inaczej mówiąc, w chwili \(t=nT\;\) jest w położeniu \(x=rL\;\) (patrz Rozdział 6):


(2)\(p_{n+1}(r) = p\cdot p_{n}(r-1) + q \cdot p_{n}(r+1), \; \; \;\; \; \; \; p_0(r)=\delta_{0,r}\)


gdzie zapisaliśmy zgrabnie warunek początkowy przy pomocy delty Kroneckera \(\delta_{0,r}\), która równa się 1 gdy \(r=0\) oraz równa się zero gdy \(r\ne 0\).

Wprowadzimy nowe oznaczenie na to prawdopodobieństwo

(3)\(p(r, n) = p_n(r)\; \)

Z relacji

\(x = rL = r \Delta x, \; \; \; \; \; \; t=nT = n \Delta t\)

otrzymamy

\(r = \frac{x}{\Delta x}, \; \; \; \; \; \; n = \frac{t}{\Delta t}\)

Przy takich oznaczeniach

\(p(r, n) = p\left(\frac{x}{\Delta x}, \frac{t}{\Delta t}\right)\; \)


Zdefiniujemy gęstość prawdopodobieństwa (prawdopodobieństwo na jednostkę długości) za pomocą relacji


(4)\(f(x, t) = \lim_{\Delta t \to 0,\ \Delta x \to 0} \frac{1}{2 \Delta x} p\left(\frac{x}{\Delta x}, \frac{t}{\Delta t}\right)\)


Gęstość prawdopodobieństwa \(f(x, t)\) powinna być unormowana, to znaczy


\(\int_{-\infty}^{\infty} f(x, t) \; dx =1\)


Faktycznie można to pokazać dokonując przejścia granicznego w równaniu (2) w Rozdziale 6. Otrzymamy wówczas jawną postać gęstości \( f(x, t) \). Jednak nasz cel jest inny: my chcemy otrzymać graniczną postać równania ewolucji (2) które przedstawimy w postaci (patrz Równanie (3))


\(p(r, n+1) = p \cdot p(r-1, n) + q \cdot p(r+1, n) \)


Ustalamy wartości czasu \(t\) i położenia \(x\) cząstki, natomiast zmniejszamy \(\Delta t\) oraz \(\Delta x\). To jest możliwe, gdy jednocześnie liczba kroków \(n\to \infty\) oraz numer węzła określający położenie \(|r| \to\infty\). Korzystając z definicji (3), powyższe równanie transformuje sie do postaci

\(f(x, t + \Delta t) = p \cdot f(x - \Delta x, t) + q \cdot f(x + \Delta x, t) \)


Aby do końca przeprowadzić przejście graniczne (1), rozwiniemy funkcje \(f(x, t + \Delta t), \; \; f(x - \Delta x, t), \; \; f(x + \Delta x, t)\) w szereg Taylora otrzymując wyrażenie


(5)\( f(x, t) + \frac{\partial f(x, t)}{\partial t} \Delta t+ \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial t^2} (\Delta t)^2 + \dots \)

\( = p\left\{ f(x, t) - \frac{\partial f(x, t)}{\partial x} \Delta x + \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial x^2} (\Delta x)^2 - \frac{1}{3!} \frac{\partial^3 f(x, t)}{\partial x^3} (\Delta x)^3 + \dots \right\} \)


\( + q \left\{ f(x, t) + \frac{\partial f(x, t)}{\partial x} \Delta x + \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial x^2} (\Delta x)^2 + \frac{1}{3!} \frac{\partial^3 f(x, t)}{\partial x^3} (\Delta x)^3 + \dots \right\} \)


Należy teraz dokonać odpowiedniego przejścia granicznego (1) z odpowiednim skalowaniem. Wybór skalowania nie jest oczywisty. Wybór skalowania to także wybór określonej klasy procesów stochastycznych. Zobaczymy poniżej, jak można dojść do znalezienia właściwego skalowania.

Przypadek symetryczny: Proces Wienera

Aby wybrać poprawne skalowanie, musimy najpierw rozpatrzeć przypadek symetryczny błądzenia przypadkowego

\(p=q = \frac{1}{2}\;\)

Wówczas otrzymamy równanie

\( \frac{\partial f(x, t)}{\partial t} \Delta t+ \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial t^2} (\Delta t)^2 + \dots = \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial x^2} (\Delta x)^2 + \frac{1}{4!} \frac{\partial^4 f(x, t)}{\partial x^4} (\Delta x)^4 + \dots \)

Dzieląc obustronie to równanie przez \(\Delta t\) otrzymamy

(6)

\( \frac{\partial f(x, t)}{\partial t} + \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial t^2} \Delta t + \dots = \frac{1}{2} \frac{ (\Delta x)^2}{\Delta t} \frac{\partial^2 f(x, t)}{\partial x^2} + \frac{1}{4!} \frac{(\Delta x)^4}{\Delta t} \frac{\partial^4 f(x, t)}{\partial x^4} + \dots \)


Jeżeli teraz dokonamy takiego przejścia granicznego ze skalowaniem

(7)\(\Delta t \to 0, \; \; \; \; \; \Delta x \to 0, \; \; \; \; \mbox{ale} \; \; \; \lim_{\Delta t \to 0,\ \Delta x \to 0} \frac{\Delta x}{\Delta t} = const. \)

to przy takim skalowaniu otrzymamy "dziwny" przypadek


\( \frac{\partial f(x, t)}{\partial t} =0 \)


Stąd wynika, że gęstość \(f(x, t)\) nie zależy od czasu. To z kolei oznacza, że prawdopodobieństwo tego, że cząstka jest w przedziale np. \([2, 5]\) nie zmienia się w czasie. To nie może być prawdą. Pamiętamy, że w chwili \(t=0\), cząstka była w położeniu \(x=0\) (cząstka była w węźle 0). Skoro tak, to prawdopodobieństwo tego, że była w przedziale np. \([2, 5]\) wynosi 0. A to nie zmienia się, więc nigdy cząstka nie mogłaby znależć sie w tym przedziale. To jest w sprzeczności z wynikami, jakie uzyskalismy dla błądzenia przypadkowego. Dlatego też skalowanie (7) nie jest rozsądne. Nie jest dobrze jak znikają wszystkie wyrazy po prawiej stronie Równania (6). Jeżeli chcemy uzyskać nietrywialny wynik, załóżmy takie skalowanie, aby chociaż jeden wyraz po prawej stronie Równania (6) nie znikał. To nam sugeruje następujące skalowanie

(8)\(\Delta t \to 0, \; \; \; \; \; \Delta x \to 0, \; \; \; \; \mbox{ale} \; \; \; \; \; \lim_{\Delta t \to 0,\ \Delta x \to 0}\frac{(\Delta x)^2}{\Delta t} = const. \equiv 2 D\)

Teraz Równanie (6) redukuje sie do postaci


(9)\( \frac{\partial f(x, t)}{\partial t} = D \frac{\partial^2 f(x, t)}{\partial x^2} \)


Równanie to nazywa się równaniem dyfuzji i opisuje ono proces który nazywa się procesem dyfuzji. Jest to równanie różniczkowe cząstkowe drugiego rzędu, parabolicznego typu. Parabolicznego - ponieważ z lewej strony jednokrotnie różniczkujemy względem \(t\) (oznaczmy taką operację y), a z prawej strony dwukrotnie różniczkujemy względem \(x\) (oznaczmy taką operację z), czyli symbolicznie \( y=D z z = D z^2\), a to jest równanie paraboli (za takie wyjaśnienie matematycy mnie zjedzą). Ponieważ jest to równanie różniczkowe, więc musimy sformułować warunek początkowy \(f(x, 0)\). Wiemy, że w chwili \(t=0\), cząstka jest w położeniu \(x=0\), czyli proces stochastyczny \(\xi(t)\) startuje z zera, \(\xi(0) = 0\), to z Rozdziału 4 wiemy że dla zmiennej losowej \(\xi =0\) dystrybuantą jest funkcja schodkowa Heaviside'a \(F_{\xi}(x)=\theta(x-0)\), a odpowiadająca jej gęstość prawdopodobieństwa jest pochodną dystrybuanty, czyli delta Diraca` \(\delta(x-0)\). Dlatego też warunek początkowy dla cząstki startującej z zera ma postać


(10)\(f(x, 0) = \delta(x)\;\)

Ponieważ gęstość rozkładu prawdopodobieństwa \(f(x, t)\) zależy także od zmiennej przestrzennej, potrzebne sa także warunki brzegowe. Funkcja \(f(x, t)\) jest unormowana do 1, więc powinna dostatecznie szybko znikać w nieskonczoności. Istnieją kontrprzykłady na to, ale dla rzeczywistych układów


(11)\(\lim_{x\to\pm \infty} f(x, t) = 0 \;\)


Parametr \(D\) w równaniu dyfuzji nazywa się współczynnikiem dyfuzji i dla cząstki błądzącej ma wymiar \([m^2/s]\). W ogólnym przypadku, wymiarem jest kwadrat procesu stochastycznego \(\xi^2(t)\) podzielony przez argument \(t\), czyli \([\xi^2]/[t]\).

Unormowanym rozwiązaniem równania dyfuzji jest następujaca funkcja

(12)\(f(x, t) = \frac{1}{\sqrt{4\pi D t} }\; \exp \left[ - \frac{x^2}{4Dt}\right]\)

Jest to funkcja Gaussa opisujaca zmienne losowe normalne lub gaussowskie. W takim razie, w granicznym przypadku błądzenie losowe cząstki jest procesem gaussowskim lub procesem o rozkładzie normalnym (nazwa 'proces normalny' brzmi myląco). Można udowodnić, że proces ten ma niezależne przyrosty na nieprzekrywających się przedziałach \([t_i, \; t_{i+1}]\).

Znajomość gęstości rozkładu prawdopodobieństwa \(f(x, t)\) pozwala na wyznaczenie momentów statystycznych procesu. Ponieważ \(f(x, t)\) jest funkcja parzystą, więc wartość średnia procesu jest zero. Wariancja procesu

\(\sigma^2(t) = 2Dt\;\)


Proces, który w przypadku symetrycznym otrzymaliśmy jako proces graniczny błądzenia przypadkowego nazywa się procesem Wienera i oznacza przez \(W(t)\). W naszych rozważaniach opisuje on losowe położenie cząstki błądzącej czyli \(W(t)\) jest położeniem cząstki w chwili \(t\). Oczywiście w zależności od zagadnienia, interpretacja \(W(t)\) może byc inna. Podamy teraz formalną definicję tego procesu.




Proces Wienera

Norbert Wiener (1894-1964) [1]

1. Proces stochastyczny \(W(t)\) jest procesem rzeczywistym

2. \(W(0)=0\) (proces startuje z zera)

3. Proces \(W(t)\) ma stacjonarne i niezależne przyrosty na nieprzekrywających się przedziałach

4. \(W(t)\) jest procesem Gaussa o zerowej wartości średniej

(13)\(\langle W(t_2) - W(t_1) \rangle = 0 \)

i wariancji przyrostów

(14)\(\langle [W(t_2) - W(t_1)]^2 \rangle = 2D(t_2 - t_1), \; \; \; \; t_2 > t_1 \)


Zauważmy, że własności 1, 2 i 3 są podobne do własności procesu Poissona. ale na tym podobieństwa sie kończą.


Przyrost \(W(t_2) - W(t_1)\) jest zmienna losową gaussowską o zerowej wartości średniej i wariancji \( = 2D(t_2 - t_1) \). Więc jego rozkład prawdopodobieństwa ma postać


(15)\(f_{W(t_2) - W(t_1)}(x) = \frac{1}{\sqrt{4\pi D (t_2 - t_1)} }\; \exp \left[ - \frac{x^2}{4D(t_2 - t_1)}\right]\)

Przyjmując \(t_1=0\) oraz \(t_2=t\) otrzymamy gęstość prawdopodobieństwa w postaci

(16)\(f_{W(t)}(x) = f(x, t) \;\)

gdzie funkcja \(f(x, t) \) dana jest przez Równanie (12).

Prawdopodobieństwo tego, że w chwili \(t\) cząstka jest w przedziale \([a, b]\) dane jest przez wzór


(17)\(Pr\{W(t) \in (a, b)\} = \int_a^b f(x, t) \; dx = \frac{1}{\sqrt{4\pi D t} }\; \int_a^b \exp \left[ - \frac{x^2}{4Dt}\right] \; dx\)

Czytelnik zauważy, że niekonsekwentnie piszę czasami przedział domknięty \([a, b]\), a czasami przedział otwarty \((a, b)\). W tym przypadku to jest bez różnicy ponieważ


\(Pr\{W(t) \in (a, b)\} = Pr\{W(t) \in [a, b]\} = Pr\{W(t) \in [a, b)\} \)


\[= Pr\{W(t) \in (a, b])\} \]


Proces Wienera został otrzymany z procesu błądzenia przypadkowego jako graniczny przypadek: skoki są coraz mniejsze i coraz częstsze. Rozpatrzmy realizacje błądzenia przypadkowego w określonym przedziale czasu \([0, t]\). W przedziale tym wybrana realizacja posiada określoną ilość skoków w których funkcja ta jest nieróżniczkowalna. Przy skalowaniu skoki są coraz mniejsze, ale jest ich znacznie więcej. Więc w przedziale czasu \([0, t]\) realizacja posiada znaczniej więcej punktów, w których jest nieróżniczkowalna. W granicy, wielkość skoków dąży do zera, ale ich ilość dąży do nieskończoności. Oznacza to, że realizacja staje się funkcją ciągłą (wysokość skoków dąży do zera), ale jednocześnie nigdzie nie jest różniczkowalna (liczba skoków dąży do nieskończoności). Jest to przykład wyjątkowo dziwnej funkcji. Takiej funkcji nie możemy narysować, ale to co opisałem powyżej powinno wyrobić w nas intuicję o własnościach realizacji procesu Wienera. Matematycy (jak zwykle) dowodzą to ściśle, a fizycy to czują i wiedzą dlaczego tak jest.

Nieróżniczkowalność procesu Wienera można zrozumieć "bardziej analitycznie". Niech we wzorze (14) czas \(t_1=t\) oraz \(t_2=t+\Delta t\). Otrzymamy przyrost procesu Wienera

\(\Delta W(t) = W(t+\Delta t) - W(t) \;\)

i wzór (14) ma postać


(18)\(\langle [\Delta W(t)]^2 \rangle = \langle [W(t+\Delta t) - W(t)[^2 \rangle = 2D \Delta t \)

Dlatego można wnioskować, że w sensie średnio-kwadratowym

\(\Delta W(t) \sim \sqrt{ \langle [\Delta W(t)]^2 \rangle } \sim \sqrt{ \Delta t} \)

Stąd otrzymamy

\(\frac{\Delta W(t)}{\Delta t} \sim \frac{1}{\sqrt{ \Delta t}} \to \infty \; \; \; \; \mbox{gdy} \; \; \; \Delta t \to 0 \)

Ponieważ iloraz różnicowy jest w granicy rozbieżny, pochodna nie istnieje. Inaczej mówiąc, proces ten nie jest różniczkowalny (nawet w sensie średnio-kwadratowym). Mimo to fizycy chętnie posługują się pochodną procesu Wienera i ku zdziwieniu "klasyków" otrzymują prawidłowe wnioski o realnym świecie. Do tego problemu powrócimy w następnym rozdziale.

Funkcja korelacyjna procesu Wienera

Przytoczyłem pewną własność procesu Wienera, a mianowicie tę, że jest on procesem o niezależnych przyrostach na nieprzekrywających się przedziałach. Niektórzy autorzy wkładają tę własność do definicji procesu Wienera. Traktując proces Wienera jako graniczny przypadek błądzenia przypadkowego, tę własność można udowodnić. Podobną własność ma także proces Poissona. Dla procesu Poissona udowodniliśmy to, korzystając z uogólnionego schematu Bernoulliego.

Twierdzenie: Funkcja korelacyjna procesu Wienera ma postać

(19)\(R(t_2, t_1) = \langle W(t_2) W(t_1)\rangle = 2D \; \mbox{min}(t_2, t_1) \;\)

gdzie funkcja \(\mbox{min}(t_2, t_1) \;\) jest zdefiniowana w równaniu (6) Rozdziału 5 i oznacza mniejszą z dwóch liczb \(t_2, \; t_1\). Funkcja korelacyjna procesu Wienera zawiera tę samą specyficzną funkcję \(\mbox{min}(t_2, t_1) \;\). Funkcja ta pojawia się we wszystkich procesach o niezależnych przyrostach na nieprzekrywających się przedziałach. Jeszcze raz pojawi się ona w teorii procesów Levy'ego.

Dowód: (i) Niech \(t_2 > t_1 > t_0=0\). Przyrosty \(W(t_2) - W(t_1) \) oraz \(W(t_1) - W(t_0) \) są zmiennymi losowymi niezależnymi dla których

\(\langle[W(t_2) - W(t_1)] [ W(t_1) - W(t_0)] \rangle = \langle W(t_2) - W(t_1) \rangle \cdot \langle W(t_1) - W(t_0) \rangle = 0\)

Średnia wartość przyrostu procesu Wienera wynosi zero, dlatego też w rezultacie otrzymamy zero.

Z drugiej strony, wymnożymy wyrażenia w nawiasach pamietając, że \(W(t_0) = W(0) = 0\) (proces Wienera startuje z zera). Wówczas otrzymamy

\(\langle W(t_2) W(t_1) - W^2(t_1) \rangle = \langle W(t_2) W(t_1) \rangle - \langle W^2(t_1)\rangle =0\)

Stąd wynika, że

\(\langle W(t_2) W(t_1) \rangle = \langle W^2(t_1)\rangle = 2D t_1 \; \; \; \; \mbox{dla} \; \; \; t_2 > t_1\)

(ii) Niech \(t_1 > t_2 > t_0=0\). Przyrosty \(W(t_1) - W(t_2) \) oraz \(W(t_12 - W(t_0) \) są zmiennymi losowymi niezależnymi. Możemy powtórzyć trzy kroki analogiczne do tych w powyższych trzech równanich otrzymując

\(\langle W(t_1) W(t_2)\rangle = \langle W^2(t_2)\rangle = 2D t_2 \; \; \; \; \mbox{dla} \; \; \; t_1 > t_2\)

Ponieważ

\(\langle W(t_2) W(t_1)\rangle = \langle W(t_1) W(t_2)\rangle\)

otrzymujemy tezę twierdzenia.

Skalowanie procesu Wienera

Proces Wienera jest samopodobny. Mówiąc obrazowo, jego mniejszy kawałek jest podobny do większego kawałka. To trochę tak jak z kalafiorem: oderwana różyczka z kalafiora jest podobna do kalafiora. Pojęcie samopodobieństwa jest dobrze matematycznie zdefiniowane. W sensie matematycznym kalafior nie jest samopodobny, ale przykład ten jest pod wieloma względami dobry (dla przykładu, każdy go zna, po analizie jego samopodobieństwa można go spożyć).

Zaczniemy analizę samopodobieństwa od równania dyfuzji (9): gęstość rozkładu prawdopodobieństwa \(f(x, t) \) procesu Wienera spełnia to równanie. Równanie dyfuzji jest niezmiennicze względem pewnych transformacji czasu \(t \) i położenia \(x\).

Dokonajmy następującej transformacji skalowania

\(x \to cx, \; \; \; \; \; \; t \to c^2 t\)


Wówczas postać Równania (9) nie zmienia się ponieważ w mianownikach po obu stronach tego równania pojawia się stała \(c^2\), która upraszcza się. Przeprowadźmy te transformację w rozwiązaniu (12): Exponenta nie zmienia się, ale czynnik przed exponentą zmienia się i wówczas funkcja \(f \) nie jest unormowana. Natomiast funkcja \( c \cdot f\) jest unormowana. Dokładniej, powyższa transformacja skalowania prowadzi do relacji


(20)\( c f(cx, c^2 t) = \frac{1}{\sqrt{4\pi D t} }\; \exp \left[ - \frac{x^2}{4Dt}\right]\)

Prawa strona jest taka sama jak w Równaniu (12), czyli otrzymujemy relację

\(f(x, t) = c \; f(cx, c^2 t)\)

Co to oznacza? Niech proces Wienera \(W(t)\) będzie opisany rozkładem (9), czyli funkcją \(f(x, t)\). Niech proces Wienera \({\tilde W(t)}\) będzie opisany rozkładem (20), czyli funkcją \(g(x, t) = c f(cx, c^2t)\). Stąd otrzymujemy następującą informację:

  • Jeżeli proces Wienera \(W \;\) przyjmuje wartość \(x\) w chwili \(t\) to
  • proces Wienera \({\tilde W}\) przyjmuje wartość \(cx\) w chwili \(c^2 t\). Podobnie
  • proces Wienera \({\hat W}\) przyjmuje wartość \(x/b\) w chwili \(t/b^2\).

czyli proces Wienera można w odpowiedni sposób "ściskać" lub "rozdmuchiwac".


Mozna to zgrabnie sformulować następująco:


Jeżeli \(W(t)\) jest procesem Wienera o zerowej wartości średniej i wariancji \(\langle W^2(t)\rangle = 2D t\) to przeskalowany procesem Wienera

\({\tilde W(t)} = c W(t/c^2)\) jest procesem Wienera o zerowej wartości średniej i wariancji \(\langle \tilde W^2(t)\rangle = 2D t\), czyli statystycznie jest nieodróżnialny od \(W(t)\) i te dwa procesy można utożsamiać.


Spójrzmy na rysunek przedstawiający realizacje procesu Wienera. Niech przedział położeń będzie \([1, 3]\) i przedział czasu \([2,4]\). Niech parametr skalowania \(c=3\). Wówczas w przedziale położeń \([3, 9]\) i przedziale czasu \([18, 36]\) statystycznie mamy nieodróżnialny proces Wienera od tego w przedziale położeń \([1, 3]\) i przedziale czasu \([2,4]\). Możemy zwiększać lub zmiejszać w odpowiednie sposób skale położeń i czasu, i ciągle mieć ten sam proces Wienera. W realnym świecie nie ma idealnego procesu Wienera i nie ma idealnego samopodobieństwa (jak z kalafiorem). Proces ten jest idealizacją, która znakomicie opisuje pewne klasy procesów w naszym świecie.




Przypadek niesymetryczny: dyfuzja z dryfem

W przypadku niesymetrycznym błądzenia przypadkowego, kiedy \(p\ne q\), z Równania (5) otrzymamy


(21)\( \frac{\partial f(x, t)}{\partial t} = -(p-q) \frac{\Delta x }{\Delta t} \frac{\partial f(x, t)}{\partial x} \)


\[ + \frac{1}{2} \frac{(\Delta x)^2 }{\Delta t}\frac{\partial^2 f(x, t)}{\partial x^2} - \frac{1}{3!} \frac{(\Delta x)^3 }{\Delta t} \frac{\partial^3 f(x, t)}{\partial x^3} + \dots \]


Wybierzmy skalowanie (8), to znaczy takie, że


(22)\(\lim_{\Delta t \to 0,\ \Delta x \to 0}\frac{(\Delta x)^2}{\Delta t} = const. \equiv 2 D \)


Wówczas drugi wyraz opisuje, tak jak w przypadku symetrycznym, dyfuzję. W pierwszym wyrazie pojawia się granica


(23)\(\lim_{\Delta t \to 0,\ \Delta x \to 0} (p-q) \frac{\Delta x}{\Delta t} = V\)


Chcemy, aby wartość graniczna była skończona, to znaczy \(|V| < \infty\). Czy jest to możliwe przy skalowaniu (22)? Tak, jest to możliwe. Z powyższej relacji mamy związek:


(24)\( (p-q) = \frac{\Delta t}{\Delta x} V \; \; \; \mbox{oraz} \; \; \; \; p+q=1\)


Z drugiego równania wyznaczamy \(q\) i wstawiamy do pierwszego równania otrzymując


(25)\( p = \frac{1}{2} \left[1+\frac{\Delta t}{\Delta x} V \right]\)


Z Równania (22) wynika, że


(26)\( \Delta x=\sqrt{2D \Delta t}\)


Wstawiamy to wyrażenie do Równania (25):


(27)\( p = \frac{1}{2} \left[1+\frac{V}{\sqrt{2D}} \sqrt{\Delta t} \right]\)


Podobnie otrzymamy


(28)\( q = \frac{1}{2} \left[1-\frac{V}{\sqrt{2D}} \sqrt{\Delta t} \right]\)


Tak powinny skalować się prawdopodobieństwa przejścia w prawo \(p\) oraz przejścia w lewo \(q \) dla małych czasów \(\Delta t \to 0\). Jeżeli \(V>0\) to prawdopodobieństwo przejścia w prawo \(p>1/2\) oraz prawdopodobieństwo przejścia w lewo \(q<1/2 \). To z kolei oznacza, że cząstka częściej skacze w prawo niż w lewo i średnio powinna poruszać sie w prawo. Innymi słowy, średnio cząstka powinna dryfować w prawo. Oczywiście, gdy \(V<0\), cząstka średnio będzie dryfować w lewo. To, że te prawdopodobieństwa nie są równe, związane jest z istnieniem źródeł niesymetryczności, na przykład siły działającej na cząstkę.


Możemy teraz przeprowadzić przejscie graniczne (22) w Równaniu (21). Otrzymamy końcowe równanie w postaci


(29)\( \, \frac{\partial f(x, t)}{\partial t} = -V \frac{\partial f(x, t)}{\partial x} + D \,\frac{\partial^2 f(x, t)}{\partial x^2} \)


Jest to równanie dyfuzji z dryfem i opisuje ono proces stochastyczny \(\xi(t)\), który nazywa się dyfuzją z dryfem. Unormowanym rozwiązaniem równania dyfuzji z dryfem, z warunkiem początkowym \(f(x, 0)= \Delta(x)\) (to znaczy cząstka znajduje sie w położeniu początkowym \(x=0\)), jest następujaca funkcja

(30)\(f(x, t) = \frac{1}{\sqrt{4\pi D t} }\; \exp \left[ - \frac{(x-Vt)^2}{4Dt}\right]\)

Jest to funkcja Gaussa opisujaca zmienne losowe normalne lub gaussowskie.

Dwa pierwsze momenty statystyczne procesu mają postać:

\[\langle \xi(t)\rangle =Vt, \; \; \; \; \sigma^2(t) = \langle \xi^2(t)\rangle - \langle \xi(t)\rangle^2 = 2Dt\;\]


Jak widać, średnia wartość położenia cząstki rośnie wraz z upływem czasu. Relacja ta przypomina zależnmość położenia od czasu w ruchu jednostajnym prostoliniowym. Fluktuacje \(\sigma(t)\) narastają w czasie jak \(\sqrt{t}\).




Biały szum gaussowski

Carl Friedrich Gauss (1777–1855) [2]

W rozdziale 8.4 podaliśmy definicję białego szumu poissonowski jako formalną pochodna procesu Poissona. Nie przeszkadza nam to (w odróżnieniu od matematyków), że taka pochodna nie jest "porządnie" zdefiniowana. Podobnie definiujemy biały szum gaussowski jako pochodną procesu Wienera:


(31)\(\Gamma(t) = \frac{dW(t)}{dt}\)


Nie trudno pokazać, że każda operacja liniowa nad zmienna losową normalną (Gaussa) jest znowu zmienną losową normalną (Gaussa). Na przykład suma dwóch zmiennych losowych normalnch jest zmienną losową normalną. Z tego wynika, że suma dowolnej ilości zmiennych losowych normalnych jest zmienną losową normalną; dalej wynika, że pochodna (jest operacją liniową) procesu Gaussa jest procesem Gaussa, a także całka (przypominam, że całka to graniczna wartość sumy, całka też jest operacją liniową) z procesu Gaussa jest procesem Gaussa. Skoro tak, to wystarczy znać wartość średnią oraz funkcję korelacyjną procesu Gaussa, aby wiedzieć wszystko o tym procesie. Te dwie wielkości dla białego szumu gaussowskiego mają postać:

\(\langle \Gamma(t) \rangle = 0, \; \; \; \; \langle \Gamma(t_2) \Gamma(t_1)\rangle = 2D \delta(t_2 - t_1) \)

Relacje te wykazuje się identycznie jak dla białego szumu poissonowskiego, patrz Rozdział 8.4.

Z Równania (31) otrzymamy formalne relacje


(32)\(dW(t) = \Gamma(t) dt \; \; \; \; \mbox{lub} \; \; \; \; W(t) = \int_0^t \Gamma(s) \; ds\)