Procesy i Zjawiska Losowe

Z Skrypty dla studentów Ekonofizyki UPGOW

(Różnice między wersjami)
(Procesy Poissona)
(Wstęp)
 
(Nie pokazano 107 wersji pomiędzy niniejszymi.)
Linia 1: Linia 1:
-
=='''PROCESY I ZJAWISKA LOSOWE '''==
+
__NOTOC__
-
Jerzy Łuczka
+
<center>
 +
<span style="font-size: 22pt">'''PROCESY I ZJAWISKA LOSOWE'''</span>
-
Skrypt dla studentów ekonofizyki
+
'''''JERZY ŁUCZKA'''''
 +
</center>
 +
===Wstęp===
 +
* Celem zajęć jest poznanie podstaw teorii procesów stochastycznych wykorzystywanych do modelowania procesów rynkowych
 +
* przedmiot obowiązkowy na  1 roku studiów I stopnia (licencjackich)
 +
===Wymagania===
 +
* znajomość rachunku różniczkowego i całḱowego
-
'''WAZNE - postaraj sie podzielic tekst na glowne rozdzialy (tak by bylo  z 10 sztuk)'''
+
               
 +
'''Spis treści'''
-
==Spis treści==
+
# [[PIZL:Wstęp|WSTĘP]]
 +
# [[PIZL:Elementy teorii prawdopodobieństa|ELEMENTY TEORII PRAWDOPODOBIEŃSTWA]]
 +
# [[PIZL:Próby i schemat Bernoulliego|PRÓBY I SCHEMAT BERNOULLIEGO]]
 +
# [[PIZL:Procesy Stochastyczne|PROCESY STOCHASTYCZNE]]
 +
# [[PIZL:Procesy Poissona|PROCESY POISSONA]]
 +
# [[PIZL:Błądzenie przypadkowe|BŁĄDZENIE PRZYPADKOWE]]
 +
# [[PIZL:Proces Wienera i proces dyfuzji |PROCES DYFUZJI - PROCES WIENERA]]
 +
# [[PIZL:Procesy Levy'ego|PROCESY LEVY'EGO]]
 +
# [[PIZL:Procesy Markowa|PROCESY MARKOWA]]
 +
# [[PIZL:Stochastyczne równania różniczkowe|STOCHASTYCZNE RÓWNANIA RÓŻNICZKOWE]]
 +
# [[PIZL:Przykłady zastosowań równań stochastycznych w ekonomii|PRZYKŁADY ZASTOSOWAŃ RÓWNAŃ STOCHASTYCZNYCH W EKONOMII]]
 +
# [[PIZL:Dodatek matematyczny|DODATEK MATEMATYCZNY]]
-
# [[PIZL:Wstęp|Wstęp]]
 
-
# [[PIZL:Zbiory|Zbiory]]
 
-
# [[PIZL:Elementy teorii prawdopodobieństa|Elementy teorii prawdopodobieństa]]
 
-
# [[PIZL:Próby i schemat Bernoulliego|Próby i schemat Bernoulliego]]
 
-
# [[PIZL:Procesy Stochastyczne|Procesy Stochastyczne]]
 
-
# [[PIZL:Procesy Poissona|Procesy Poissona]]
 
-
==Błądzenie przypadkowe==
+
===Literatura===
-
 
+
# Athanasios Papoulis. ''' Probability, Random Variables, and Stochastc Processes''' McGraw Hill, 1991.
-
 
+
# Rama Cont and Peter Tankov. '''Financial Modelling with jump Processes''' Chapman &Hall/CRC2004.
-
W Rozdziale 6 omawialiśmy zmienne losowe  Poissona, a w Rozdziale 8 omawialiśmy procesy Poissona, które są granicznym przypadkiem pewnej klasy schematów Bernoulliego: liczba niezależnych doświadczeń (prób)
+
-
<math>n\to \infty</math> oraz prawdopodobieństwo sukcesu <math>P(A_1) = p</math> w jednym doświadczeniu zmierza do zera, <math>p \to 0</math>, ale przejście graniczne jest dokonywane w taki sposób aby iloczyn <math>n\cdot p = const. =\lambda</math>. Przykłady możliwe do realizowania takiego przejścia granicznego podaliśmy w Rozdziale 8. Tego typu przejścia granicznego nie mozna stosowac do doświadczen typu rzut monetą, ponieważ prawdopodobieństwo sukcesu <math>P(A_1) = p</math> w jednym doświadczeniu jest ustalone i nie może zmierzać do zera.
+
-
 
+
-
W następnym rozdziale  podamy przykład innego przejścia granicznego prowadzącego do zupełnie nowej rodziny procesów stochastycznych, do procesów Wienera. Zarówno procesy Poissona jak i procesy Wienera stanowią podstawę wszelkich innych procesów stochastycznych. Można powiedzieć, że dowolny 
+
-
proces stochastyczny ma jakiś związek  albo z procesem  Poissona albo z procesem  Wienera lub ich uogólnieniami.
+
-
 
+
-
Nim skonstruujemy proces Wienera, zdefiniujmy proces bładzenia przypadkowego. Rozpatrzymy raz jeszcze schemat Bernoulliego podobny do rzutu monetą
+
-
zakładając możliwość posiadania sfałszowanej monety po to, aby prawdopodobieństwo wylosowania orła <math>P(A_1)=p</math> mogło  być inne niż prawdopodobieństwo wylosowania reszki  math>P(A_2)=q</math>.
+
-
 
+
-
  RYSUNEK
+
-
 
+
-
 
+
-
 
+
-
Zdefinjujemy proces błądzenia przypadkowego w następujący sposób. Rozważmy nieskończoną jednowymiarową sieć (łańcuch) o strukturze periodycznej, o okresie <math>L</math>. Węzły sieci oznaczymy liczbami całkowitymi <math>\{\dots, -2, -1, 0, 1, 2, \dots \}</math>. Odległość między węzłami wynosi <math>L</math>.  Niech cząstka w chwili początkowej <math>t=0</math>  znajduje się w węźle oznaczonym umownie <math>r=0</math>. Cząstka co pewien ustalony czas <math>T</math> wykonuje krok albo w prawo (zdarzenie <math>A_1</math>) albo w lewo  (zdarzenie <math>A_2</math>). Niech
+
-
prawdopodobieństwo kroku w prawo wynosi  <math>p</math>, a kroku w lewo <math>q</math>, czyli
+
-
 
+
-
<math>P(A_1) =p, \; \; \; \; \;\;\;\;\; P(A_2)  = q, \; \;\;\;\;\; \; \;p+q=1</math>
+
-
 
+
-
 
+
-
Pytamy, jakie jest prawdopodobieństwo tego, że po <math>n</math> krokach cząstka jest w węźle o numerze <math>r</math>. Czas <math>t</math> po <math>n</math>-krokach wynosi
+
-
 
+
-
<math>t=nT\;</math>
+
-
 
+
-
Dlatego czas  <math>t</math> można utożsamiać z ilością kroków <math>n</math>.
+
-
Położenie w <math>r</math>-tym węźle wynosi
+
-
 
+
-
<math>x=rL\;</math>
+
-
 
+
-
Dlatego położenie <math>x</math> czas można utożsamiać z numerem węzła <math>r</math>.
+
-
 
+
-
czyli położenie cząstki <math>\xi(t)\; </math> w chwili <math>t</math>  zapiszemy jako
+
-
 
+
-
 
+
-
<math>\xi(t) = \xi(nT)= x = r L \;</math>.
+
-
 
+
-
 
+
-
Załóżmy, że w <math>n</math>-krokach, <math>k</math>-kroków było w prawo (więc cząstka przesunęła się w prawo na odległość <math>kL</math>), a pozostałe <math>(n-k)</math>-kroków było w lewo (więc cząstka przesunęła się w lewo  na odległość <math>(n-k)L</math>).
+
-
Zatem położenie po <math>n</math>-krokach wynosi
+
-
 
+
-
<math>x =  k L - (n-k) L  = (2k-n)l = rL, \; \; \; \; k=0, 1, 2, \dots, n</math>.
+
-
 
+
-
Stąd otrzymujemy relację
+
-
 
+
-
<math>r=2k -n \;\;\; \mbox{lub} \;\;\; k=\frac{n+k}{2}, \; \; \;\ \; r= -n, -(n-1), -(n-2),  \dots, (n-2), (n-1), n</math>
+
-
 
+
-
Zauważmy, że tak sformułowany proces błądzenia przypadkowego jest schematem Bernoulliego o n próbach i k sukcesach. Więc  prawdopodobieństwo tego, że po <math>n</math> krokach cząstka jest w węźle o numerze <math>r</math> dane jest przez  rozkład dwumianowy:
+
-
 
+
-
 
+
-
<equation id="eqn:10.1-equation">
+
-
<math> Pr\{\xi(nT) =rL=(2k-n)L\}  = {n \choose k} \cdot p^k \cdot q^{n-k} = \frac{n!}{k! (n-k)!} \cdot p^k \cdot q^{n-k} \;</math>
+
-
</equation>
+
-
 
+
-
 
+
-
W równaniu tym należy wstawić wyrażenia
+
-
 
+
-
<math>k=\frac{n+r}{2} \;\;\; \mbox{oraz} \;\;\; n - k=\frac{n-r}{2}</math>
+
-
 
+
-
Wówczas otrzymamy prawdopodobieństwo <math>p_n(r)</math> tego, że po n-krokach cząstka jest w węźle r:
+
-
 
+
-
 
+
-
<equation id="eqn:10.2-equation">
+
-
<math> p_n(r) = Pr\{\xi(nT) =rL\}  = {n \choose \frac{n+r}{2}} \cdot p^{\frac{n+r}{2}} \cdot q^{\frac{n-r}{2}} \;</math>
+
-
</equation>
+
-
 
+
-
 
+
-
Warunek unormowania ma postać
+
-
 
+
-
<math>\sum_{r=-n}^n p_n(r) = 1\;</math>
+
-
 
+
-
 
+
-
Jeżeli proces startuje z zerowego węzła, to znaczy <math>\xi(0) = 0</math>, to
+
-
 
+
-
 
+
-
<equation id="eqn:10.3-equation">
+
-
<math>p_0(0) = 1, \; \; \; p_0(r) = 0 \; \;\ \mbox{dla} \; \; \; r \ne 0</math>
+
-
</equation>
+
-
 
+
-
 
+
-
To są warunki początkowe dla prawdopodobieństw <math>p_n(r) \;</math>.
+
-
 
+
-
Prawdopodobieństwa <xr id="eqn:10.2-equation"> (%i</xr>) spełniają równanie ewolucji (master equation) w postaci
+
-
 
+
-
 
+
-
  <equation id="eqn:10.4-equation">
+
-
                                        <math>p_{n+1}(r) = p\cdot p_{n}(r-1) + q \cdot p_{n}(r+1), \; \;  \;\; \; \; \; p_0(r)=\delta_{0,r}</math>
+
-
</equation>
+
-
 
+
-
gdzie zapisaliśmy zgrabnie warunek początkowy <xr id="eqn:10.3-equation"> (%i</xr>) przy pomocy delty Kroneckera <math>\delta_{0,r}</math>, która równa się 1  gdy <math>r=0</math> oraz równa się zero gdy <math>r\ne 0</math>.
+
-
 
+
-
Powyższe równanie ewolucji należy następująco interpretować:  Z lewej strony równania mamy prawdopodobieństwa tego, że w chwili <math>(n+1)</math> cząstka jest w położeniu <math>r</math>. Z prawej strony równania mamy prawdopodobieństwa tego, że w chwili <math>n</math> cząstka była w położeniu <math>(r-1)</math> i w następnym kroku z prawdopodobieństwem <math>p</math> przeskoczyła w prawo,  czyli nastąpiło przejście <math>(r-1) \to r</math>
+
-
lub cząstka była w położeniu <math>(r+1)</math> i w następnym kroku z prawdopodobieństwem <math>q</math> przeskoczyła w lewo,  czyli nastąpiło przejście <math>(r+1) \to r</math>.
+
-
 
+
-
Dowód <xr id="eqn:10.4-equation">Równania (%i</xr>) nie jest trudny. Należy zgodnie z oznaczeniami w  <xr id="eqn:10.2-equation">Równaniu (%i</xr>)
+
-
wstawić poszczególne wyrażenia dla <math>p_{n+1}(r), \; \; p_{n}(r-1)</math> i <math>p_{n}(r+1)\;</math> oraz wykorzystać tożsamość z kombinatoryki dla  kombinacji
+
-
 
+
-
<math>{n \choose m-1} + {n \choose m} = {n+1 \choose m}</math>
+
-
 
+
-
gdzie <math>m=(n+r+1)/2\;</math>.
+
-
Tożsamość tę można sprawdzić bezpośrednim rachunkiem rozpisując symbol kombinacji jak w <xr id="eqn:10.1-equation">Równaniu (%i</xr>).
+
-
 
+
-
Ponieważ znamy prawdopodobieństwa <xr id="eqn:10.2-equation"> (%i</xr>) lub równoważnie <xr id="eqn:10.1-equation"> (%i</xr>), możemy wyznaczyć momenty statystyczne dla błądzenia przypadkowego. Wygodniej jest wykowywac obliczenia stosując <xr id="eqn:10.1-equation"> Równanie (%i</xr>).
+
-
 
+
-
 
+
-
'''Średnie położenie'''
+
-
 
+
-
Wartość średnia procesu <math>\xi(t)</math>, czyli wartość średnia położenia po <math>n</math>-krokach wynosi (patrz  <xr id="eqn:10.1-equation"> Równanie (%i</xr>) i  <xr id="eqn:10.2-equation"> Równanie (%i</xr>))
+
-
 
+
-
  <equation id="eqn:10.5-equation">
+
-
    <math>m(t) = m(nT)=\langle \xi(t)\rangle = \langle \xi(nT)\rangle =  \sum_{r=-n}^n rL \; p_n(r)  =  \sum_{k=0}^n (2k-n)L \; {n \choose k} \cdot p^k \cdot q^{n-k} = nL (2p-1) \;</math>
+
-
</equation>
+
-
 
+
-
Zauważmy, że w symetrycznym przypadku, gdy <math>p=q=1/2</math>, średnie położenie cząstki
+
-
 
+
-
<math>\langle \xi(nT)\rangle=0</math>
+
-
 
+
-
Jest to oczywiste, ponieważ z tym samym prawdopodobieństwo cząstka skacze w lewo i w prawo. Jeżeli <math>p>q</math> to cząstka częściej skacze w prawo niż w lewo i średnio cząstka przemieszcza sie w prawo. Z kolei gdy <math>q>p</math> to cząstka częściej skacze w lewo niż w prawo i średnio cząstka przemieszcza sie w lewo. Z fizycznego punktu widzenia, przypadek  <math>p\ne q</math> oznacza,  że istnieje jakaś przyczyna na to że cząstka dryfuje w jedna stronę. Tą przyczyną może być siła lub asymetria układu. Dlatego
+
-
przypadek  <math>p\ne q</math> nazywa się asymetrycznym błądzeniem przypadkowym lub błądzeniem przypadkowym z dryfem.
+
-
 
+
-
 
+
-
'''Średnio-kwadratowe przemieszczenie'''
+
-
 
+
-
 
+
-
Jeżeli mówimy o poruszających się cząstkach, to drugi moment centralny procesuy stochastycznego nazywamy często średnio-kwadratowym przemieszczeniem
+
-
lub fluktuacjami położenia. Dla błądzenia przypadkowego otrzymujemy
+
-
 
+
-
<equation id="eqn:10.6-equation">  <math>
+
-
\sigma^2(t) = \sigma^2(nT)=  \langle [\xi(t) - m(t)]^2\rangle =  \sum_{r=-n}^n [rL -m(nT)]^2 \; p_n(r) </math>
+
-
</equation>
+
-
 
+
-
<math>
+
-
\,\ \; \; \; \; \; \; \; \;  = \sum_{k=0}^n
+
-
[(2k-n)L - nL(2p-1)]^2\; {n \choose k} \cdot p^k \cdot q^{n-k} = 4n L^2p(1-p) \; </math>
+
-
 
+
-
 
+
-
W symetrycznym przypadku, gdy <math>p=q=1/2</math>, dyspersja  ma postać
+
-
 
+
-
  <equation id="eqn:10.7-equation">
+
-
<math>\sigma(nT) = L \sqrt{n} \;</math>
+
-
</equation>
+
-
 
+
-
 
+
-
Podamy teraz ważną  poglądową własność ruchu przypadkowego. Trajektorie cząstki (realizacje procesu) mogą bardzo różnie przebiegać, czasami znacznie się różnić. Jednak zdecydowana większość trajektorii fluktuuje wokół wartości średniej i jest w przedziale:
+
-
 
+
-
 
+
-
<math>\xi(t) \in [\langle \xi(t)\rangle - \sigma(t), \langle \xi(t)\rangle + \sigma(t)]  \;</math>
+
-
 
+
-
W przypadku symetrycznym większość trajektorii  jest w przedziale:
+
-
 
+
-
 
+
-
<math>\xi(nT) \in [ - \sigma(nT),  + \sigma(nT)] = [-L\sqrt{n}, L\sqrt{n}] \;</math>
+
-
 
+
-
Zauważmy, że gdy ilość kroków <math>n</math> rośnie (czas <math>t=nT</math> rośnie) to narastają też fluktuacje położenia. Innymi słowy, trajektorie mogą rozbiegać sie coraz bardziej od wartości średniej. Ta rozbieżność jest pierwiastkowa z ilością kroków: <math>\propto \sqrt{n}</math>.
+
-
 
+
-
 
+
-
 
+
-
Powyżej  używałem  różnych zapisów tej samej wielkości.  Pamiętajmy, że położenie cząstki w chwlili <math>t</math> jest opisane przez <math>\xi(t)</math>, czas  <math>t</math> utożsamiamy z ilościa kroków <math>n</math>, z kolei położenie cząstki po <math>n</math>-krokach oznaczyliśmy przez <math>r</math>.  W praktyce, najprościej jest wyliczyć  wartość średnią i wariancję używając wyrażeń z sumą po <math>k</math>. Wówczas można wykorzystać wzór na dwumian Newtona
+
-
 
+
-
<math>
+
-
(x+y)^n = \sum_{k=0}^n  {n \choose k} \cdot x^k \cdot y^{n-k}  \; </math>
+
-
 
+
-
Różniczkując (jednokrotnie i dwukrotnie) powyższy wzór względem x, przyjmująć <math>x=p</math> oraz <math>y=q=1-p</math> otrzymamy warażenia na występujące powyżej sumy. Dla przykładu obliczmy sumę
+
-
 
+
-
 
+
-
<math> S_1 = \sum_{k=0}^n k \; {n \choose k} \cdot p^k \cdot q^{n-k} \;</math>
+
-
 
+
-
Zróżniczkujmy obustronie dwumian Newtona względem x:
+
-
 
+
-
<math> n(x+y)^{n-1}  = \sum_{k=0}^n k \; {n \choose k} \cdot x^{k-1}  \cdot y^{n-k} \;</math>
+
-
 
+
-
Wyrażenie to mnożymy obustronnie przez <math>x</math>, następnie podstawiamy  <math>x=p , \; y=q</math> pamiętając że  <math>p+q=1\;</math>.
+
-
W rezultacie otrzymamy
+
-
 
+
-
<math> np = \sum_{k=0}^n k \; {n \choose k} \cdot p^k \cdot q^{n-k}  =S_1\;</math>
+
-
 
+
-
Dwukrotne różniczkowanie ze względu na <math>x</math> pozwala na wyliczenie sum zawierających <math>k(k-1)=k^2-k</math>, ale sumę zawierającą <math>k</math> własnie wyliczyliśmy. Dlatego tez można wyliczyc sumę zawierającą <math>k^2</math>. Tym sposobem możemy obliczyć momenty dowolnego rzędu dla błądzenia przypadkowego.
+
-
 
+
-
 
+
-
'''UWAGi''':
+
-
 
+
-
1. Powyższe rozważania mozna uogólnić na ruch cząstki na płaszczyźnie (ruch dwu-wymiarowy)  i w przestrzeni (ruch trój-wymiarowy).
+
-
 
+
-
2. Można rozważać także przeskoki o 2 (3, 4, ...) węzły.
+
-
 
+
-
3. Można dokonac uogólnienia zakładając, że czastka z prawdopodobieństwem <math>p_1</math> przeskakuje w prawo,  z prawdopodobieństwem <math>p_2</math>  przeskakuje w lewo oraz z  prawdopodobieństwem <math>p_3</math>  nie przeskakuje (czeka). 
+
-
 
+
-
4. Rozważany w Rozdziale 8.2 proces urodzin i śmierci też opisuje błądzenie przypadkowe cząstki: przejściu (narodziny)  <math>k \to k+1</math> odpowiada przeskok w prawo z węzła <math>k</math> do węzła <math>k+1</math>, podobnie  przejściu (śmierci)  <math>k \to k-1</math> odpowiada przeskok w lewo z węzła <math>k</math> do węzła <math>k-1</math>. Jest to rozszerzenie procesu urodzin i śmierci ponieważ przestrzeń stanów zawiera wszystkie liczby całkowite numerujące węzły sieci (dla procesu urodzin i śmierci przestrzeń stanów to liczby całkowite nieujemne).
+
-
 
+
-
==Proces dyfuzji - proces Wienera==
+
-
 
+
-
Proces Wienera jest, obok procesu Poissona, najważniejszym procesem  stochastycznym. Jest on punktem wyjścia nieskończenie wielkiej gamy procesów stochastycznych o ciągłych realizacjach, w odróżnieniu od realizacji procesu Poissona, które są nieciągłymi funkcjami czasu. Tak jak procesu Poissona
+
-
jest granicznym przypadkiem pewnej klasy schematów Bernoulliego, tak i proces Wienera jest również granicznym przypadkiem  pewnej klasy schematów Bernoulliego. Czytelnik oczywiście domyśla się, że musi to być inne przejście graniczne. To przejście graniczne dokonamy dla błądzenia przypadkowego z poprzedniego rozdziału. Jak wiemy, błądzenie przypadkowe jest także  schematem Bernouliego.
+
-
 
+
-
 
+
-
'''Przejście graniczne w procesie błądzenia przypadkowego'''
+
-
 
+
-
Błądzenie przypadkowe jako proces stochastyczny posiada poważny (realny)  mankament: przejścia z jednego węzła na sąsiedni węzeł odbywają się dokładnie co okres czasu <math>T</math> tak jak tykanie porządnego zegara kwarcowego. Idealne skoki o odległość <math>L</math> też są fikcją fizyczną. Tym niemniej, proces taki odgrywał, odgrywa i będzie odgrywał bardzo ważna rolę nie tylko w naukach przyrodniczych, ale także ekonomicznych i socjologicznych.
+
-
 
+
-
Dokonajmy takiego przejścia granicznego dla błądzenia przypadkowego , aby cząstka mogła skakać coraz częściej i mogła robić dowolnie małe skoki. Innymi słowy, skalujemy tak aby
+
-
 
+
-
 
+
-
<equation id="eqn:11.1-equation">
+
-
<math>\Delta t=T \to 0, \; \; \; \; \; \Delta x = L \to 0</math>
+
-
</equation>
+
-
 
+
-
 
+
-
:Tego typu przejście graniczne może być realizowane na nieskończenie wiele sposobów. Co mam na myśli? Przypomnijmy przejście graniczne realizowane dla procesu Poissona. Tam <math>n\to \infty,\; \; \; p\to 0</math>, ale w taki sposób aby <math>n\cdot p = const. = \lambda</math> lub też
+
-
<math>n\to \infty,\; \; \; T\to \infty</math>, ale w taki sposób aby gęstość punktów <math>n/T = \mu\;</math> była stała. Postępując analogicznie, powinniśmy żądać, aby iloraz <math>L/T</math> był stały lub ogólniej aby iloraz
+
-
 
+
-
: <math>\frac{L^a}{T^b} = const.</math>
+
-
 
+
-
gdzie <math>a</math> i <math>b</math> są  skalującymi wykładnikami. W zależności od ich wartości, możemy dokonywać różnych (bardziej lub mniej uzasadnionych lub bardziej lub mniej realnych)  przejść graniczych. Zauważmy, że najprostszy wybór <math>a=b=1\;</math> daje skalowanie
+
-
 
+
-
: <math>\frac{L}{T} = \frac{ \Delta x}{\Delta t} = const. =v</math>
+
-
 
+
-
gdzie <math>v\;</math> ma wymiar prędkości [m/s]. Ktoś powie: wspaniale, prędkość to "dobrze zadomowione"  pojęcie. Więc tak skalujmy.
+
-
Wybierzemy inną drogę. Będziemy dokonywali przejścia granicznego <xr id="eqn:11.1-equation"> (%i</xr>), ale bez konkretnego skalowania tak długo, jak to możliwe.
+
-
 
+
-
Startujemy z <xr id="eqn:10.4-equation">Równania (%i</xr>) dla prawdopodobieństwa <math>p_n(r)</math> tego, że po <math>n</math>-krokach
+
-
cząstka jest w węźle <math>r</math>, lub inaczej mówiąc, w chwili  <math>t=nT\;</math> jest w położeniu <math>x=rL\;</math>. Wprowadzimy nowe oznaczenie na to prawdopodobieństwo
+
-
 
+
-
<equation id="eqn:11.2-equation">
+
-
<math>p(r, n) = p_n(r)\; </math>
+
-
</equation>
+
-
 
+
-
Z relacji
+
-
 
+
-
<math>x = rL = r \Delta x, \; \; \; \; \; \; t=nT = n \Delta t</math>
+
-
 
+
-
otrzymamy
+
-
 
+
-
<math>r = \frac{x}{\Delta x}, \; \; \; \; \; \;  n = \frac{t}{\Delta t}</math>
+
-
 
+
-
Przy takich oznaczeniach
+
-
 
+
-
<math>p(r, n) = p\left(\frac{x}{\Delta x}, \frac{t}{\Delta t}\right)\; </math>
+
-
 
+
-
 
+
-
Zdefiniujemy '''gęstość prawdopodobieństwa''' (prawdopodobieństwo na jednostkę długości) za pomocą relacji
+
-
 
+
-
 
+
-
<equation id="eqn:11.3-equation">
+
-
<math>f(x, t) = \lim_{\Delta t \to 0,\ \Delta x \to 0}  \frac{1}{2 \Delta x} p\left(\frac{x}{\Delta x}, \frac{t}{\Delta t}\right)</math>
+
-
</equation>
+
-
 
+
-
 
+
-
Gęstość prawdopodobieństwa <math>f(x, t)</math>  powinna być unormowana, to znaczy
+
-
 
+
-
 
+
-
<math>\int_{-\infty}^{\infty} f(x, t) \; dx =1</math>
+
-
 
+
-
 
+
-
Faktycznie można to pokazać dokonując przejścia granicznego w <xr id="eqn:10.32-equation">Równaniu (%i</xr>). Otrzymamy wówczas jawną
+
-
postać gęstości <math>f(x, t)</math>. Jednak nasz cel jest inny: my chcemy otrzymać graniczną postać równania ewolucji
+
-
<xr id="eqn:10.4-equation"> (%i</xr>): 
+
-
 
+
-
<math>p_{n+1}(r) = p \cdot p_n(r-1) + q \cdot p(r+1) </math>
+
-
 
+
-
które przedstawimy w postaci (patrz <xr id="eqn:11.2-equation">Równanie (%i</xr>))
+
-
 
+
-
 
+
-
<math>p(r, n+1) = p \cdot p(r-1, n) + q \cdot p(r+1, n) </math>
+
-
 
+
-
 
+
-
Ustalamy wartości czasu <math>t</math> i położenia <math>x</math> cząstki, natomiast zmniejszamy <math>\Delta t</math> oraz <math>\Delta x</math>.
+
-
To jest możliwe, gdy jednocześnie liczba kroków <math>n\to \infty</math> oraz numer węzła określający położenie <math>|r| \to\infty</math>.
+
-
Korzystając z definicji <xr id="eqn:11.2-equation"> (%i</xr>), powyższe równanie transformuje sie do postaci
+
-
 
+
-
<math>f(x, t + \Delta t) = p \cdot f(x - \Delta x, t) + q \cdot f(x + \Delta x, t) </math>
+
-
 
+
-
 
+
-
Aby  do końca przeprowadzić  przejście graniczne  <xr id="eqn:11.1-equation"> (%i</xr>), rozwiniemy  funkcje <math>f(x, t + \Delta t), \; \; f(x - \Delta x, t), \; \; f(x + \Delta x, t)</math> w szereg Taylora otrzymując wyrażenie
+
-
 
+
-
<equation id="eqn:11.4-equation">
+
-
<math>  f(x, t) + \frac{\partial f(x, t)}{\partial t} \Delta t+  \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial t^2}  (\Delta t)^2 + \dots
+
-
</math>
+
-
  </equation>
+
-
 
+
-
<math> =
+
-
p\left\{ f(x, t) - \frac{\partial f(x, t)}{\partial x} \Delta x  +  \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial x^2}  (\Delta x)^2 -
+
-
\frac{1}{3!} \frac{\partial^3 f(x, t)}{\partial x^3}  (\Delta x)^3 + \dots
+
-
\right\}  </math>
+
-
 
+
-
 
+
-
<math>
+
-
+ q \left\{ f(x, t) + \frac{\partial f(x, t)}{\partial x} \Delta x  +  \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial x^2}  (\Delta x)^2 +
+
-
\frac{1}{3!} \frac{\partial^3 f(x, t)}{\partial x^3}  (\Delta x)^3 + \dots
+
-
\right\} </math>
+
-
 
+
-
 
+
-
 
+
-
'''PRZYPADEK SYMETRYCZNY'''
+
-
 
+
-
 
+
-
Aby wybrać poprawne skalowanie, musimy najpierw rozpatrzeć przypadek symetryczny błądzenia przypadkowego
+
-
 
+
-
<math>p=q = \frac{1}{2}\;</math>
+
-
 
+
-
Wówczas otrzymamy  równanie
+
-
 
+
-
<math>  \frac{\partial f(x, t)}{\partial t} \Delta t+  \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial t^2}  (\Delta t)^2 + \dots =
+
-
 
+
-
\left\{  \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial x^2}  (\Delta x)^2  + 
+
-
\frac{1}{4!} \frac{\partial^4 f(x, t)}{\partial x^4}  (\Delta x)^4 + \dots
+
-
\right\}  </math>
+
-
 
+
-
Dzieląc obustronie to równanie przez <math>\Delta t</math> otrzymamy
+
-
 
+
-
<equation id="eqn:11.5-equation">
+
-
<math>  \frac{\partial f(x, t)}{\partial t} +  \frac{1}{2} \frac{\partial^2 f(x, t)}{\partial t^2}  \Delta t + \dots =
+
-
 
+
-
\left\{  \frac{1}{2}  \frac{ (\Delta x)^2}{\Delta t} \frac{\partial^2 f(x, t)}{\partial x^2}    + 
+
-
\frac{1}{4!} \frac{(\Delta x)^4}{\Delta t} \frac{\partial^4 f(x, t)}{\partial x^4}  + \dots
+
-
\right\}  </math>
+
-
  </equation>
+
-
 
+
-
Jeżeli teraz
+
-
 
+
-
<equation id="eqn:11.6-equation">
+
-
<math>\Delta t \to 0, \; \; \; \; \; \Delta x  \to 0, \; \; \; \; \mbox{ale} \; \; \; \; \; \; \lim_{\Delta t \to 0,\ \Delta x \to 0}
+
-
\frac{\Delta x}{\Delta t} = const. </math>
+
-
</equation>
+
-
 
+
-
to otrzymamy "dziwny" przypadek
+
-
 
+
-
 
+
-
<math>  \frac{\partial f(x, t)}{\partial t} =0  </math>
+
-
 
+
-
 
+
-
Stąd wynika, że gęstość <math>f(x, t)</math> nie zależy od czasu. To z kolei oznacza, że prawdopodobieństwo tego, że cząstka jest w przedziale
+
-
np. <math>[2, 5]</math> nie zmienia się w czasie. To nie może być prawdą. Pamiętamy, że w chwili <math>t=0</math>, cząstka była w położeniu <math>x=0</math> (cząstka była w węźle 0). Skoro tak, to prawdopodobieństwo tego, że była w przedziale np. <math>[2, 5]</math> wynosi 0. A to nie zmienia się, więc nigdy cząstka nie mogłaby znależć sie w tym przedziale. To jest w sprzeczności z wynikami, jakie uzyskalismy dla błądzenia przypadkowego. Dlatego też skalowanie <xr id="eqn:11.6-equation"> (%i</xr>) nie jest rozsądne. Nie jest dobrze jak znikają wszystkie wyrazy po prawiej stronie <xr id="eqn:11.5-equation">Równania (%i</xr>). Jeżeli chcemy uzyskać nietrywialny wynik, załóżmy takie skalowanie, aby chociaż
+
-
jeden wyraz po prawej stronie <xr id="eqn:11.5-equation">Równania (%i</xr>) nie znikał. To nam sugeruje następujące skalowanie
+
-
 
+
-
<equation id="eqn:11.7-equation">
+
-
<math>\Delta t \to 0, \; \; \; \; \; \Delta x  \to 0, \; \; \; \; \mbox{ale} \; \; \; \; \; \lim_{\Delta t \to 0,\ \Delta x \to 0}\frac{(\Delta x)^2}{\Delta t} = const. \equiv  2 D</math>
+
-
</equation>
+
-
 
+
-
Teraz  <xr id="eqn:11.5-equation">Równanie (%i</xr>) redukuje sie do postaci
+
-
 
+
-
 
+
-
  <equation id="eqn:11.8-equation">
+
-
<math>  \frac{\partial f(x, t)}{\partial t}  =
+
-
 
+
-
D \frac{\partial^2 f(x, t)}{\partial x^2}    </math>
+
-
  </equation>
+
-
 
+
-
 
+
-
Równanie to nazywa się '''równaniem dyfuzji''' i opisuje ono proces który nazywa się '''procesem dyfuzji'''. Jest to równanie różniczkowe cząstkowe drugiego rzędu, parabolicznego typu. Parabolicznego - ponieważ z lewej strony jednokrotnie różniczkujemy względem <math>t</math>  (oznaczmy taką operację y), a z prawej strony dwukrotnie różniczkujemy względem <math>x</math> (oznaczmy taką operację z), czyli symbolicznie <math> y=D z z = D z^2</math>, a to jest równanie paraboli (za takie wyjaśnienie matematycy mnie zjedzą). Ponieważ jest to równanie różniczkowe, więc musimy sformułować warunek początkowy <math>f(x, 0)</math>.
+
-
Wiemy, że  w chwili <math>t=0</math>, cząstka jest w położeniu <math>x=0</math>, czyli proces stochastyczny <math>\xi(t)</math> startuje z zera, <math>\xi(0) = 0</math>, to z Rozdziału 4 wiemy że dla zmiennej losowej <math>\xi =0</math> dystrybuantą jest funkcja schodkowa Heaviside'a <math>F_{\xi}(x)=\theta(x-0)</math>, a odpowiadająca jej gęstość prawdopodobieństwa jest pochodną dystrybuanty, czyli delta Diraca`
+
-
<math>\delta(x-0)</math>. Dlatego też '''warunek początkowy''' dla cząstki startującej z zera ma postać
+
-
 
+
-
 
+
-
  <equation id="eqn:11.9-equation">
+
-
<math>f(x, 0) = \delta(x)\;</math>
+
-
  </equation>
+
-
 
+
-
Ponieważ gęstość rozkładu prawdopodobieństwa <math>f(x, t)</math> zależy także od zmiennej przestrzennej, potrzebne sa także warunki brzegowe.
+
-
Funkcja <math>f(x, t)</math> jest unormowana do 1, więc powinna dostatecznie szybko znikać w nieskonczoności. Istnieją kontrprzykłady na to, ale dla rzeczywistych  układów
+
-
 
+
-
 
+
-
<equation id="eqn:11.10-equation">
+
-
<math>\lim_{x\to\pm \infty} f(x, t) = 0 \;</math>
+
-
  </equation>
+
-
+
-
 
+
-
Parametr <math>D</math> w równaniu dyfuzji nazywa się współczynnikiem dyfuzji i dla cząstki błądzącej ma wymiar  <math>[m^2/s]</math>. W ogólnym przypadku, wymiarem
+
-
jest kwadrat procesu stochastycznego <math>\xi^2(t)</math> podzielony przez argument <math>t</math>, czyli <math>[\xi^2]/[t]</math>.
+
-
 
+
-
Unormowanym rozwiązaniem  równania dyfuzji jest następujaca funkcja
+
-
 
+
-
<equation id="eqn:11.11-equation">
+
-
<math>f(x, t) = \frac{1}{\sqrt{4\pi D t} }\; \exp \left[ - \frac{x^2}{4Dt}\right]</math>
+
-
  </equation>
+
-
 
+
-
Jest to funkcja Gaussa opisujaca zmienne losowe  normalne lub gaussowskie. W takim razie, w granicznym przypadku błądzenie losowe cząstki jest procesem gaussowskim lub procesem o rozkładzie normalnym (nazwa 'proces normalny' brzmi myląco). Można udowodnić, że proces ten ma niezależne przyrosty na nieprzekrywających się przedziałach <math>[t_i, \; t_{i+1}]</math>.
+
-
 
+
-
Znajomość gęstości rozkładu prawdopodobieństwa <math>f(x, t)</math> pozwala na wyznaczenie momentów statystycznych procesu. Ponieważ
+
-
<math>f(x, t)</math> jest funkcja parzystą, więc wartość średnia procesu jest zero. Wariancja procesu
+
-
 
+
-
<math>\sigma^2(t) = 2Dt\;</math>
+
-
 
+
-
 
+
-
Proces, który w przypadku symetrycznym otrzymaliśmy jako proces graniczny błądzenia przypadkowego nazywa się procesem Wienera i oznacza przez <math>W(t)</math>.
+
-
W naszych rozważaniach opisuje on losowe położenie cząstki błądzącej czyli <math>W(t)</math> jest położeniem cząstki w chwili <math>t</math>. Oczywiście w zależności od zagadnienia, interpretacja <math>W(t)</math> może byc inna. Podamy teraz formalną definicję tego procesu.
+
-
 
+
-
 
+
-
'''PROCES WIENERA''' <math>W(t)</math>
+
-
 
+
-
1. Proces stochastyczny <math>W(t)</math> jest procesem rzeczywistym
+
-
 
+
-
2. <math>W(0)=0</math> (proces startuje z zera)
+
-
 
+
-
3. Proces <math>W(t)</math> ma stacjonarne i niezależne przyrosty na nieprzekrywających się przedziałach
+
-
 
+
-
4. <math>W(t)</math> jest procesem Gaussa o zerowej wartości średniej
+
-
 
+
-
<equation id="eqn:11.12a-equation">
+
-
<math>\langle W(t_2) - W(t_1) \rangle = 0  </math>
+
-
  </equation>
+
-
 
+
-
i wariancji przyrostów
+
-
 
+
-
<equation id="eqn:11.12b-equation">
+
-
<math>\langle [W(t_2) - W(t_1)]^2 \rangle = 2D(t_2 - t_1), \; \; \; \; t_2 > t_1 </math>
+
-
  </equation>
+
-
 
+
-
 
+
-
Zauważmy, że własności 1, 2 i 3 są podobne do własności procesu Poissona. ale na tym podobieństwa sie kończą.
+
-
 
+
-
 
+
-
Przyrost <math>W(t_2) - W(t_1)</math> jest zmienna losową gaussowską o zerowej wartości średniej i wariancji <math> = 2D(t_2 - t_1) </math>. Więc jego rozkład prawdopodobieństwa ma postać
+
-
 
+
-
 
+
-
 
+
-
<equation id="eqn:11.13-equation">
+
-
<math>f_{W(t_2) - W(t_1)}(x)  = \frac{1}{\sqrt{4\pi D (t_2 - t_1)} }\; \exp \left[ - \frac{x^2}{4D(t_2 - t_1)}\right]</math>
+
-
  </equation>
+
-
 
+
-
Przyjmując <math>t_1=0</math> oraz <math>t_2=t</math> otrzymamy gęstość prawdopodobieństwa w postaci
+
-
 
+
-
<equation id="eqn:11.14-equation">
+
-
<math>f_{W(t)}(x) = f(x, t) \;</math>
+
-
  </equation>
+
-
 
+
-
gdzie funkcja <math>f(x, t) </math> dana jest przez <xr id="eqn:11.11-equation">Równanie (%i</xr>).
+
-
 
+
-
Prawdopodobieństwo tego, że w chwili <math>t</math> cząstka jest w przedziale <math>[a, b]</math> dane jest przez wzór
+
-
 
+
-
 
+
-
<equation id="eqn:11.15-equation">
+
-
<math>Pr\{W(t) \in (a, b)\} = \int_a^b f(x, t) \; dx = \frac{1}{\sqrt{4\pi D t} }\;  \int_a^b \exp \left[ - \frac{x^2}{4Dt}\right] \; dx</math>
+
-
  </equation>
+
-
 
+
-
Czytelnik zauważy, że niekonsekwentnie  piszę czasami przedział domknięty <math>[a, b]</math>, a czasami przedział otwarty  <math>(a, b)</math>. W tym przypadku to jest bez różnicy ponieważ
+
-
 
+
-
 
+
-
: <math>Pr\{W(t) \in (a, b)\} = Pr\{W(t) \in [a, b]\} = Pr\{W(t) \in [a, b)\}  = Pr\{W(t) \in (a, b])\}  </math>
+
-
 
+
-
Proces Wienera został otrzymany z procesu błądzenia przypadkowego jako graniczny przypadek: skoki są coraz mniejsze i coraz częstsze.
+
-
Rozpatrzmy realizacje błądzenia przypadkowego w określonym przedziale czasu <math>[0, t]</math>. W przedziale tym  wybrana realizacja posiada określoną ilość skoków w których funkcja ta jest nieróżniczkowalna. Przy skalowaniu skoki są coraz mniejsze, ale jest ich znacznie więcej. Więc w przedziale czasu <math>[0, t]</math> realizacja posiada znaczniej więcej punktów, w których jest nieróżniczkowalna. W granicy, wielkość skoków dąży do zera, ale ich ilość dąży do  nieskończoności.   
+
-
Oznacza to, że realizacja staje się funkcją ciągłą (wysokość skoków dąży do zera), ale jednocześnie nigdzie nie jest różniczkowalna (liczba skoków dąży do  nieskończoności). Jest to przykład wyjątkowo dziwnej funkcji. Takiej funkcji nie możemy narysować, ale to co opisałem powyżej powinno wyrobić w nas intuicję o własnościach realizacji procesu Wienera. Matematycy (jak zwykle) dowodzą to ściśle, a fizycy to czują i wiedzą dlaczego tak jest.
+
-
 
+
-
Nieróżniczkowalność procesu Wienera można zrozumieć "bardziej analitycznie". Niech  we <xr id="eqn:11.12-equation">wzorze (%i</xr>) czas <math>t_1=t</math>
+
-
oraz <math>t_2=t+\Delta t</math>. Otrzymamy przyrost procesu Wienera
+
-
 
+
-
: <math>\Delta W(t) = W(t+\Delta t) - W(t) \;</math>
+
-
 
+
-
i <xr id="eqn:11.12-equation">wzór (%i</xr>) ma postać
+
-
 
+
-
+
-
<equation id="eqn:11.16-equation">
+
-
<math>\langle [\Delta W(t)]^2 \rangle = \langle [W(t+\Delta t) - W(t)[^2 \rangle = 2D \Delta t </math>
+
-
  </equation>
+
-
 
+
-
Dlatego można wnioskować, że w sensie średnio-kwadratowym
+
-
 
+
-
<math>\Delta W(t) \sim \sqrt{ \langle [\Delta W(t)]^2 \rangle } \sim \sqrt{ \Delta t} </math>
+
-
 
+
-
Stąd otrzymamy
+
-
 
+
-
: <math>\frac{\Delta W(t)}{\Delta t}  \sim  \frac{1}{\sqrt{ \Delta t}} \to \infty \; \; \; \; \mbox{gdy} \; \; \; \Delta t \to 0 </math>
+
-
 
+
-
Ponieważ iloraz różnicowy  jest w granicy rozbieżny, pochodna nie istnieje. Inaczej mówiąc, proces ten nie jest różniczkowalny
+
-
(nawet w sensie średnio-kwadratowym). Mimo to fizycy chętnie posługują się pochodną procesu Wienera i ku zdziwieniu "klasyków"  otrzymują prawidłowe wnioski o realnym świecie. Do tego problemu powrócimy w następnym rozdziale. 
+
-
 
+
-
 
+
-
 
+
-
'''FUNKCJA KORELACYJNA PROCESU WIENERA'''
+
-
 
+
-
Przytoczyłem pewną własność procesu Wienera, a mianowicie tę, że  jest on procesem o niezależnych przyrostach  na nieprzekrywających się przedziałach. Niektórzy autorzy wkładają tę własność do definicji procesu Wienera. Traktując  proces Wienera jako graniczny przypadek błądzenia przypadkowego, tę własność można udowodnić.
+
-
Podobną własność ma także proces Poissona. Dla procesu Poissona udowodniliśmy to, korzystając z uogólnionego schematu Bernoulliego.
+
-
 
+
-
'''Twierdzenie''':
+
-
Funkcja korelacyjna procesu Wienera ma postać
+
-
 
+
-
<equation id="eqn:11.17-equation">
+
-
<math>R(t_2, t_1) = \langle W(t_2) W(t_1)\rangle = 2D \; \mbox{min}(t_2, t_1) \;</math>
+
-
  </equation>
+
-
 
+
-
gdzie funkcja <math>\mbox{min}(t_2, t_1) \;</math> jest zdefiniowana w <xr id="eqn:8.16-equation"> Równaniu (%i</xr>) i oznacza mniejszą z dwóch liczb
+
-
<math>t_2, \; t_1</math>. Funkcja korelacyjna procesu Wienera zawiera tę samą specyficzną  funkcję <math>\mbox{min}(t_2, t_1) \;</math>. Funkcja ta pojawia się we wszystkich procesach o niezależnych przyrostach  na nieprzekrywających się przedziałach. Jeszcze raz pojawi się ona w teorii procesów Levy'ego.
+
-
 
+
-
'''Dowód''': (i) Niech <math>t_2 > t_1 > t_0=0</math>. Przyrosty <math>W(t_2) - W(t_1) </math> oraz <math>W(t_1) - W(t_0) </math> są zmiennymi losowymi niezależnymi dla których
+
-
 
+
-
: <math>\langle[W(t_2) - W(t_1)] [ W(t_1) - W(t_0)] \rangle =  \langle W(t_2) - W(t_1) \rangle \cdot \langle W(t_1) - W(t_0) \rangle = 0</math>
+
-
 
+
-
Średnia wartość przyrostu procesu Wienera wynosi zero, dlatego też w rezultacie otrzymamy zero.
+
-
 
+
-
Z drugiej strony, wymnożymy wyrażenia w nawiasach pamietając, że <math>W(t_0) = W(0) = 0</math> (proces Wienera startuje z zera). Wówczas  otrzymamy
+
-
 
+
-
: <math>\langle W(t_2)  W(t_1) -  W^2(t_1) \rangle =  \langle W(t_2) W(t_1) \rangle -  \langle W^2(t_1)\rangle =0</math>
+
-
 
+
-
Stąd wynika, że
+
-
 
+
-
: <math>\langle W(t_2)  W(t_1) \rangle =  \langle W^2(t_1)\rangle = 2D t_1 \; \; \; \; \mbox{dla} \; \; \;  t_2 > t_1</math>
+
-
 
+
-
(ii)  Niech <math>t_1 > t_2 > t_0=0</math>. Przyrosty <math>W(t_1) - W(t_2) </math> oraz <math>W(t_12 - W(t_0) </math> są zmiennymi losowymi niezależnymi. Możemy powtórzyć trzy kroki analogiczne do tych w powyższych trzech równanich otrzymując
+
-
 
+
-
: <math>\langle W(t_1)  W(t_2)\rangle  =  \langle W^2(t_2)\rangle = 2D t_2 \; \; \; \; \mbox{dla} \; \; \;  t_1 > t_2</math>
+
-
 
+
-
Ponieważ
+
-
 
+
-
: <math>\langle W(t_2)  W(t_1)\rangle  =  \langle W(t_1)  W(t_2)\rangle</math>
+
-
 
+
-
otrzymujemy tezę twierdzenia.
+
-
 
+
-
 
+
-
 
+
-
'''SKALOWANIE PROCESU WIENERA'''
+
-
 
+
-
Proces Wienera jest samopodobny. Mówiąc obrazowo,  jego  mniejszy kawałek jest podobny do większego kawałka. To trochę tak jak z kalafiorem: oderwana różyczka z kalafiora jest podobna do kalafiora. Pojęcie samopodobieństwa jest dobrze matematycznie zdefiniowane. W sensie matematycznym kalafior nie jest samopodobny, ale przykład ten jest pod wieloma względami dobry (dla przykładu, każdy go zna, po analizie jego samopodobieństwa można go spożyć).
+
-
 
+
-
Zaczniemy analizę samopodobieństwa od równania dyfuzji <xr id="eqn:11.8-equation"> (%i</xr>): gęstość rozkładu prawdopodobieństwa <math>f(x, t) </math> procesu Wienera spełnia to równanie. Równanie dyfuzji jest niezmiennicze względem pewnych transformacji czasu <math>t </math> i położenia <math>x</math>.
+
-
 
+
-
Dokonajmy następującej transformacji skalowania
+
-
 
+
-
: <math>x \to cx, \; \; \; \; \; \; t \to c^2 t</math>
+
-
 
+
-
 
+
-
Wówczas postać <xr id="eqn:11.8-equation"> Równania  (%i</xr>) nie zmienia się ponieważ w mianownikach po obu stronach tego równania pojawia się stała <math>c^2</math>, która upraszcza się.  Przeprowadźmy te transformację w rozwiązaniu
+
-
<xr id="eqn:11.11-equation"> (%i</xr>):  Exponenta nie zmienia się, ale czynnik przed exponentą zmienia się i wówczas funkcja <math>f </math>
+
-
nie jest unormowana. Natomiast funkcja <math> c \cdot f</math> jest unormowana. Dokładniej, powyższa transformacja skalowania prowadzi do  relacji
+
-
 
+
-
 
+
-
<equation id="eqn:11.18-equation">
+
-
<math> c f(cx, c^2 t) = \frac{1}{\sqrt{4\pi D t} }\; \exp \left[ - \frac{x^2}{4Dt}\right]</math>
+
-
  </equation>
+
-
 
+
-
Prawa strona jest taka sama jak w <xr id="eqn:11.11-equation">Równaniu  (%i</xr>), czyli otrzymujemy relację
+
-
 
+
-
: <math>f(x, t) = c \; f(cx, c^2 t)</math>
+
-
 
+
-
Co to oznacza? Niech proces Wienera <math>W(t)</math> będzie opisany rozkładem <xr id="eqn:11.8-equation">  (%i</xr>), czyli funkcją <math>f(x, t)</math>.
+
-
Niech proces Wienera <math>{\tilde W(t)}</math> będzie opisany rozkładem <xr id="eqn:11.18-equation">  (%i</xr>), czyli funkcją
+
-
<math>g(x, t) = c f(cx, c^2t)</math>. Stąd otrzymujemy następującą informację:
+
-
 
+
-
* Jeżeli proces Wienera <math>W \;</math>  przyjmuje wartość <math>x</math> w chwili <math>t</math> to
+
-
 
+
-
* proces Wienera <math>{\tilde W}</math> przyjmuje wartość <math>cx</math> w chwili <math>c^2 t</math>.  Podobnie
+
-
 
+
-
* proces Wienera <math>{\hat W}</math> przyjmuje wartość <math>x/b</math> w chwili <math>t/b^2</math>.
+
-
 
+
-
czyli proces Wienera można w odpowiedni sposób "ściskać" lub "rozdmuchiwac".
+
-
 
+
-
 
+
-
Mozna to zgrabnie sformulować następująco:
+
-
 
+
-
 
+
-
Jeżeli <math>W(t)</math> jest procesem Wienera o zerowej wartości średniej i wariancji <math>\langle W^2(t)\rangle = 2D t</math> to przeskalowany procesem Wienera
+
-
 
+
-
<math>{\tilde W(t)} = c W(t/c^2)</math> jest procesem Wienera o zerowej wartości średniej i wariancji <math>\langle \tilde W^2(t)\rangle = 2D t</math>, czyli statystycznie jest nieodróżnialny od <math>W(t)</math> i te dwa procesy można utożsamiać.
+
-
 
+
-
 
+
-
Spójrzmy na rysunek przedstawiający realizacje procesu Wienera. Niech  przedział położeń będzie <math>[1, 3]</math> i przedział czasu <math>[2,4]</math>. Niech parametr skalowania <math>c=3</math>. Wówczas w przedziale położeń  <math>[3, 9]</math> i przedziale czasu <math>[18, 36]</math> statystycznie mamy nieodróżnialny proces Wienera od tego w przedziale położeń  <math>[1, 3]</math> i przedziale czasu <math>[2,4]</math>. Możemy zwiększać lub zmiejszać w odpowiednie sposób skale położeń i czasu, i ciągle mieć ten sam proces Wienera. W realnym świecie nie ma idealnego procesu Wienera i nie ma idealnego samopodobieństwa (jak z kalafiorem). Proces ten jest idealizacją,  która znakomicie opisuje  pewne klasy procesów w naszym świecie.
+
-
 
+
-
==Biały szum gaussowski==
+
-
 
+
-
 
+
-
 
+
-
W rozdziale 8.4 podaliśmy definicję białego szumu poissonowski jako formalną pochodna procesu Poissona. Nie przeszkadza nam to (w odróżnieniu od matematyków), że taka pochodna nie jest "porządnie"  zdefiniowana. Podobnie definiujemy '''biały szum gaussowski''' jako pochodną procesu Wienera:
+
-
 
+
-
 
+
-
<equation id="eqn:12.1-equation">
+
-
<math>\Gamma(t) = \frac{dW(t)}{dt}</math>
+
-
</equation>
+
-
 
+
-
 
+
-
Nie trudno pokazać,  że każda operacja liniowa nad zmienna losową  normalną (Gaussa) jest znowu zmienną losową normalną (Gaussa). Na przykład suma dwóch zmiennych losowych normalnch jest zmienną losową normalną. Z tego wynika, że suma dowolnej ilości zmiennych losowych normalnych  jest zmienną losową normalną; dalej
+
-
wynika, że pochodna (jest operacją liniową) procesu Gaussa jest procesem Gaussa, a także całka (przypominam, że  całka to graniczna wartość sumy, całka też jest operacją liniową) z procesu Gaussa jest procesem Gaussa. Skoro tak, to wystarczy znać wartość średnią oraz funkcję korelacyjną procesu Gaussa, aby wiedzieć wszystko o tym procesie. Te dwie wielkości dla białego szumu gaussowskiego mają postać:
+
-
 
+
-
: <math>\langle \Gamma(t) \rangle = 0, \; \; \; \;  \langle \Gamma(t_2) \Gamma(t_1)\rangle = 2D \delta(t_2 - t_1) </math>
+
-
+
-
Relacje te wykazuje się identycznie jak dla białego  szumu poissonowskiego, patrz Rozdział 8.4.
+
-
 
+
-
Z <xr id="eqn:12.1-equation">Równania (%i</xr>) otrzymamy formalne relacje
+
-
 
+
-
 
+
-
 
+
-
<equation id="eqn:12.2-equation">
+
-
<math>dW(t) = \Gamma(t) dt \; \; \; \; \mbox{lub} \; \; \; \; W(t) = \int_0^t \Gamma(s) \; ds</math>
+
-
</equation>
+
-
 
+
-
==Procesy Levy'ego==
+
-
 
+
-
 
+
-
Podaliśmy dwa przykłady najbardziej popularnych modeli szumu białego:
+
-
gaussowskiego i poissonowskiego. Są one pochodną procesów Wienera i Poissona, procesów  o przyrostach niezależnych na nieprzekrywających się przedziałach.
+
-
Oba procesy są szczególnymi przypadkami ogólnej klasy procesów stochastycznych, które nazywają się procesami Levy'ego <math>L(t)</math>.
+
-
+
-
Definicja procesu Levy'ego <math>L(t)</math> jest następująca:
+
-
 
+
-
(1) Jest to proces rzeczywisty, który prawie wszędzie jest prawostronnie ciągły i posiada wszędzie lewostronne granice
+
-
 
+
-
(2) <math>L(0)=0</math> (proces startuje z zera)
+
-
 
+
-
(3) <math>L(t)</math> ma przyrosty niezależne na nieprzekrywających się przedziałach,  to znaczy zmienne losowe <math>L(t_4) -L(t_3)</math> oraz <math>L(t_2) -L(t_1)</math> są niezależna dla <math>0 \le t_1 \le t_2 \le t_3 \le t_4</math>
+
-
 
+
-
(4) <math>L(t)</math> ma stacjonarne przyrosty, to znaczy rozkład prawdopodobieństwa zmiennej losowej  <math>L(t_2) -L(t_31</math>  zależy od różnicy czasów <math>t_2 -t_1</math> dla <math>$0 \le t_1 \le t_2</math>
+
-
 
+
-
(5) <math>L(t)</math> jest stochastycznie ciągły, to znaczy dla każdego <math>t \ge 0</math> oraz <math>\epsilon > 0</math>
+
-
 
+
-
<math>\lim_{s\to t} P(|L(t) -L(s)|>\epsilon)=0</math>
+
-
 
+
-
 
+
-
Z własności (3) wynika, że funkcja korelacyjna procesu Levy'ego o wartości średniej zero, <math>\langle L(t)\rangle =0</math>, ma postać 
+
-
 
+
-
<math>
+
-
\langle L(t) L(s) \rangle = 2D_0 \mbox{min} (t, s) \equiv 2D_0 [t  \theta(s-t) + s \theta(t-s)]
+
-
</math>
+
-
 
+
-
gdzie <math>D_0 > 0</math> jest stałą, nazywaną natężeniem lub intensywnością pprocesu Levy'ego.
+
-
 
+
-
 
+
-
Procesy Levy'ego są przykładem losowego ruchu którego trjektorie (realizacje) są funkcjami prawostronnie ciągłymi (tak jak proces Poissona) i mogą mieć co najwyżej przeliczalną ilość punktów nieciągłości w losowych chwilach czasu na każdym skończonym przedziale czasu. 
+
-
 
+
-
Istnieje wspaniała formuła Levy'ego-Chinczyna dla funkcji  characterystycznej procesu Levy'ego
+
-
 
+
-
 
+
-
<math>
+
-
C(\omega, t) = \langle \mbox{e}^{i\omega L(t)} \rangle = \mbox{e}^{t \psi(\omega)}
+
-
</math>
+
-
 
+
-
gdzie
+
-
 
+
-
<math>
+
-
\psi(\omega) = ia_0 \omega -\frac{1}{2} b \omega^2  +
+
-
\int_{-\infty}^{\infty} \left[\mbox{e}^{i\omega y} - 1 - i\omega y {\mathbb I}_{(-1,1)}(y)
+
-
\right]  \nu (dy),
+
-
</math>
+
-
 
+
-
Parametry  <math>a_0\in  R, b \ge 0</math>. Funkcja
+
-
 
+
-
<math>
+
-
{\mathbb I}_A(y)=  \{ {{1 \; \; \mbox{if} \; \;  y \in A} \atop {0 \; \; \mbox{if} \; \; y \notin A }}
+
-
</math>
+
-
 
+
-
nazywa się funkcją charakterystyczną zbioru <math>A</math> lub indykatorem zbioru <math>A</math>, a wielkość
+
-
<math>\nu = \nu(dy) </math> jest tzw. miarą Levy'ego na zbiorze  <math>R-\{0\}</math> o własnościach
+
-
 
+
-
 
+
-
<math>
+
-
\nu (R-[-1, 1]) < \infty, \quad \int_{-1}^1 y^2 \nu(dy) < \infty
+
-
</math>
+
-
 
+
-
Czytelnik, który nie ma zacięcia matematycznego może myśleć o mierze Levy'ego jako o wyrażeniu
+
-
 
+
-
<math>
+
-
\nu = \nu(dy) = \rho(y) dy, \; \; \; \; \rho(y) \ge 0
+
-
</math>
+
-
 
+
-
Nieujemna funkcja <math>\rho(y)</math> ma wiele cech wspólnych z  gęstością  rozkładu prawdopodobieństwa.
+
-
 
+
-
Jak widać, proces Levy'ego jest w pełni określony przez tryplet 
+
-
<math>(a_0, b, \nu)</math>  w którym <math>a_0</math> opisuje dryf,  <math>b</math> charakteryzuje proces Wienera (ruch Browna) i składowa nieciągła procesu Levy'ego opisana jest miarą Levy'ego <math>\nu</math>.
+
-
Tryplet <math>(0, b, 0)</math> opisuje proces Wienera. Tryplet <math>(0, 0, \mu \delta(y-1))</math> opisuje proces Poissona o parametrze <math>\mu</math> i
+
-
o jednostkowym skoku. Jezeli mamy dowolne losowe skoki (uogólniony proces Poissona)  opisane rozkładem prawdopodobieństwa  <math>\nu(dy)</math> to wówczas
+
-
 
+
-
 
+
-
<math>
+
-
\psi(\omega) = \mu
+
-
\int_{-\infty}^{\infty} \left[\mbox{e}^{i\omega y} - 1 \right]  \nu (dy)
+
-
</math>
+
-
 
+
-
 
+
-
Jeżeli  <math> \nu(R) = \infty</math> wówczas <math>L(t)</math>  opisuje nieciągły proces, który ma nieskończoną ilość małych skoków w dowolnym skończonym przedziale czasu.  Taki proces nie opisuje realnych procesów, ale może być przydatną  idealizacją.
+
-
 
+
-
Z twierdzenia Levy'ego-Ito wynika, że dowolny proces  Levy'ego <math>L(t)</math> można rozłożyć na cztery niezależne procesy
+
-
 
+
-
+
-
<math>
+
-
L(t)=L_1(t) +L_2(t) + L_3(t) + L_4(t)\;
+
-
</math>
+
-
 
+
-
gdzie <math>L_1(t)</math> opisuje dryf (proces deterministyczny), <math>L_2(t)</math> jest procesem Wienera,  <math>L_3(t) </math> jest uogólnionym procesem Poissona oraz
+
-
<math>L_4(t)</math> opisuje nieciągły proces, który ma nieskończoną ilość małych skoków w dowolnym skończonym przedziale czasu (a pure jump martingale).
+
-
Wynika to z przedstawienia
+
-
 
+
-
 
+
-
<math>
+
-
\psi(\omega) = \psi_1(\omega)  +\psi_2(\omega) +\psi_3(\omega) +\psi_4(\omega) \; 
+
-
</math>
+
-
 
+
-
gdzie
+
-
 
+
-
 
+
-
<math>
+
-
\psi_1(\omega)  = i a_0 \omega \;</math>
+
-
 
+
-
<math>
+
-
\psi_2(\omega) = -\frac{1}{2} b \; \omega^2 </math>
+
-
 
+
-
<math>
+
-
\psi_3(\omega) = \int_{|y| \ge 1} \left[\mbox{e}^{i\omega y} - 1 \right]  \nu (dy) </math>
+
-
 
+
-
<math>
+
-
\psi_4(\omega) = \int_{|y| < 1} \left[\mbox{e}^{i\omega y} - 1 - i\omega y  \right]  \nu (dy). 
+
-
</math>
+
-
 
+
-
Liniowa kombinacja nezależnych procesów Levy'ego jet też procesem Levy'ego.
+
-
 
+
-
Specjalna klasą procesów Levy'ego jet tzw. <math>\alpha</math>-proces o indeksie <math>\alpha \in (0, 2]</math> opisany przez
+
-
tryplet <math>(a, 0, \nu)</math> z miarą Levy'ego
+
-
 
+
-
<math>
+
-
  \nu(y) = \left[ c_{1} {\mathbb I}_{(0,\infty)}(y) + c_{2} {\mathbb I}_{(-\infty,0)}(y) 
+
-
\right] |y|^{-\alpha -1}\ dy,
+
-
</math>
+
-
 
+
-
gdzie
+
-
 
+
-
<math>c_1>0, \; c_2>0</math>.  
+
-
 
+
-
Funkcja charakterystyczna takiego procesu ma postać
+
-
 
+
-
<math>
+
-
\psi(\omega) = \{ {{i a \omega  - c |\omega|^\alpha\left (1-i\beta\mbox{sgn}\omega \tan
+
-
\frac{\pi\alpha}{2} \right) \; \;  \mbox{for} \;\;\alpha\neq 1} \atop
+
-
{i a \omega  -c |\omega|\left (1+i\beta\frac{2}{\pi}\mbox{sgn} \omega \ln|k| \right) \; \;  \mbox{for}\;\;\alpha=1}}
+
-
</math>
+
-
 
+
-
gdzie parametry
+
-
 
+
-
 
+
-
<math>
+
-
\alpha\in(0, 2], \; \; \beta =\beta(c_1, c_2) \in [-1, 1], \; \;  c = c(\alpha, c_1, c_2)  \in(0, \infty), \; \;  a = a(a_0, \alpha, c_1, c_2) 
+
-
</math>
+
-
 
+
-
 
+
-
Przypadek <math>c_1=c_2</math>  implikuje <math>\beta=0</math>  i proces jest procesem symetrycznym.
+
-
 
+
-
 
+
-
Biały szum Levy'ego jest zdefiniowany podobnie jak biały szum poissonowski i  biały szum gaussowski:
+
-
 
+
-
 
+
-
<math>
+
-
Z(t)=\frac{dL(t)}{dt} 
+
-
</math>
+
-
 
+
-
Dla procesu  Levy'ego  o zerowej wartości średniej funkcja korelacyjna  ma postać
+
-
 
+
-
 
+
-
<math>
+
-
\langle Z(t) Z(s) \rangle = \frac{\partial^2}{\partial t \partial s} \  \langle L(t) L(s) \rangle 
+
-
=  2D_0 \delta (t-s),
+
-
</math>
+
-
 
+
-
Przypominam, że zawsze można przedefiniowac proces stochastyczny tak, aby jego wartość średnia była zero:
+
-
 
+
-
 
+
-
<math>L(t) \to \tilde L(t) =  L(t) - \langle L(t)\rangle, \; \; \; \; \; \langle \tilde L(t)\rangle = 0</math>
+
-
 
+
-
 
+
-
Funkcjonał charakterystyczny symetrycznego <math>\alpha</math>-stabilnego białego szumu Levy'ego <math>Y(t)</math> ma postać
+
-
 
+
-
 
+
-
<math>
+
-
{\mathbb C}[f]  =\langle \mbox{exp}\left[i \int_0^{t} ds\; f(s) 
+
-
Y(s)  \right] \rangle =
+
-
\mbox{exp}\left[- c \int_0^{t} dt\; |f(s)|^{\alpha}  \right]
+
-
</math>
+
-
 
+
-
dla dowolnej tzw. testowej funkcji <math>f(s)</math>. Jeżeli  <math>f(s) = \omega</math> wówczas  funkcjonał charakterystyczny redukuje się do funkcji charakterystycznej dla procesu Levy'ego <math>L(t)</math>. Zkolei, jeżeli wybierzemy  <math>f(s) = \omega \delta(s-\tau)</math> wówczas  funkcjonał charakterystyczny redukuje się do funkcji charakterystycznej dla białego szumu Levy'ego <math>Y(\tau)</math> gdy <math>\tau \in (0, t)</math>.
+
-
 
+
-
==Stochastyczne równania różniczkowe==
+
-
==Równanie Kramersa-Moyala==
+
-
==Proste i odwrotne równanie Kołmogorowa. Równanie Fokkera-Plancka==
+
-
==Równanie Ito a proces dyfuzji==
+
-
==Równanie Ito i równanie Stratonowicza==
+
-
==Twierdzenie Ito o różniczce funkcji procesu stochastycznego==
+
-
==Przykłady zastosowań równań stochastycznych w ekonomii==
+
-
===Geometryczny proces Wienera===
+
-
 
+
-
 
+
-
==Dodatek matematyczny==
+
-
 
+
-
 
+
-
1. Elementy teorii dystrybucji:  delta Diraca,    funkcja schodkowa i jej pochodna , różniczkowanie funkcji nieciągłej
+
-
 
+
-
 
+
-
2. Podstawowe tw. w teorii całki Riemanna , różniczkowanie całki wz. górnej granicy całkowania
+
-
 
+
-
 
+
-
3. Transformacja Fouriera
+
-
 
+
-
 
+
-
4. Momenty statystyczne dla rozkładu Poissona
+
-
 
+
-
5. Twierdzenie Poissona dla uogólnionych  schematów Bernoulliego
+

Aktualna wersja na dzień 21:02, 17 mar 2011

PROCESY I ZJAWISKA LOSOWE

JERZY ŁUCZKA

Wstęp

  • Celem zajęć jest poznanie podstaw teorii procesów stochastycznych wykorzystywanych do modelowania procesów rynkowych
  • przedmiot obowiązkowy na 1 roku studiów I stopnia (licencjackich)

Wymagania

  • znajomość rachunku różniczkowego i całḱowego


Spis treści

  1. WSTĘP
  2. ELEMENTY TEORII PRAWDOPODOBIEŃSTWA
  3. PRÓBY I SCHEMAT BERNOULLIEGO
  4. PROCESY STOCHASTYCZNE
  5. PROCESY POISSONA
  6. BŁĄDZENIE PRZYPADKOWE
  7. PROCES DYFUZJI - PROCES WIENERA
  8. PROCESY LEVY'EGO
  9. PROCESY MARKOWA
  10. STOCHASTYCZNE RÓWNANIA RÓŻNICZKOWE
  11. PRZYKŁADY ZASTOSOWAŃ RÓWNAŃ STOCHASTYCZNYCH W EKONOMII
  12. DODATEK MATEMATYCZNY


Literatura

  1. Athanasios Papoulis. Probability, Random Variables, and Stochastc Processes McGraw Hill, 1991.
  2. Rama Cont and Peter Tankov. Financial Modelling with jump Processes Chapman &Hall/CRC, 2004.