Procesy i Zjawiska Losowe

Z Skrypty dla studentów Ekonofizyki UPGOW

Spis treści

PROCESY I ZJAWISKA LOSOWE

Jerzy Łuczka

Skrypt dla studentów ekonofizyki


WAZNE - postaraj sie podzielic tekst na glowne rozdzialy (tak by bylo z 10 sztuk)

Spis treści

  1. Wstęp
  2. Zbiory
  3. Elementy teorii prawdopodobieństa
  4. Próby i schemat Bernoulliego
  5. Procesy Stochastyczne
  6. Procesy Poissona
  7. Błądzenie przypadkowe
  8. Proces Wienera i proces dyfuzji
  9. Procesy Levy'ego
  10. Procesy Markowa
  11. Równania Kołmogorowa-Fokkera-Plancka
  12. Stochastyczne równania różniczkowe

Biały szum gaussowski

W rozdziale 8.4 podaliśmy definicję białego szumu poissonowski jako formalną pochodna procesu Poissona. Nie przeszkadza nam to (w odróżnieniu od matematyków), że taka pochodna nie jest "porządnie" zdefiniowana. Podobnie definiujemy biały szum gaussowski jako pochodną procesu Wienera:


(1)\(\Gamma(t) = \frac{dW(t)}{dt}\)


Nie trudno pokazać, że każda operacja liniowa nad zmienna losową normalną (Gaussa) jest znowu zmienną losową normalną (Gaussa). Na przykład suma dwóch zmiennych losowych normalnch jest zmienną losową normalną. Z tego wynika, że suma dowolnej ilości zmiennych losowych normalnych jest zmienną losową normalną; dalej wynika, że pochodna (jest operacją liniową) procesu Gaussa jest procesem Gaussa, a także całka (przypominam, że całka to graniczna wartość sumy, całka też jest operacją liniową) z procesu Gaussa jest procesem Gaussa. Skoro tak, to wystarczy znać wartość średnią oraz funkcję korelacyjną procesu Gaussa, aby wiedzieć wszystko o tym procesie. Te dwie wielkości dla białego szumu gaussowskiego mają postać:

\(\langle \Gamma(t) \rangle = 0, \; \; \; \; \langle \Gamma(t_2) \Gamma(t_1)\rangle = 2D \delta(t_2 - t_1) \)

Relacje te wykazuje się identycznie jak dla białego szumu poissonowskiego, patrz Rozdział 8.4.

Z Równania (3) otrzymamy formalne relacje


(2)\(dW(t) = \Gamma(t) dt \; \; \; \; \mbox{lub} \; \; \; \; W(t) = \int_0^t \Gamma(s) \; ds\)


Biały szum gaussowski

W rozdziale 8.4 podaliśmy definicję białego szumu poissonowski jako formalną pochodna procesu Poissona. Nie przeszkadza nam to (w odróżnieniu od matematyków), że taka pochodna nie jest "porządnie" zdefiniowana. Podobnie definiujemy biały szum gaussowski jako pochodną procesu Wienera:


(3)\(\Gamma(t) = \frac{dW(t)}{dt}\)


Nie trudno pokazać, że każda operacja liniowa nad zmienna losową normalną (Gaussa) jest znowu zmienną losową normalną (Gaussa). Na przykład suma dwóch zmiennych losowych normalnch jest zmienną losową normalną. Z tego wynika, że suma dowolnej ilości zmiennych losowych normalnych jest zmienną losową normalną; dalej wynika, że pochodna (jest operacją liniową) procesu Gaussa jest procesem Gaussa, a także całka (przypominam, że całka to graniczna wartość sumy, całka też jest operacją liniową) z procesu Gaussa jest procesem Gaussa. Skoro tak, to wystarczy znać wartość średnią oraz funkcję korelacyjną procesu Gaussa, aby wiedzieć wszystko o tym procesie. Te dwie wielkości dla białego szumu gaussowskiego mają postać:

\(\langle \Gamma(t) \rangle = 0, \; \; \; \; \langle \Gamma(t_2) \Gamma(t_1)\rangle = 2D \delta(t_2 - t_1) \)

Relacje te wykazuje się identycznie jak dla białego szumu poissonowskiego, patrz Rozdział 8.4.

Z Równania (3) otrzymamy formalne relacje


(4)\(dW(t) = \Gamma(t) dt \; \; \; \; \mbox{lub} \; \; \; \; W(t) = \int_0^t \Gamma(s) \; ds\)

Procesy Levy'ego

Podaliśmy dwa przykłady najbardziej popularnych modeli szumu białego: gaussowskiego i poissonowskiego. Są one pochodną procesów Wienera i Poissona, procesów o przyrostach niezależnych na nieprzekrywających się przedziałach. Oba procesy są szczególnymi przypadkami ogólnej klasy procesów stochastycznych, które nazywają się procesami Levy'ego \(L(t)\).

Definicja procesu Levy'ego \(L(t)\) jest następująca:

(1) Jest to proces rzeczywisty, który prawie wszędzie jest prawostronnie ciągły i posiada wszędzie lewostronne granice

(2) \(L(0)=0\) (proces startuje z zera)

(3) \(L(t)\) ma przyrosty niezależne na nieprzekrywających się przedziałach, to znaczy zmienne losowe \(L(t_4) -L(t_3)\) oraz \(L(t_2) -L(t_1)\) są niezależna dla \(0 \le t_1 \le t_2 \le t_3 \le t_4\)

(4) \(L(t)\) ma stacjonarne przyrosty, to znaczy rozkład prawdopodobieństwa zmiennej losowej \(L(t_2) -L(t_31\) zależy od różnicy czasów \(t_2 -t_1\) dla \($0 \le t_1 \le t_2\)

(5) \(L(t)\) jest stochastycznie ciągły, to znaczy dla każdego \(t \ge 0\) oraz \(\epsilon > 0\)

\(\lim_{s\to t} P(|L(t) -L(s)|>\epsilon)=0\)


Z własności (3) wynika, że funkcja korelacyjna procesu Levy'ego o wartości średniej zero, \(\langle L(t)\rangle =0\), ma postać

\( \langle L(t) L(s) \rangle = 2D_0 \mbox{min} (t, s) \equiv 2D_0 [t \theta(s-t) + s \theta(t-s)] \)

gdzie \(D_0 > 0\) jest stałą, nazywaną natężeniem lub intensywnością pprocesu Levy'ego.


Procesy Levy'ego są przykładem losowego ruchu którego trjektorie (realizacje) są funkcjami prawostronnie ciągłymi (tak jak proces Poissona) i mogą mieć co najwyżej przeliczalną ilość punktów nieciągłości w losowych chwilach czasu na każdym skończonym przedziale czasu.

Istnieje wspaniała formuła Levy'ego-Chinczyna dla funkcji characterystycznej procesu Levy'ego


\( C(\omega, t) = \langle \mbox{e}^{i\omega L(t)} \rangle = \mbox{e}^{t \psi(\omega)} \)

gdzie

\( \psi(\omega) = ia_0 \omega -\frac{1}{2} b \omega^2 + \int_{-\infty}^{\infty} \left[\mbox{e}^{i\omega y} - 1 - i\omega y {\mathbb I}_{(-1,1)}(y) \right] \nu (dy), \)

Parametry \(a_0\in R, b \ge 0\). Funkcja

\( {\mathbb I}_A(y)= \{ {{1 \; \; \mbox{if} \; \; y \in A} \atop {0 \; \; \mbox{if} \; \; y \notin A }} \)

nazywa się funkcją charakterystyczną zbioru \(A\) lub indykatorem zbioru \(A\), a wielkość \(\nu = \nu(dy) \) jest tzw. miarą Levy'ego na zbiorze \(R-\{0\}\) o własnościach


\( \nu (R-[-1, 1]) < \infty, \quad \int_{-1}^1 y^2 \nu(dy) < \infty \)

Czytelnik, który nie ma zacięcia matematycznego może myśleć o mierze Levy'ego jako o wyrażeniu

\( \nu = \nu(dy) = \rho(y) dy, \; \; \; \; \rho(y) \ge 0 \)

Nieujemna funkcja \(\rho(y)\) ma wiele cech wspólnych z gęstością rozkładu prawdopodobieństwa.

Jak widać, proces Levy'ego jest w pełni określony przez tryplet \((a_0, b, \nu)\) w którym \(a_0\) opisuje dryf, \(b\) charakteryzuje proces Wienera (ruch Browna) i składowa nieciągła procesu Levy'ego opisana jest miarą Levy'ego \(\nu\). Tryplet \((0, b, 0)\) opisuje proces Wienera. Tryplet \((0, 0, \mu \delta(y-1))\) opisuje proces Poissona o parametrze \(\mu\) i o jednostkowym skoku. Jezeli mamy dowolne losowe skoki (uogólniony proces Poissona) opisane rozkładem prawdopodobieństwa \(\nu(dy)\) to wówczas


\( \psi(\omega) = \mu \int_{-\infty}^{\infty} \left[\mbox{e}^{i\omega y} - 1 \right] \nu (dy) \)


Jeżeli \( \nu(R) = \infty\) wówczas \(L(t)\) opisuje nieciągły proces, który ma nieskończoną ilość małych skoków w dowolnym skończonym przedziale czasu. Taki proces nie opisuje realnych procesów, ale może być przydatną idealizacją.

Z twierdzenia Levy'ego-Ito wynika, że dowolny proces Levy'ego \(L(t)\) można rozłożyć na cztery niezależne procesy


\( L(t)=L_1(t) +L_2(t) + L_3(t) + L_4(t)\; \)

gdzie \(L_1(t)\) opisuje dryf (proces deterministyczny), \(L_2(t)\) jest procesem Wienera, \(L_3(t) \) jest uogólnionym procesem Poissona oraz \(L_4(t)\) opisuje nieciągły proces, który ma nieskończoną ilość małych skoków w dowolnym skończonym przedziale czasu (a pure jump martingale). Wynika to z przedstawienia


\( \psi(\omega) = \psi_1(\omega) +\psi_2(\omega) +\psi_3(\omega) +\psi_4(\omega) \; \)

gdzie


\( \psi_1(\omega) = i a_0 \omega \;\)

\( \psi_2(\omega) = -\frac{1}{2} b \; \omega^2 \)

\( \psi_3(\omega) = \int_{|y| \ge 1} \left[\mbox{e}^{i\omega y} - 1 \right] \nu (dy) \)

\( \psi_4(\omega) = \int_{|y| < 1} \left[\mbox{e}^{i\omega y} - 1 - i\omega y \right] \nu (dy). \)

Liniowa kombinacja nezależnych procesów Levy'ego jet też procesem Levy'ego.

Specjalna klasą procesów Levy'ego jet tzw. \(\alpha\)-proces o indeksie \(\alpha \in (0, 2]\) opisany przez tryplet \((a, 0, \nu)\) z miarą Levy'ego

\( \nu(y) = \left[ c_{1} {\mathbb I}_{(0,\infty)}(y) + c_{2} {\mathbb I}_{(-\infty,0)}(y) \right] |y|^{-\alpha -1}\ dy, \)

gdzie

\(c_1>0, \; c_2>0\).

Funkcja charakterystyczna takiego procesu ma postać

\( \psi(\omega) = \{ [[:Szablon:I a \omega - c]] \)

gdzie parametry


\( \alpha\in(0, 2], \; \; \beta =\beta(c_1, c_2) \in [-1, 1], \; \; c = c(\alpha, c_1, c_2) \in(0, \infty), \; \; a = a(a_0, \alpha, c_1, c_2) \)


Przypadek \(c_1=c_2\) implikuje \(\beta=0\) i proces jest procesem symetrycznym.


Biały szum Levy'ego jest zdefiniowany podobnie jak biały szum poissonowski i biały szum gaussowski:


\( Z(t)=\frac{dL(t)}{dt} \)

Dla procesu Levy'ego o zerowej wartości średniej funkcja korelacyjna ma postać


\( \langle Z(t) Z(s) \rangle = \frac{\partial^2}{\partial t \partial s} \ \langle L(t) L(s) \rangle = 2D_0 \delta (t-s), \)

Przypominam, że zawsze można przedefiniowac proces stochastyczny tak, aby jego wartość średnia była zero:


\(L(t) \to \tilde L(t) = L(t) - \langle L(t)\rangle, \; \; \; \; \; \langle \tilde L(t)\rangle = 0\)


Funkcjonał charakterystyczny symetrycznego \(\alpha\)-stabilnego białego szumu Levy'ego \(Y(t)\) ma postać


\( {\mathbb C}[f] =\langle \mbox{exp}\left[i \int_0^{t} ds\; f(s) Y(s) \right] \rangle = \mbox{exp}\left[- c \int_0^{t} dt\; |f(s)|^{\alpha} \right] \)

dla dowolnej tzw. testowej funkcji \(f(s)\). Jeżeli \(f(s) = \omega\) wówczas funkcjonał charakterystyczny redukuje się do funkcji charakterystycznej dla procesu Levy'ego \(L(t)\). Zkolei, jeżeli wybierzemy \(f(s) = \omega \delta(s-\tau)\) wówczas funkcjonał charakterystyczny redukuje się do funkcji charakterystycznej dla białego szumu Levy'ego \(Y(\tau)\) gdy \(\tau \in (0, t)\).

Stochastyczne równania różniczkowe

Równanie Kramersa-Moyala

Proste i odwrotne równanie Kołmogorowa. Równanie Fokkera-Plancka

Równanie Ito a proces dyfuzji

Równanie Ito i równanie Stratonowicza

Twierdzenie Ito o różniczce funkcji procesu stochastycznego

Przykłady zastosowań równań stochastycznych w ekonomii

Geometryczny proces Wienera

Dodatek matematyczny

1. Elementy teorii dystrybucji: delta Diraca, funkcja schodkowa i jej pochodna , różniczkowanie funkcji nieciągłej


2. Podstawowe tw. w teorii całki Riemanna , różniczkowanie całki wz. górnej granicy całkowania


3. Transformacja Fouriera


4. Momenty statystyczne dla rozkładu Poissona

5. Twierdzenie Poissona dla uogólnionych schematów Bernoulliego