Analiza Szeregów Czasowych/Stacjonarność

Z Skrypty dla studentów Ekonofizyki UPGOW

(Różnice między wersjami)
(Stacjonarność procesów stochastycznych)
 
(Nie pokazano 8 wersji pomiędzy niniejszymi.)
Linia 1: Linia 1:
[[Analiza Szeregów Czasowych]]
[[Analiza Szeregów Czasowych]]
-
==Stacjonarność==
+
==Stacjonarność procesów stochastycznych==
-
;Definicja 3.1: Szereg czasowy <math> \{X_t, t \in \Z\}\ </math>, gdzie zbiór indeksów zdefiniowany jest jako <math> \Z = \{0, \pm 1, \pm 2,\cdots \}</math> nazywamy stacjonarnym jeżeli spełnione są poniższe punkty
+
Do wyznaczania zależności pomiędzy zmiennymi losowymi użyteczna bywa funkcja kowariancji.
 +
 
 +
;Definicja 3.1: Dla dwóch zmiennych losowych <math> \{X_t, t \in T\}\ </math> oraz <math> \{Y_s, s \in T\}\ </math> funkcja
 +
 
 +
: <math>
 +
\begin{align}
 +
~cov(X(r),Y(s)) =
 +
&E[(X_r - EX_r)(Y_s - EY_s)] = E(X_tY_s) - EX_t EY_s ~~~\text{dla} ~~~ r,s \in T
 +
\end{align}
 +
</math>
 +
 
 +
określa liniową zależność pomiędzy powyższymi zmiennymi losowymi. Stopień współzależności owych zmiennych losowych można podać za pomocą tzw. współczynnika korelacji Pearsona <math> r_{XY}\ </math>
 +
 
 +
: <math>
 +
cov (X, Y) = r_{XY} \sigma_{X} \sigma_{Y}.
 +
</math>
 +
 
 +
Wartość współczynnika korelacji Pearsona mieści się w przedziale domkniętym [-1, 1]. Im większa jego wartość bezwzględna, tym silniejsza jest zależność zmiennych losowych między zmiennymi.
 +
<math>r_{XY} = 0</math> oznacza brak liniowej zależności między cechami, <math>r_{XY} = 1</math> oznacza dokładną dodatnią liniową zależność między cechami, natomiast <math>r_{XY} = -1</math> oznacza dokładną ujemną liniową zależność między cechami, tzn. jeżeli zmienna <math>X</math> rośnie, to <math>Y</math> maleje i na odwrót.
 +
Współczynnik korelacji liniowej można traktować jako znormalizowaną [[kowariancja|kowariancję]]. Korelacja przyjmuje zawsze wartości w zakresie [-1, 1], co pozwala uniezależnić analizę od dziedziny badanych zmiennych.
 +
 
 +
W przypadku gdy analizujemy szereg czasowy opisywany poprzez ewolucję jednej zmiennej losowej możemy mówić najwyżej o funkcji autokowariancji.
 +
Dla szeregu czasowego <math> \{X_t, t \in T\}\ </math> możemy taką funkcję zdefiniować następująco.
 +
 
 +
;Definicja 3.2: Jeżeli <math> \{X_t, t \in T\}\ </math> jest procesem dla którego wariancja zmiennej losowej dla każdej chwili czasu <math> \sigma_{X_t} </math> jest skończona, wtedy funkcja autokowariancji procesu <math> \{X_t\}\ </math> zdefiniowana jest jako
 +
 
 +
: <math>
 +
\begin{align}
 +
~\gamma_X(r,s) = &K_{XX}(r,s) = cov(X(r),X(s)) = cov(X_r,X_s) = \\
 +
&E[(X_r - EX_r)(X_s - EX_s)] = E(X_tX_s) - EX_t EX_s ~~~\text{dla} ~~~ r,s \in T.
 +
\end{align}
 +
</math>
 +
 
 +
Analogicznie do funkcji kowariancji, autokowariancja określa liniową zależność pomiędzy tą samą zmienną losową w dwóch chwilach czasu t i s.
 +
 
 +
;Definicja 3.3: Szereg czasowy <math> \{X_t, t \in \Z\}\ </math>, gdzie zbiór indeksów zdefiniowany jest jako <math> \Z = \{0, \pm 1, \pm 2,\cdots \}</math> nazywamy stacjonarnym (w sensie słabym) jeżeli spełnione są poniższe punkty
: <math>  
: <math>  
Linia 13: Linia 48:
====Uwagi====
====Uwagi====
-
# Powyższa definicja odnosi się do tak zwanej słabej stacjonarności, stacjonarności w szerszym sensie lub stacjonarności rzędu dwa. Ma ona zastsowanie najczęściej podczas analizy szeregów czasowych.
+
# Powyższa definicja odnosi się do tak zwanej słabej stacjonarności, stacjonarności w szerszym sensie lub stacjonarności rzędu dwa. Ma ona zastsowanie najczęściej podczas analizy szeregów czasowych. Na tym kursie analizy szeregów czasowych będzie to podstawowa definicja jaką będziemy rozpatrywali.
# Punkt <math>(iii)\ </math> często zapisuje się w postaci
# Punkt <math>(iii)\ </math> często zapisuje się w postaci
: <math> \gamma_X(r+t,s+t) = \gamma_X(r-s,0) \!</math>
: <math> \gamma_X(r+t,s+t) = \gamma_X(r-s,0) \!</math>
: lub krótko
: lub krótko
: <math> \gamma_X(r-s,0) = \gamma(\tau) \, \mbox{ gdzie }  \, \tau = t_1 - t_2 </math>
: <math> \gamma_X(r-s,0) = \gamma(\tau) \, \mbox{ gdzie }  \, \tau = t_1 - t_2 </math>

Aktualna wersja na dzień 13:10, 23 wrz 2010

Analiza Szeregów Czasowych

Stacjonarność procesów stochastycznych

Do wyznaczania zależności pomiędzy zmiennymi losowymi użyteczna bywa funkcja kowariancji.

Definicja 3.1
Dla dwóch zmiennych losowych \( \{X_t, t \in T\}\ \) oraz \( \{Y_s, s \in T\}\ \) funkcja
\( \begin{align} ~cov(X(r),Y(s)) = &E[(X_r - EX_r)(Y_s - EY_s)] = E(X_tY_s) - EX_t EY_s ~~~\text{dla} ~~~ r,s \in T \end{align} \)

określa liniową zależność pomiędzy powyższymi zmiennymi losowymi. Stopień współzależności owych zmiennych losowych można podać za pomocą tzw. współczynnika korelacji Pearsona \( r_{XY}\ \)

\( cov (X, Y) = r_{XY} \sigma_{X} \sigma_{Y}. \)

Wartość współczynnika korelacji Pearsona mieści się w przedziale domkniętym [-1, 1]. Im większa jego wartość bezwzględna, tym silniejsza jest zależność zmiennych losowych między zmiennymi. \(r_{XY} = 0\) oznacza brak liniowej zależności między cechami, \(r_{XY} = 1\) oznacza dokładną dodatnią liniową zależność między cechami, natomiast \(r_{XY} = -1\) oznacza dokładną ujemną liniową zależność między cechami, tzn. jeżeli zmienna \(X\) rośnie, to \(Y\) maleje i na odwrót. Współczynnik korelacji liniowej można traktować jako znormalizowaną kowariancję. Korelacja przyjmuje zawsze wartości w zakresie [-1, 1], co pozwala uniezależnić analizę od dziedziny badanych zmiennych.

W przypadku gdy analizujemy szereg czasowy opisywany poprzez ewolucję jednej zmiennej losowej możemy mówić najwyżej o funkcji autokowariancji. Dla szeregu czasowego \( \{X_t, t \in T\}\ \) możemy taką funkcję zdefiniować następująco.

Definicja 3.2
Jeżeli \( \{X_t, t \in T\}\ \) jest procesem dla którego wariancja zmiennej losowej dla każdej chwili czasu \( \sigma_{X_t} \) jest skończona, wtedy funkcja autokowariancji procesu \( \{X_t\}\ \) zdefiniowana jest jako
\( \begin{align} ~\gamma_X(r,s) = &K_{XX}(r,s) = cov(X(r),X(s)) = cov(X_r,X_s) = \\ &E[(X_r - EX_r)(X_s - EX_s)] = E(X_tX_s) - EX_t EX_s ~~~\text{dla} ~~~ r,s \in T. \end{align} \)

Analogicznie do funkcji kowariancji, autokowariancja określa liniową zależność pomiędzy tą samą zmienną losową w dwóch chwilach czasu t i s.

Definicja 3.3
Szereg czasowy \( \{X_t, t \in \Z\}\ \), gdzie zbiór indeksów zdefiniowany jest jako \( \Z = \{0, \pm 1, \pm 2,\cdots \}\) nazywamy stacjonarnym (w sensie słabym) jeżeli spełnione są poniższe punkty
\( \begin{align} (i) &~E | X_t |^2 < \infty ~~~ \text{for all} ~~~ t \in \Z \\ (ii) &~E X_t = m ~~~ \text{for all} ~~~ t \in \Z \\ (iii)&~\gamma_X(r,s) = \gamma_X(r+t,s+t) ~~~ \text{for all} ~~~ t \in \Z \end{align} \)

Uwagi

  1. Powyższa definicja odnosi się do tak zwanej słabej stacjonarności, stacjonarności w szerszym sensie lub stacjonarności rzędu dwa. Ma ona zastsowanie najczęściej podczas analizy szeregów czasowych. Na tym kursie analizy szeregów czasowych będzie to podstawowa definicja jaką będziemy rozpatrywali.
  2. Punkt \((iii)\ \) często zapisuje się w postaci
\( \gamma_X(r+t,s+t) = \gamma_X(r-s,0) \!\)
lub krótko
\( \gamma_X(r-s,0) = \gamma(\tau) \, \mbox{ gdzie } \, \tau = t_1 - t_2 \)