PIZL:Dodatek matematyczny

Z Skrypty dla studentów Ekonofizyki UPGOW

Spis treści

Dodatek matematyczny

A. Elementy teorii dystrybucji

Fizycy często beztrosko stosują osiągnięcia matematyki. Dla przykładu, czasami chcą różniczkować funkcję, które w standardowej teorii rachunku różniczkowego nie są różniczkowalne. Przypomnijmy, że nie wszystkie funkcje ciągłe są różniczkowalne. Z pewnością funkcje nieciągłe nie są różniczkowalne. A fizycy chcą różniczkować funkcje nieciągłe. W historii tak często bywało. Z początku matematycy trochę marudzili i wytykali fizykom stosowanie niedozwolonych chwytów. Ale fizycy są na ogół nieposłuszni. Jedynym wyjściem dla matematyków było skonstruowanie porządnej teorii, w której można różniczkować funkcje nieróżniczkowalne. I tak powstała teoria dystrybucji. Stworzył ją francuski matematyk Laurent Schwartz, który w 1948 roku opublikował pierwszą prace na ten temat. Nie będziemy tu przedstawiać teorii dystrybucji, ale te jej elementy, które potrzebne są w teorii zmiennych losowych i teorii procesów stochastycznych. Zaczniemy od prostej funkcji schodkowej.


A1. Funkcja schodkowa Heaviside'a \(\theta(x)\)

Funkcja ta jest różnie definiowana. Dla naszych potrzeb przyjmujemy następującą definicję:


\[\theta (x) = \{ {{1 \; \; \; \; \mbox{jeżeli} \; \; \; \; x \ge 0} \atop {0 \; \; \; \; \mbox{jeżeli} \; \;\; \; x<0 }} \]

Można spotkać definicje różniące się wartością tej funkcji w punkcie \(x=0\). W czysto matematycznej teorii, wartość ta może byc dowolna. Czasami przyjmuje \(\theta(0) =1/2\), czasami \(\theta (0) =0\). Nasz wybór podyktowany jest definicją dystrybuanty zmiennej losowej i chęcią zapisu dytrybuanty zmiennej losowej dyskretnej za pomocą zgrabnej formuły matematycznej:

\[F_{\xi}(x) = \sum_{k} p_k \theta (x-x_k)\, \]

gdzie \(x_k\) to możliwe wartości zmiennej losowej dyskretnej, natomiast \(p_k=Pr\{\xi =x_k\}\) jest prawdopodobieństwem tego, że zmienna losowa przyjmuje wartość \(x_k\).


Należy pamiętać, że teta Heaviside'a jest określona dla dowolnych argumentów w taki sposób, żę wynosi ona 0, gdy argument jest ujemny i wynosi 1 w przeciwnym przypadku. Innymi słowy


\[\theta (g(x)) = \{ {{1 \; \; \; \; \mbox{jeżeli} \; \; \; \; g(x) \ge 0} \atop {0 \; \; \; \; \mbox{jeżeli} \; \;\; \; g(x) <0 }} \]


A2. Delta Diraca \(\delta(x)\)


Obiekt ten nie jest funkcją w tradycyjnym sensie. Jest to funkcja uogólniona, dystrybucja osobliwa, zdefiniowana dla naszych potrzeb przez wyrażenie


\(<\delta, \psi> = \int_{-\infty}^{\infty} \delta(x) \psi(x) dx = \psi(0)\)


dla dowolnej funkcji \(\psi(x)\). Funkcja \(\psi(x)\) jest tzw. funkcja próbną lub funkcją szybko malejąca. Dla nas ta druga klasa jest ważniejsza. Będziemy żądać, aby funkcje \(\psi(x)\) były gładkie (nieskończenie wiele razy różniczkowalne w sposób ciągły) i znikały w \(\pm \infty\) wraz z pochodnymi dowolnegp rzędu pomnożonymi przez wielomiany dowolonego rzędu. Na przykład taką funkcją jest funkcja Gaussa \(\exp(-x^2)\). Korzystając z własności całek otrzymujemy szereg własności delty Diraca. Oto dwie z nich:


\( \int_{-\infty}^{\infty} \delta(x-a) \psi(x) dx = \psi(a)\)


\( \int_{-\infty}^{\infty} \delta(ax) \psi(x) dx = \frac{1}{|a|}\psi(0)\)


Gdybyśmy koniecznie chcieli wyobrazić sobie \(\delta\)-Diraca, to miałaby ona postać funkcyjną


\[\delta (x) = \{ {{0 \; \; \; \; \mbox{jeżeli} \; \; \; \; x \ne 0} \atop {\infty \; \; \; \; \mbox{jeżeli} \; \;\; \; x=0 }} \]

oraz

\( \int_{-\infty}^{\infty} \delta(x) dx = 1\)


Takie przedstawienie \(\delta\)-Diraca jest uzasadnione dzięki twierdzeniu o ciągach delta-podobnych:

Niech dana będzie funkcja \(h(x)\) taka, że


\( \int_{-\infty}^{\infty} h(x) dx = 1\)

to znaczy dowolna funkcja normowalna. Tworzymy ciąg funkcyjny


\(h_{\epsilon}(x) = \frac{1}{\epsilon} h\left(\frac{x}{\epsilon}\right)\)


Wówczas


\(\lim_{\epsilon \to 0} h_{\epsilon}(x) = \delta(x)\)


w takim sensie, że dla dowolnej funkcji \(\psi(x)\) zachodzi relacja


\( \lim_{\epsilon \to 0} \int_{-\infty}^{\infty} h_{\epsilon}(x) \psi(x) dx = \psi(0) = \int_{-\infty}^{\infty} \delta(x) \psi(x) dx \)


Na przykład funkcja Gaussa \(h(x) = (1/\sqrt{\pi} \exp(-x^2)\) jesy unormowana do 1. Ciąg funkcyjny


\(h_{\epsilon}(x) = \frac{1}{\epsilon} h\left(\frac{x}{\epsilon}\right) = \frac{1}{\epsilon \sqrt{\pi}} e^{-(x/\epsilon)^2} \to \delta(x) \; \; \; \mbox{gdy} \; \; \; \epsilon \to 0\)

B. Różniczkowanie całki względem granic całkowania

TWIERDZENIE B1:

Niech funkcja \(f(x)\) będzie funkcją ciągłą na odcinku \([a, b]\) oraz

\[F(x) = \int_a^x f(s) ds\]

Funkcja \(F(x)\) jest funkcją górnej granicy całkowania \(x\). Zachodzi twierdzenie


\[\frac{dF(x)}{dx} = f(x)\]


Innymi słowy, jeżeli różniczkujemy całkę względem górnej granicy całkowania, to w wyniku otrzyumujemy funkcję podcałkową \(f\) w punkcie górnej granicy całkowania \(x\). Oto kilka przykładów:

1. \[F(x) = \int_a^x \sin(s) e^{s+2} ds\]

wówczas

\[\frac{dF(x)}{dx} = sin(x) e^{x+2} \]


2. \[g(y) = \int_{-\infty}^y sin(s) e^{s+2} ds\]

wówczas

\[\frac{dg(y)}{dy} = sin(y) e^{y+2} \]


Zwróćmy uwagę na to, że otrzymane funkcje \(F'\) oraz \(g'\) to te same funkcje, chociaż użyliśmy innych oznaczeń dla argumentów (raz \(x\), raz \(y\)).


BB. Uogólnione twierdzenie rachunku całkowego


TWIERDZENIE B2:

Jeżeli \(h(x)\) jest funkcją różniczkowalną oraz


\[F(x) = \int_a^{h(x)} f(s) ds\]

to


\[\frac{dF(x)}{dx} = f(h(x)) h'(x) = f(h(x)) \frac{dh(x)}{dx}\]


Innymi słowy, wyrażenie to jest pochodną funkcji złożonej:

\[\frac{dF}{dx} = \frac{dF}{dh}\frac{dh}{dx} = f(h) h' \]


Przykład:

Jeżeli

\[F(x) = \int_a^{cos(x)} [3 s^2 + 5s] ds\]

to

\[\frac{dF(x)}{dx} = \{3 [cos(x)]^2 + 5 cos(x)\} [-sin(x)] \]


Jeżeli istnieje potrzeba różniczkowania całḱi

\[G(x) = \int_x^b f(s) ds\]

względem dolnej granicy całkowania to należy skorzystać z własności

\[G(x) = \int_x^b f(s) ds = -\int_b^x f(s) ds\]

i następnie zastosować TWIERDZENIE B1.




C. Transformacja Fouriera

Niech \(f \) będzie funkcją bezwzględnie całkowalną na zbiorze \(R^1\), to znaczy całka

\[ \int_{-\infty}^{\infty} |f(x)| dx < \infty \]

jest liczbą skończoną. Wówczas transformatą Fouriera funkcji \(f\) nazywamy funkcję

\[ h(\omega) = \int_{-\infty}^{\infty} e^{i\omega x} f(x) dx \]

gdzie \(\omega \in R^1\) jest liczbą rzeczywista, Liczba \(\omega\) występuje w całce jako parametr: gdy zmieniamy wartość tego parametru, to w ogólności zmienia się wartość całki, czyli całka ta jest funkcją \(\omega\). Aby zaznaczyć, żą ta nowa funkcja \(h\) jest związana z funkcją \(f\), stosuje się oznaczenie

\[h(\omega) = \hat f(\omega)\]

Stąd w podręcznikach spotyka się następującą formę dla transformaty Fouriera


\[\hat f(\omega) = \int_{-\infty}^{\infty} e^{i\omega x} f(x) dx \]


Odwrotna transformacja Fouriera dana jest przez wzór

\[f(x) = \frac{1}{2\pi} \int_{-\infty}^{\infty} e^{-i\omega x} \hat f(\omega) d\omega \]


W różnych podręcznikach spotyka się różne wzory na transformaty Fouriera. Czytelnik powinien patrzeć łącznie na dwie transformaty: prostą i odwrotną. Wówczas powinny być spełnione dwie relacje:

(i) jeżeli w jednym wzorze występuje w eksponencie \(\pm i\omega x\) to w drugim wzorze występuje w eksponencie \(\mp i\omega x\), to znaczy zawsze powinny być przeciwne znaki

(ii) iloczyn czynników przez całkami dla \(\hat f\) i \(f\,\) powinien zawsze wynosić \(1/2\pi\,\). Czasami używa się symetrycznego zapisu \(1/\sqrt{2\pi}\) w oby całkach. My stosujemy konwencję jak powyżej, ponieważ transformata Fouriera gęstości rozkładu prawdopodobieństwa \(p(x) \) zmiennej losowej \(\xi\) jest funkcją charakterystyczną tej zmiennej losowej:


\[ C(\omega) = \langle e^{i\omega \xi} \rangle = \int_{-\infty}^{\infty} e^{i\omega x} p(x) dx \]


Podobnie jest dla procesu stochastycznego \(\xi(t)\) o gęstości rozkładu prawdopodobieństwa \(p(x, t)\):


\[ C(\omega,t) = \langle e^{i\omega \xi(t)} \rangle = \int_{-\infty}^{\infty} e^{i\omega x} p(x, t) dx \]



D. Momenty statystyczne dla rozkładu Poissona

E. Twierdzenie Poissona dla uogólnionych schematów Bernoulliego

F. Rozkład Gaussa (normalny)