PIZL:Wstęp

Z Skrypty dla studentów Ekonofizyki UPGOW

Wersja Luczka (dyskusja | edycje) z dnia 21:34, 12 maj 2010
(różn.) ← poprzednia wersja | przejdź do aktualnej wersji (różn.) | następna wersja → (różn.)
Kl.png
Ue.png




Spis treści

WSTĘP

Niniejszy skrypt jest przeznaczony w pierwszej kolejności dla studentów autorskiego kierunku studiów "Ekonofizyka" opracowanego przez niektórych pracowników Instytutu Fizyki Uniwersytetu Śląskiego. Autor niniejszego opracowania prowadził przez wiele lat wykłady z procesów stochastycznych. Pierwszy tego typu wykład był przeznaczony dla dyplomantów i doktorantów Uniwersytetu w Augsburgu. Przez lata słuchaczami byli studenci ekonofizyki w ośrodku zamiejscowym w Rybniku. Był on też prowadzony w ramach wykładu monograficznego dla studentów fizyki teoretycznej. Niektóre zagadnienia były częścią wykładu z metod matematycznych dla studentów fizyki medycznej.

Słuchacze tego wykładu na kierunku Ekonofizyka wysłuchali już wykładów ze Statystyki. Na wykładach ze Statystyki przedstawiane są na wstępie elementy rachunku prawdopodobieństwa. Zdecydowałem się na zamieszczenie tutaj elementów rachunku prawdopodobieństwa z dwóch powodów. Po pierwsze, warto powtarzać kilka razy niektóre trudne działy matematyki. Po drugie, skrypt ten powinien być "samowystarczalny" w tym sensie, że nie chciałem bez przerwy odwoływać się do wykładów ze Statystyki lub do podręczników z teorii prawdopodobieństwa. Ponadto chciałem też wprowadzić oznaczenia, jakie używam w tym skrypcie. Moim celem było napisanie książki od "zera" i krok po kroku rozwijać teorię dochodząc do coraz to trudniejszych zagadnień. Nie chciałem, jako człowiek obarczony "syndromem fizyka", stosować metod (jak to złośliwie nazywam) politechnicznych, to znaczy przedstawiać gotowych formuł, wynikających nie wiadomo z czego. Dlatego startuję od "zera", a dokładniej mówiąc od prostego doświadczenia polegającego na wielokrotnym rzucaniu monetą. Chciałem pokazać, że można zacząć od rzucania monetą, aby dojść krok po kroku do skomplikowanych procesów stochastycznych opisywanych przez równania Ito. Postanowiłem maksymalnie uprościć wszystkie wywody, często nie precyzując dokładnie wszystkich założeń jak to robią matematycy. Nie przedstawiam tu też wszystkich komentarzy i uwag, jakie są wypowiadane podczas wykładu. Przez to jest ta książka uboższa. Z drugiej strony, nie jest to "rasowy" podręcznik. Traktuję go jako materiał pomocniczy do wykładu. Chciałbym, aby student nic nie notował podczas wykładu, ale śledził uważnie mój tok rozumowania. Bardziej zależy mi na zrozumieniu niełatwych przecież zagadnień niż na przekazaniu pewnego zasobu wiadomości. Czy to mi się uda? Niech ocenią to moi słuchacze.

Jak to zwykle bywa, podręcznik czy też skrypt nie zadowoli wszystkich. Nie jest to kompletna teoria procesów stochastycznych. Nie jest to skrypt dla matematyków. Ale każdy, kto zna trochę rachunku różniczkowego i całkowego powinien zrozumieć zagadnienia przedstawione poniżej. Prezentowany materiał jest moim wyborem. Wiele zagadnień jest dyskutowanych, przeliczanych, rozwiązywanych na ćwiczeniach, które lubię sam prowadzić. Mam wówczas lepszy kontakt ze studentami i na bieżąco śledzę ich postępy. Wiele zagadnień pokrewnych będzie przedstawiana na innych wykładach. Dlatego skrypt ten jest też bazą dla takich wykładów jak Komputerowe Modelowanie Zjawisk Rynkowych czy Dynamika Stochastyczna.

Od Autora

Wielki sukces fizyki, a ogólniej mówiąc nauk przyrodniczych, polega na tym, że jej odkrycia przyczyniły się do rozwoju cywilizacyjnego naszej planety. Sukces ten jest związany z tym, że podstawowe równania fizyki opisujące dynamikę układów cechuje własność determinizmu. Co to oznacza? Ogólnie mówiąc oznacza to możliwość przewidywania i to jednoznacznego przewidywania. Jest to konsekwencją twierdzeń matematycznych o jednoznaczności rozwiązań równań różniczkowych. Na tym opiera się determinizm mechaniki klasycznej i elektrodynamiki. Determinizm mechaniki kwantowej należy nieco inaczej interpretować. Niezależnie od interpretacji, zarówno przewidywania mechaniki kwantowej jak i kwantowej teorii cząstek elementarnych znakomicie potwierdzone są przez liczne doświadczenia. My możemy przewidzieć tor cząstki, określić precyzyjnie ruch rakiety, generować fale elektromagnetyczne o określonej długości, wyznaczyć różnice między poziomami energetycznymi w atomie wodoru, zbudować tranzystor, układ scalony, komputer, telefon komórkowy, itd, itp. Jeżeli podstawowe prawa fizyki opisują procesy deterministyczne to dlaczego pojawia się losowość wielu zjawisk obserwowanych każdego dnia? Skąd jest ta losowść i ten brak przewidywalności różnych procesów zachodzących na naszej planecie, w naszym kraju, w naszej rodzinie, w naszym organizmie? Odpowiedź nie jest prosta. Ogólnie mówiąc źródłem losowości jest złożoność. Ale złożoność nie jest wystarczająca. Wszelkie formułowane odpowiedzi nie są i nigdy nie będą pełne. Ja przytoczę dwa podstawowe źródła losowości:

A. Własność chaotyczności

B. Makroskopowość układów (kolosalna liczba stopni swobody)

Własność chaotyczności uzmysławia nam złudność pojmowania determinizmu w mechanice klasycznej. Najprościej mówiąc, własność chaotyczności oznacza to, że dwie początkowo nieskończenie bliskie trajektorie oddalają sie od siebie. Jeżeli nie jesteśmy w stanie odróżnić dwóch nieskończenie bliskich trajektorii ( a nie jesteśmy) to nie wiemy po której z dwóch trajektorii porusza się układ. A jak nie wiemy, to oznacza brak standardowego determinizmu.

Układy makroskopowe składają się z niesłychanie wielkiej liczby składników (cząstek, molekuł, makromolekuł). Ich opis metodami mechaniki (klasycznej lub kwantowej) jest nieefektywny. Co mam na myśli? Czy jestem w stanie analizowac układ równań różniczkowych zwyczajnych drugiego rzędu dla 1023 cząstek. Czy jestem w stanie podać \(2\times 10^{23}\) położeń początkowych i prędkości początkowych wszystkich cząstek? Czy jestem w stanie śledzić trajektorie wszystkich cząstek? Odpowiedź jest oczywista: NIE! Dlatego powstała inna efektywna metoda oparta na teorii nazywanej fizyką statystyczną. W tej teorii nie podajemy wszystkich położeń i prędkości cząstek, ale wielkość którą nazywamy rozkładem prawdopodobieństwa położeń i prędkości. Teoria ta jest efektywna. Ale nie tkwi w niej determinizm mechaniki Newtona. Tkwi w niej losowość.

Uwagi

W książce tej systematycznie i konsekwentnie używam oznaczeń: \(\xi, \; \xi_1, \; \xi_k, \; \eta, ...\) dla zmiennych losowych oraz \(\xi(t), \; \xi_1(t), \; \xi_k(t), \; \eta(t), ...\) dla procesów stochastycznych. Unikam stosowanego przez fizyków zapisu \(x(t), \; y(t), ...\) czy zapisu \(X_t, \; Y_t, ...\) stosowanego przez matematyków dla oznaczenia procesów stochastycznych. Po koniec wykładów na temat równań Ito, oznaczam proces stochastyczny przez \(X(t)\). Głównym powodem takich oznaczeń jest poziom opanowania i zrozumienia pojęcia funkcji. Moja wieloletnia praktyka pokazuje, że to co dla matematyków i lepiej wykształconych matematycznie fizyków jest oczywiste, dla studentów - niekoniecznie. Wieloletni brak matury z matematyki zrobił swoje. Spustoszenie jest ogromne. Oto "krajobraz po bitwie": dla przeciętnego studenta \(f(x) =2 x^2\) jest inną funkcją niż \(h(a) = 2 a^2\). Dlatego wolę konsekwentnie pisać

\(<\xi(t)> = \int_{-\infty}^{\infty} x \; p(x, t) \;dx\)

Często zapis

\(<x(t)> = \int_{-\infty}^{\infty} x \; p(x, t) \;dx\)

prowadzi wśród studentów do nieporozumień, którzy utożsamiają wielkość \(x(t)\) ze zmienną całkowania \(x\). Fizycy często stosują taki oto zapis


\(<x> = \int_{-\infty}^{\infty} x \; p(x) \;dx\)


Dla mnie ten zapis może być zrozumiały (np. może to być średnie położenie czastki) ale jest to wyjątkowo niefortunny zapis i każdy matematyk stwierdzi, że jest to błędny zapis ponieważ symbol \(x\) z lewej strony tego równania nie ma nic wspólnego ze zmienną całkowania \(x\) po prawej stronie równania, którą mogę oznaczać dowolnymi literami.

Zbiory

PODSTAWOWE POJĘCIA NA TEMAT ZBIORÓW

Często będziemy posługiwali się pojęciem zbiorów i będziemy dokonywać różnych operacji na zbiorach. Dlatego też przypomnimy podstawowe pojęcia i wprowadzimy oznaczenia, które będziemy stosować w dalszej części książki.

Oznaczmy przez \(\Omega\) zbiór, który nazwiemy przestrzenią. Niech \(A, B, ...\) będa podzbiorami zbioru \(\Omega\).

Sumą zbiorów nazywamy zbiór złożony ze wszystkich elementów należących do któregokolwiek z sumowanych zbiorów. Suma zbiorów \(A \) i \( B \) jest oznaczana przez \(A\cup B\). Tak więc:

\(A\cup B=\{x:x\in A\vee x\in B\}\)

Zapis ten odczytujemy następująco: jest to zbiór tych elementów x które należą do zbioru \(A\) lub należą do zbioru \(B\).

Iloczyn (lub część wspólna, przekrój, przecięcie) zbiorów \( A \) i \( B \) to zbiór, do którego należą te elementy zbioru \( A \), które należą również do \( B \). Część wspólna zbiorów \( A \) i \( B \) jest oznaczana przez \(A\cap B\). Tak więc:

\(A\cap B=\{x:x\in A\wedge x\in B\}\).

Zapis ten odczytujemy następująco: jest to zbiór tych elementów x które należą do zbioru \(A\) i jednocześnie należą do zbioru \(B\).


Różnica zbiorów A\B - to zbiór złożony z tych elementów zbioru A, które nie należą do B:

\(A \setminus B = \{ x : x\in A \and x \notin B\}\).

Zapis ten odczytujemy następująco: jest to zbiór tych elementów x które należą do zbioru \(A\) lecz nie należą do zbioru \(B\).


Dopełnieniem \(A'\) zbioru \(A\) (w przestrzeni \(\Omega\)) nazywa się różnica zbiorów

\(A'=\Omega \setminus A = \{x \in \Omega\colon x \notin A\}\),

Zapis ten odczytujemy następująco: jest to zbiór tych elementów x z przestrzeni \(\Omega\), które nie należą do zbioru \(A\).


Zbiór pusty jest to taki "dziwny" zbiór, który nie zawiera żadnych elementów. Oznaczany jest symbolem \(\empty\) lub \(\varnothing\).

Zbiory rozłączne – dwa zbiory \(A\) i \(B \) są rozłączne jeżeli ich część wspólna jest zbiorem pustym:

\(A\cap B=\empty\).

Inaczej mówiąc, zbiory te nie mają wspólnych elementów.

Na przykład, zbiory {1 ,2, 5, 8, 9} i {4, 6} są rozłączne, natomiast zbiory {2, 3, 5, 7, 8} i {2, 5, 6} – nie.

Rodzinę zbiorów| \((A_i)_{i\in I}\) nazywa się rodziną zbiorów parami rozłącznych, jeśli każde dwa różne zbiory tej rodziny są rozłączne: \[i\ne j \implies A_i\cap A_j = \emptyset\]