poniedziałek, 19 listopada 2012

Aproskymacja i Procesy Losowe

W punkcie II rozpatrywaliśmy zmienne losowe, które zależały tylko od przypadku czyli od \omega \in \Omega, w praktyce spotyka się na ogół bardziej skomplikowane wielkości losowe , które zmieniają się wraz ze zmianą pewnego parametru t \in T, są one zatem zależne zarówno od przypadku, jak i od wartości tego parametru. Inaczej mówiąc dla opisu wyniku doświadczenia nie wystarcza już punkt przestrzeni , a niezbędna jest funkcja wspomnianego parametru. Jednym z historycznie pierwszych przykładów takich wielkości jest każda współrzędna cząsteczki w tzw. ruchu Browna, która nie tylko jest zmienną losową, ale także zależy od czasu. Innym przykładem są szumy zniekształcające sygnały radiowe, które są zmiennymi losowymi (np. z powodu z wyładowań atmosferycznych), a także zależą od czasu. Także liczba zadań (procesów) w systemie komputerowym, czy liczba pojazdów przejeżdżające przez dane skrzyżowanie są zmiennymi losowymi zależnymi również od czasu. Podkreślmy, że parametrem od którego zależą wymienione (i inne wielkości losowe) zmienne losowe nie musi być czas np. w ruchu turbulentnym prędkość cząsteczki cieczy jest zmienną losową (trójwymiarową) zależną do punktu przestrzeni. W ogólności parametr, o którym mówimy nie musi mieć w ogóle żadnej interpretacji fizycznej. Rozszerzenie teorii prawdopodobieństwa pozwalające badać zmienne losowe zależne od danego parametru nazywa się teorią procesów losowych (przypadkowych,stochastycznych).
Uwaga
Niektórzy autorzy rezerwują pojęcie proces dla sytuacji, gdy omawiany parametr jest czasem, w pozostałych sytuacjach mówiąc o funkcjach losowych. Nie będziemy czynić tego rozróżnienia, które nie ma żadnego znaczenia matematycznego tymbardziej, że w rozpatrywanych przez nas sytuacjach praktycznych t będzie zawsze czasem.
Powyższe rozważania prowadzą do następujących definicji.

Definicja 1
Procesem losowym nazywamy rodzinę zmiennych losowych
\{X_t(\omega), t \in T\}
zależnych od parametru t i określonych na danej przestrzeni probabilistycznej (Ω,A,P).
Innymi słowy proces losowy to losowa funkcja parametru t, czyli taka funkcja, która \forall{t \in T} jest zmienną losowa.
Zmienną losową Xt, którą proces losowy jest w ustalonej chwili t \in T nazywamy wartością tego procesu.
Zbiór wartości wszystkich zmiennych losowych X_t(\omega), t \in T , nazywamy przestrzenią stanu procesu losowego lub przestrzenią stanu.
Jeśli zbiór jest skończony lub przeliczalny, to mówimy o procesach losowych z czasem dyskretnym. W pierwszym wypadku mamy do czynienia z n-wymiarową zmienną losową, a w drugim z odpowiednim ciągiem zmiennych losowych.

Choć niektóre klasy procesów losowych z czasem dyskretnym (np. łańcuchy Markowa) zasługują na uwagę, to jednak w dalszym ciagu skoncentrujemy się na procesach losowych z czasem ciągłym czyli takich, dla których T jest nieprzeliczalne.
Dla głębszego zrozumienia natury procesu losowego spójrzmy nań jeszcze z innej strony. Jak pamiętamy zmienna losowa przyporządkowywała zdarzeniu losowemu punkt w przestrzeni Rn. W przypadku procesu losowego mamy do czynienia z sytuacją gdy do opisu wyniku doświadczenia niezbędna jest funkcja ciągła, zwana realizacją procesu losowego.
W dalszym ciągu zakładamy, że mamy do czynienia ze skończonymi funkcjami losowymi, a zbiór wszystkich takich funkcji (realizacji) będziemy nazywali przestrzenią realizacji procesu losowego. Prowadzi to do drugiej definicji:
Definicja 2
Procesem losowym nazywamy mierzalną względem P transformację przestrzeni zdarzeń elementarnych Ω w przestrzeni realizacji, przy czym realizacją procesu losowego nazywamy każdą skończoną funkcją rzeczywistą zmiennej t \in T.
Definicja powyższa wynika ze spojrzenia na proces losowy jako na funkcję dwóch zmiennych  t \in T i  \omega \in \Omega , ustalając t otrzymujemy zmienną losową , a ustalając ω otrzymujemy realizację .
Na ogół na przestrzeń realizacji procesu losowego narzuca się pewne ograniczenia np. żeby to była przestrzeń Banacha (niezerowa i zwyczajna).
Reasumując: graficznie można przedstawić te dwa punkty widzenia w następujacy sposób.
Pełne oznaczenie procesu losowego ma zatem postać
\{X_t(\omega) : t \in T\}, lub X(\omega, t), t \in T, \omega \in \Omega
przy czym w obu wypadkach zakłada się, że jest określona przestrzeń probabilistyczna (\Omega, \mathcal{A}, P).

Ponieważ jednak zależność od ω jako naturalną zwykle się pomija, otrzymujemy:
\{X_t : t \in T\} , lub X(t) : t \in T .
Ponadto, jeśli zbiór T jest zdefiniowany na początku rozważań to pomija się także zapis t \in T i w rezultacie otrzymujemy :
Xt, lub X(t).
Oznaczenie X(t) może zatem dotyczyć całego procesu losowego, jego jednej realizacji (dla ustalonego ω) lub jego jednej wartości, czyli zmiennej losowej (dla ustalonego t). Z kontekstu jednoznacznie wynika, o co w danym zapisie chodzi.
Przejdźmy do zapisu procesu losowego X(t). Będziemy rozpatrywać wyłącznie procesy losowe rzeczywiste (proces losowy zespolony ma postać: X(t) = X1(t) + iX2(t), gdzie X1(t) i X2(t) są procesami losowymi rzeczywistymi).
Ponieważ \forall{t \in T} proces losowy Xt jest zmienną, więc jego pełny opis w chwili t stanowi pełny rozkład prawdopodobieństwa tej zmiennej losowej. Rozkład taki nazywamy jednowymiarowym rozkładem prawdopodobieństwa procesu losowego. Jest on scharakteryzowany przez jednowymiarową dystrybuantę procesu losowego, w postaci :
F(x,t) = P[X(t) < x]

Oczywiście rozkład jednowymiarowy procesu losowego nie charakteryzuje wzajemnej zależności między wartościami procesu (zmiennymi losowymi) w różnych chwilach. Jest on zatem ogólny tylko wtedy gdy dla dowolnych układow t_1, t_2, \cdots wartości procesu losowego,są ciągami zmiennych losowych niezależnych, co na ogół nie zachodzi. W ogólności musimy zatem rozpatrywać łączny rozkład wartości procesu w różnych chwilach.
Definicja
n-wymiarowym rozkładem prawdopodobieństwa procesu losowego nazywamy łączny rozkład prawdopodobieństwa i jego wartości dla dowolnego układu chwili t1,t2,...,tn , czyli łączny rozkład prawdopodobieństwa wektora losowego [X(t1),X(t2),...,X(tn)] opisany n - wymiarową dystrybuantą procesu losowego :
F(x1,t1;x2,t2;...;xn,tn) = P(X(t1) < x1,X(t2) < x2,...,X(tn) < xn)

[edytuj] Momenty procesu losowego

Podobnie jak dla zmiennych losowych również dla procesów losowych definiuje się pewne proste charakterystyki rozkładu, w szczególności momenty. Mając jednowymiarowy rozkład procesu możemy określić jego jednowymiarowe momenty np. zdefiniowane poniżej.

Definicja
Wartością średnią procesu losowego X(t) nazywamy funkcję m(t), która \forall{t \in T} jest wartością średnią zmiennej losowej X(t), którą jest proces w chwili t:
m(t) = E[X(t)]
Definicja
Wariancją procesu losowego X(t) nazywamy funkcję σ2(t), która \forall{t \in T} jest wariancją zmiennej losowej X(t), którą jest proces w chwili t:
σ2(t) = D2[X(t)] = E[X(t) − m(t)]2
Oczywiście jednowymiarowe momenty procesu losowego nie charakteryzują jego zależności pomiędzy wartościami procesu w różnych chwilach. Żeby opisywać te zależności musimy rozpatrywać wyższe momenty, w szczególności rozpatrzymy 2 różne chwile t1,t2 .
Definicja
Funkcję korelacyjną procesu losowego X(t) definiujemy jako:
Rx(t1,t2) = E{[X(t1) − m(t1)][X(t2) − m(t2)]}
Analogicznie można zdefiniować momenty procesu losowego dla ukladu chwil t_1,t_2,\cdots,t_n) np.: funkcję korelacyjną rzędu n dana wzorem
R_x(t_1,t_2,...,t_n) = E \{[X(t_1) - m(t_1)][X(t_2) - m(t_2)]\cdots[X(t_n) - m(t_n)]\}

Jednak w większości sytuacji praktycznych wystarczy znajomość momentu rzędu 1 i 2 procesu losowego. Teoria procesów losowych oparta na znajomości tych momentów nazywa się teorią korelacyjną procesów losowych. Teoria ta jest ogólna dla procesów losowych normalnych (gaussowskich), tzn. takich, których wszystkie skończenie wymiarowe rozkłady są normalne.
W praktyce zachodzi często potrzeba rozpatrywania kilku procesów losowych (np. w układach sterowania wielowymiarowych z wieloma we i wy). Mówimy wówczas o wektorowych procesach losowych. Ograniczając się do n = 2, czyli do procesu dwuwymiarowego [X(t),Y(t)] rozpatrzmy go w dwóch różnych chwilach. Możemy zdefiniować tzw. funkcję korelacji wzajemnej określoną wzorem:
RXY(t1,t2) = E{[X(t1) − mX(t1)][Y(t2) − mY(t2)]}

Dla odróżnienia funkcje korelacyjne zdefiniowane uprzednio dotyczące pojedynczych procesów losowych nazywa się funkcjami korelacji własnej (autokorelacji) i oznacza przez RXX(t1,t2) i RYY(t1,t2).
Macierz:
\begin{bmatrix}R_{XX}(t_1,t_2) & R_{XY}(t_1,t_2) \\
R_{YX}(t_1,t_2) & R_{YY}(t_1,t_2)
\end{bmatrix}
nazywa się macierzą korelacyjną procesu wektorowego [X(t),Y(t)].

[edytuj] Procesy stacjonarne

Ponieważ ogólna teoria procesów losowych jest dla celów praktycznych zbyt skomplikowana rozpatruje się pewne klasy tych procesów spełniających dodatkowe założenia i upraszczające analizę. W dalszych punktach rozpatrzmy kilka takich klas zaczynając od procesów stacjonarnych. Rozpatruje się procesy stacjonarne w sensie węższym i szerszym.
Definicja
Proces losowy X(t) nazywamy stacjonarnym w węższym sensie, jeśli dla dowolnego n \in N, dla dowolnego układu chwil t1,t2,...,tn dla dowolnego h takiego, że \forall_{t_i, 1 \le i \le n} (t_i+h \in T) zachodzi:
F(x1,t1;x2,t2;...;xn,tn) = F(x1,t1 + h;x2,t2 + h;...;xn,tn + h)
W szczególności dla n = 1 mamy:
F(x,t) = F(x,t + h)
co oznacza, że F(x,t) = F(x), zatem jednowymiarowe momenty takiego procesu nie zależą od t, w szczególności m(t) = m = const.

Dla n = 2 mamy:
F(x1,t1;x2,t2) = F(x1,t1 + h;x2,t2 + h)
czyli
F(x1,t1;x2,t2) = F(x1,x2,τ)
gdzie τ = t2t1.
Widzimy zatem, że dla procesu stacjonarnego w węższym sensie wartość średnia m(t), jeśli istnieje jest stała, a funkcja korelacji własnej RXX, jeśli istnieje zależy tylko od τ = t2t1.

Definicja
Proces losowy X(t) , dla którego istnieją m(t) i Rx(t1,t2) nazywamy stacjonarnym w szerszym sensie, jeśli m(t) = m = const
RX(t1,t2) = RX(τ) , τ = t2t1.
Łatwo wykazać twierdzenie:
Twierdzenie
Proces stacjonarny X(t) w węższym sensie, dla którego E[X^2(t)]<\infty jest stacjonarny w szerszym sensie.
Dla procesów normalnych (gaussowskich) słuszne jest również twierdzenie odwrotne.
Z pojęciem stacjonarności wiąże się pojęcie procesu losowego o przyrostach stacjonarnych.
Definicja
Proces losowy X(t) nazywamy procesem o przyrostach stacjonarnych, jeśli dla dowolnego δ takiego, że \forall_{t \in T}{t+\delta \in T} proces losowy Y(t) = X(t + δ) − X(t) jest stacjonarny węższym sensie.

[edytuj] Procesy o przyrostach niezależnych i procesy Markowa

Definicja
Proces losowy X(t) nazywamy procesem o przyrostach niezależnych jeżeli dla dowolnego ukladu t_1 < t_2 < \cdots < t_n \in T (uporządkowany układ chwil) zmienne losowe X(t_1),X(t_2)-X(t_1),\cdots ,X(t_n) - X(t_{n-1}) są niezależne.
Ważną klasą procesów niezależnych stanowią procesy Poissona.
Definicja
Proces losowy X(t) nazywamy procesem Markowa jeśli dla każdego t_1 < t_2 < \cdots < t_n \in T oraz dla dowolnych liczb rzeczywistych x_1,x_2,\cdots,x_n zachodzi
P[X(t_n) < x_n | X(t_{n-1}) = x_{n-1},X(t_{n-2}) = x_{n-2}, \cdots , X(t_1) = x_1] = P[X(t_n) < x_n | X(t_{n-1}) = x_{n-1}]

Jak widać dla procesu Markowa rozkład warunkowy jego wartości w chwili X(tn) przy danych wartościach X(t_1), X(t_2), \cdots , X(t_{n-1}) zalezy tylko od X(tn − 1). Oznacza to, że własności procesu Markowa w dowolnej chwili tn zależą tylko od jego wartości w tej chwili oraz w chwili tn − 1, a nie zależą od jego wartości w chwilach poprzedzających chwilę tn − 1. Własność ta nazywa się własnością Markowa lub własnością braku pamieci.
Zauważmy, że oznacza to, iż proces Markowa jest w pełni opisany przez dystrybuantę warunkową F(x,y,s,t) = P[X(t) < x | X(s) = y],s < t lub przez łączna dystrybuantę wektora losowego [X(t),X(s)] wraz z dystrybuantą tzw. początkową F(s,y) = P[X(s) < y]. Widzimy zatem, że proces Markowa jest w pełni opisany przez rozkład dwuwymiarowy.
Twierdzenie
Proces losowy X(t) o przyrostach niezależnych, dla którego P[X(t1) = c] = 1 (gdzie c to dowolna stała) jest procesem Markowa (ale nie odwrotnie).
Zobacz też listę procesów stochastycznych na angielskiej wikipedii.

[edytuj] Ergodyczność procesów losowych

Zauważmy, że w celu wyznaczenia momentu procesu losowego musielibyśmy dysponować jednocześnie wszystkimi jego realizacjami, co w praktyce jest na ogół niemożliwe. W naturalny sposób powstaje więc pytanie, przy jakich założeniach można na podstawie pojedynczej realizacji procesu wyznaczyć jego momenty.
Odpowiedź na to pytanie jest przedmiotem tzw. twierdzeń ergodycznych, a procesy losowe dla których średnie po czasie (z pojedynczej realizacji) mogą być utożsamiane z odpowiednimi średnimi po zbiorze nazywają się procesami ergodycznymi względem odpowiedniego momentu (np. wartości średniej czy f. korelacyjnej).
Można wykazać, że dla obszernej klasy procesów stacjonarnych warunek wystarczający ergodyczności względem wartości średniej i funkcji korelacyjnej ma postać:
\lim_{\tau \rightarrow \infty} R_x(\tau) = 0
Zatem dla procesów stacjonarnych spełniajacych powyższy warunek mamy
E[X(t)] = m \approx {1 \over T} \int_0^T X(t)dt
oraz
E \{ [X(t)-m][X(t+\tau)-m]\} = R_x(\tau) \approx {1 \over T} \int_0^T[X(t)-m][X(t+\tau)-m]dt

Materiał pobrany z  http://putwiki.informatyka.org/wiki/Procesy_losowe


 Aproksymacja jest dziełem analizy numerycznej zajmującym się najbardziej ogólnymi zagadnieniami przybliżania funkcji, polegającymi na wyznaczaniu dla danej funkcji f(x) takich funkcji F(x),które w określonym sensie najlepiej przybliżają funkcję f(x).

Potrzeba przybliżenia danej funkcji inną funkcją pojawia się w wielu zadaniach. Może mieć np. zastosowanie przy obliczaniu funkcji standardowych lub wtedy, gdy funkcja f(x) jest zdefiniowana bardzo skomplikowanym wzorem. Jednym ze sposobów rozwiązania tego zadania jest przybliżanie funkcji f(x) sumami częściowymi ich rozwinięć w szeregi Taylora.

Zadania aproksymacyjne mogą być formułowane bardzo różnie, w zależności od przyjętego sposobu oszacowania błędów aproksymacji. Wyróżnia się trzy rodzaje aproksymacji:



  • aproksymację interpolacyjną
  • aproksymację jednostajną
  • aproksymację średniokwadratową



  • rysunek 5.6


    W przypadku aproksymacji interpolacyjnej, podobnie jak w zagadnieniu interpolacji, żądamy spełnienia warunku, aby funkcja dana f(x) i funkcja szukana F(x) przyjmowały dokładnie te same wartości na zbiorze z góry ustalonych punktów węzłowych (rys. 5.6). Warunek ten może być uzupełniony warunkami wyrażającymi równość pochodnych w węzłach, jeżeli wartości pochodnych zostaną zadane.





    rysunek 5.7


    W przypadku aproksymacji jednostajnej funkcję przybliżamy taką funkcją w całym przedziale [a,b]- (rys.5.7)


    (5.61)


    Twierdzenie Weierstrassa gwarantuje że zawsze można znaleźć wielomian o dowolnie małym odchyleniu od funkcji f(x) na przedziale [a,b]. Nie ma jednak ogólnej metody umożliwiającej znajdowanie wielomianu najlepszego przybliżenia jednostajnego stopnia n dla dowolnej funkcji ciągłej na [a,b].

    W przypadku aproksymacji średniokwadratowej jako miarę odchylenia funkcji od danej funkcji przyjmujemy wielkość


    (5.62)


    zwaną odchyleniem kwadratowym. Funkcja aproksymująca wyznaczana jest z warunku, aby wartość wyrażenia (5.62) była możliwie najmniejsza. Geometrycznie warunek ten wyraża żądanie, aby pole powierzchni między liniami reprezentującymi funkcję było minimalne. Jest to pole zakreskowane na rysunku 5.8.

    rysunek 5.8

    Zagadnienia aproksymacji jednostajnej i aproksymacji średniokwadratowej są również formułowane dla funkcji określonych na dyskretnym zbiorze argumentów. Dla takich funkcji warunek (5.61) dotyczący aproksymacji jednostajnej zmienia się w ten sposób, że zamiast ciągłej zmiennej niezależnej x występuje w nim zmienna dyskretna Xi.


    (5.63)


    a w rachunku (5.62) na minimum odchylenia kwadratowego całka jest zastępowana sumą


    (5.64)


    Aproksymacja średniokwadratowa funkcji określonych na dyskretnym zbiorze argumentów jest najczęściej wykorzystywana w zastosowaniach praktycznych do wygładzania danych eksperymentalnych i wyników obliczeń ze względu na mniej skomplikowane algorytmy jej realizacji numerycznej w porównaniu z algorytmami aproksymacji jednostajnej i możliwość uzyskiwania dobrych przybliżeń funkcji f(x). W niektórych przypadkach istnieją przesłanki teoretyczne co do doboru postaci wzoru dla funkcji aproksymującej ( wskazując dostatecznie wąską klasę funkcji np. zbiór funkcji liniowych, potęgowych, wykładniczych itp. )- wtedy określamy tylko wartości liczbowe parametrów, przy których przybliżenie danej funkcji jest najlepsze.

    Aproksymacja średniokwadratowa wielomianami



    W zadaniach aproksymacji średniokwadratowej wielomianami funkcji aproksymującej F(x) wygodnie jest poszukiwać w postaci wielomianu uogólnionego


    (5.65)



    będącego kombinacją liniową liniowo-niezależnych funkcji. Rozważając aproksymację średniokwadratową funkcji y=f(x) określonej na dyskretnym zbiorze argumentów współczynniki ai j=0,1...m funkcji (5.65) przyjmujemy tak , żeby funkcja



    (5.66)



    osiągnęła wartość minimalną. Zgodnie z ogólnymi metodami rachunku różniczkowego funkcja osiąga minimum wtedy i tylko wtedy ,gdy znikają pochodne cząstkowe względem wszystkich zmiennych a0,a1...ai :




    Stąd otrzymujemy układ m+1 równań z m+1 niewiadomymi współczynnikami , z układem normalnym :


    (5.67)






    w którym wprowadzono skrócone oznaczenie


    (5.68)



    Układ równań (5.67) ma dokładne jedno rozwiązanie dla liniowo - niezależnego układu funkcji:



    Macierz współczynników (5.67) jest macierzą symetryczną i dodatnio określoną. Dla układu funkcji bazowych tworzących ciąg wielomianów
    układ równań (5.67) przyjmie postać:


    (5.69)





    gdzie:


    (5.70)






    Wielomian aproksymujący daną funkcję f(x) w sensie najmniejszych kwadratów


    (5.71)



    powinien mieć stopień na tyle wysoki, aby dostatecznie przybliżał funkcję f(x), a jednocześnie mieć stopień wystarczająco niski, aby wielomian ten wygładzał błędy losowe np. z pomiarów. Jeśli m=n, to wielomian aproksymujący Qm(x) pokrywa się z wielomianem Lagrange'a dla układu punktów: x<0,x1, ... xm i S=0 wtedy . Wiadomo, że dla m=>6 układ (5.69) jest układem źle uwarunkowanym, wskutek czego otrzymane wyniki mogą być bardzo zaburzone i nie nadawać się do praktycznego wykorzystania. Podobnie więc jak w przypadku interpolacji aproksymację średniokwadratową wielomianami potęgowymi (5.71) można zastosować tylko dla małych wartości m. Trudności obliczeniowe związane z aproksymacją średniokwadratową za pomocą wielomianów wyższych stopni mogą być zmniejszone przy wykorzystaniu wielomianów ortogonalnych.
    Średniokwadratowa aproksymacja trygonometryczna

    W zagadnieniach , w których funkcja f(x) jest okresowa wygodnie jest taką funkcję aproksymować nie wielomianami algebraicznymi, a wielomianami trygonometrycznymi - tym bardziej, że ich odchylenia kwadratowe od funkcji f(x) jest najmniejsze w porównaniu z odchyleniami kwadratowymi dla innych wielomianów.
    Jeżeli funkcja f(x) o okresie jest określona na dyskretnym zbiorze punktów i dane punkty są równoległe, to korzystając z warunków ortogonalności zbioru funkcji:

                
    obliczamy współczynniki wielomianu trygonometrycznego


    poniedziałek, 12 listopada 2012

    Interpolacja

    Zmienne losowe.

    ZMIENNE LOSOWE i ich ROZKŁADY
    (wybrane zagadnienia)
    • zmienne losowe (definicja, podział, oznaczenia)
    • dystrybuanta, funkcja prawdopodobienstwa, funkcja gestosci
    • wybrane parametry rozkładu zmiennej losowej
    • standaryzacja zmiennej losowej
    • wybrane rozkłady zmiennych losowych
    (normalny, chi-kwadrat, t-Studenta)
    • wykorzystanie tablic statystycznych (odczytywanie informacji)
    Je1eli wartosci zmiennej (cechy) sa okreslone przez
    przypadek (tzn. przyjmuje ona te wartosci z okreslonymi
    prawdopodobienstwami), to mówimy, 1e zmienna ta jest
    zmienna losowa.
    Zmienne losowe dzielimy na:
    • ciagłe; zmienna przyjmuje dowolne wartosci z okreslonego
    przedziału (w szczególnosci cały zbiór liczb rzeczywistych)
    • skokowe (dyskretne); zmienna przyjmuje dowolne
    wartosci ze zbioru przeliczalnego (np. zbiór liczb całkowitych
    z okreslonego przedziału)
    Oznaczenia (analogicznie jak przy cechach statystycznych):
    • du1e litery (X, T, U, ...) - zmienna losowa
    • małe litery (x, t, u, ...) - wartosci zmiennej losowej
    PRZYKŁAD
    Rzucamy kostka szescienna do gry.
    Liczba wyrzuconych oczek jest zmienna losowa (X).
    Wynik ka1dego rzutu jest wartoscia tej zmiennej (x).
    Zbiór wartosci zmiennej losowej jest nastepujacy: x { }.



    PRZYKŁAD:

    Jaka jest wartosc zmiennej losowej U:N(0;1), która spełnia warunek
    P( U < ? ) 0,05
    Jest to równowa1ne znalezieniu takiej liczby „?”, która spełnia warunek
    ( ? ) 0,05
    W tablicy dystrybuanty rozkładu normalnego N(0;1) na stronie [1] (w jej
    czesci wewnetrznej) wyszukujemy wartosc najbli1sza liczbie 0,05 .
    Na brzegach tablicy (boczek i główka tablicy) odczytujemy poszukiwana
    wartosc zmiennej U.


    Poszukiwana wartoscia zmiennej losowej U jest liczba –1,64 .

    Spełnia ona warunek P( U < -1,64 ) 0,05 .
    Zauwa1my jednoczesnie, 1e liczba przeciwna do niej (1,64) spełnia warunek
    P( U < 1,64 ) = (1,64) 0,95 .
    Oznacza to, 1e na mocy własnosci (b) ze s. 3 spełnia ona równie1 warunek
    P( U > 1,64 ) 0,05
    poniewa1 P( U > 1,64 ) = 1 - P( U < 1,64 ) = 1 – (1,64) ) 1 - 0,95 0,05 .
    Więcej informacji: 
    http://www.mm.pl/~mmiszczynski/index/Tomaszow/Statystyka/Wyklad8.pdf

    poniedziałek, 5 listopada 2012

    Korelacja

    Odpowiedź na pytanie co to jest korelacja zacznę od zadania pomocniczych pytań.
    Czy pomiędzy zarobkami a wydatkami na lody istnieje jakiś związek?
    Czy pomiędzy ceną lodów a tym ile ich kupuję istnieje jakiś związek?
    Czy pomiędzy czasem poświęconym na naukę statystyki a oceną z kolokwium istnieje jakiś związek?
    Przy odrobinie dobrej woli na wszystkie te pytania można odpowiedzieć twierdząco.
    Tak istnieje związek. Im więcej zarabiam tym więcej mogę kupić lodów. Im mniej zarabiam tym (niestety) lodów mogę kupić mniej.
    Tak istnieje związek. Im lody są droższe tym mniej ich kupuję. Im są tańsze tym kupuję ich więcej!
    Tak istnieje związek. Gdy uczę się dużo mam dobrą ocenę. Gdy uczę się mało kolokwium jest niezaliczone.
    Zatem między tymi parami cech (zarobki i wydatki na lody, cena lodów i ilość kupowanych przeze mnie lodów, czas nauki i ocena) istnieje związek. Taki związek nazywamy właśnie korelacją.
    Korelacja (współzależność, współwystępowanie)  - czyli coś na coś wpływa, coś od czegoś zależy.
    Mogą być trzy przypadki:
    1. Między cechami występuje korelacja dodatnia.
    2. Między cechami występuje korelacja ujemna.
    3. Między cechami nie wystepuje korelacja.
    Co to znaczy, że między cechami występuje korelacja dodatnia?
    Weźmy przykład z zarobkami i wydatkami na lody. Im więcej zarabiam tym więcej mogę wydać na lody. Im mniej zarabiam tym mniej mogę wydać na lody. Zmiany wartości obu cech następują w tym samym kierunku. Albo obie rosną (zarobki i ilość kupowanych lodów rośnie) albo obie maleją (zarobki i ilość kupowanych lodów maleje).
    Korelacja dodatnia oznacza, że wartości obu cech zmieniają się w tym samym kierunku (obie rosną bądź obie maleją).
    Co to znaczy, że między cechami występuje korelacja ujemna?
    Jeśli cena lodów rośnie kupuję ich mniej (jakby pudełko lodów kosztowało 1000zł w ogóle bym ich nie kupował).
    Gdy cena lodów spada kupuję ich więcej (gdyby pudełko lodów kosztowało 1zł, codziennie na śniadanie jadłbym jedno - ze stratą dla mojej sylwetki no ale coś za coś…).
    Zmiany wartości obu cech następują w przeciwnych kierunkach. Gdy wartości jednej cechy rosną (rośnie cena lodów), wartości drugiej cechy maleją (kupuję mniej lodów). I na odwrót. Gdy wartości jednej cechy maleją (maleje cena lodów), wartości drugiej cechy rosną (kupuję więcej lodów).
    Korelacja ujemna oznacza, że wartości obu cech zmieniają się w przeciwnym kierunku (gdy jedna rośnie, druga maleje).
    Co to znaczy, że między cechami nie występuje korelacja?
    Czy pomiędzy moimi zarobkami a liczbą bocianów na łące istnieje jakiś związek?
    Nie, nie ma związku. Moje zarobki nie wpływają na liczbę bocianów (no chyba, że bym je dokarmiał kupując żaby)  ani liczba bocianów nie wpływa na moje zarobki! Między tymi cechami nie ma związku - czyli nie ma korelacji!
    W jaki sposób obliczyć korelację?
    To, że między zarobkami a wydatkami na lody istnieje korelacja jest tylko przypuszczeniem (graniczącym z pewnością ale wciąż przypuszczeniem). Aby być tego pewnym musimy to… policzyć!
    Jest wiele miar służących do wyliczania korelacji między badanymi cechami. Najpopularniejszymi z nich są:
    1. Współczynnik korelacji liniowej Pearsona.
    2. Współczynnik korelacji rang Spearmana.
    3. Współczynnik zbieżności Czuprowa.
    W kolejnych lekcjach na przykładach pokażę sposoby obliczania korelacji za pomocą tych trzech miar.
    Literatura:
    http://zsi.tech.us.edu.pl/~nowak/ed/korelacje.pdf 

    Zadania:
    http://www.wkuwanko.pl/ekonomia/ekonomia-korelacja---zadania_22_359.html 



    Metody iteracyjne.

    Metody iteracyjne

    M.i. służą do przybliżonego rozwiązywania układów równań. Rozwiązanie otrzymuje się w wyniku pewnego postępowania sekwencyjnego, przy czym w każdym jego kroku uzyskuje się przybliżenie szukanego rozwiązania. Punktem wyjścia jest odgadnięte pierwsze przybliżenie niewiadomych H, np. H1 … Hn które można zapisać jako wektor «H«(0). Pierwszy krok algorytmu prowadzi do nowego wektora «H»(1).Po k krokach otrzymuje się wektor «H»(k) i następny krok prowadzi do «H»(k+1). Aby iteracja miała sens, proces musi być zbieżny, to znaczy kolejne wyrazy ciągu «H»(k) muszą zdążać do ścisłego rozwiązania wyjściowego układu równań, gdy k zdąża do nieskończoności. Do m.i. należą: → schemat jawny, → schemat uwikłany, → Cranka-Nicholsona schemat, → Jacobiego metoda, → Gaussa-Seidela metoda, → metoda zmiennych kierunków.[MR]  
    Literatura 
    http://hektor.umcs.lublin.pl/~beatas/met_iter.pdf

    Przykłady:

    Metoda Jacobiego

    W metodzie tej układ równań liniowych:

    A11X1 + A12X2 +...+ A1nXn = B1
    A21X1 + A22X2 +...+ A2nXn = B2

    Am1X1 + Am2X2 +...+ AmnXn = Bm

    lub w postaci macierzowej
    A x = b
    Przekształcić należy do postaci:
    X1 = G1 + H11X1 + H12X2 +...+ H1nXn
    X2 = G2 + H21X1 + H22X2 +...+ H2nXn

    Xn = Gn + Hn1X1 + Hn2X2 +...+ HnnXn

    lub w notacji macierzowej
    x = g + H x
    gdzie:




    Metoda Gaussa - Seidela

    Metoda ta różni się od metody Jacobiego jedynie innym sposobem wyznaczania wektora x(k). Element xk1 wyznacza się tak samo, jak w metodzie Jacobiego, pozostałe zaś elementy wektora x(k)oblicza się korzystając zarówno z wartości wektora x(k-1), jak i z wyznaczonych już elemtów wektora x(k).
    Wektor x(k) wyznacza się w oparciu o wyrażenie


    Przykłady

    Przykład 1

    Układ równań:
    4X1 - x2 - x3 + 0 = 1
    -X1 + 4X2 + X3 - X4 = 2
    -X1 + 0X2 + 4X3 - x4 = 0
    0X1 - X2 - X3 + 4X4 = 1

    Rozwiązanie metodą Jacobiego:

    KROK 1
    • x1 = 0,25

  • x2 = 0,5
  • KROK 2
    • x1 = 0,375

    Rozwiązanie metodą Gaussa - Seidela:

    KROK 1
    • x1 = 0,25
    KROK 2
    • x1 = 0,40625

    Wynik

    • x1 = 0,5
    • x2 = 0,75
    • x3 = 0,25
    • x4 = 0,5

    Przykład 2

    Układ równań:

    X1 + 0,5X2 + X3 + 0,2X4 = 5,2
    0,1X1 + 3X2 + 0,2X3 + 0,4X4 = 7,1
    0,3X1 + X2 + 2X3 + 2X3 + X4 = 9,3
    X1 + 0,5X2 + 0,2X3 + 3X4 = 5,6

    Rozwiązanie:
    • x1 = 1
    • x2 = 2
    • x3 = 3
    • x4 = 1

  • x3 = 0
  • x4 = 0,25
  • x2 = 0,625
  • x3 = 0,125
  • x4 = 0,375
  • x2 = 0,5625
  • x3 = 0,0625
  • x4 =0 ,40625
  • x2 = 0,70312
  • x3 = 0,20312
  • x4 = 0,47656