XII. Kariera przypadku

Dużym krokiem w rozwoju teorii prawdopodobieństwa stało się określenie zmiennej losowej, odgrywające dziś w tej teorii rolę podobną do roli funkcji w analizie.

W przyrodzie, technice i życiu występują wielkości, których wartość nie może ustalona raz na zawsze, lecz zmienia się pod wpływem rozmaitych, umykających naszej wiedzy przyczyn, jak liczba rodzących się dzieci, czas pracy świetlówki, długość strzału armatniego, ciężar owocu itp. Są to wielkości ciekawe i nieraz ważne, zasługujące przeto na badanie. W teorii prawdopodobieństwa nazywa się je zmiennymi losowymi.

Aby zmienną losową badać matematycznie, trzeba ją odpowiednio opisać. W tym celu musimy przede wszystkim wiedzieć, jakie wartości opisywana zmienna losowa może przyjmować.

Podanie samego tylko zbioru wartości zmiennej losowej jednak nie wystarczy, jeśli bowiem interesuje nas np. liczba chłopców na 100 nowonarodzonych dzieci, to z tego, że ta zmienna losowa może przyjmować wartości 0, 1, 2, ..., 99, 100 – nic jeszcze ciekawego nie wynika.

Jeśli wiemy, że zmienna losowa przyjmuje skończenie wiele wartości (ze zmiennymi losowymi przyjmującymi nieskończenie wiele wartości jest trochę trudniej, p. niżej), to potrzebna jest jeszcze informacja, jak często ona każdą z tych wartości przyjmuje, czyli jakie jest prawdopodobieństwo, że dana wartość zostanie przez naszą zmienną losową przyjęta. Dopiero te dwie informacje razem, zbiór wartości i odpowiadające im prawdopodobieństwa, dają wystarczający dla badań opis zmiennej losowej. Taki łączny opis nazywa się rozkładem prawdopodobieństwa zmiennej losowej.

Rozkład prawdopodobieństwa może być opisany tabelką, wykresem lub funkcją. Dla przykładu podamy rozkład prawdopodobieństwa zmiennej losowej „suma oczek przy podwójnym rzucie kostką” w postaci tabelki:



Zamiast opisu rozkładu zmiennej losowej w postaci tabelki, wykresu lub funkcji wygodniej jest posługiwać się jej dystrybuantą, która ma tę zaletę, że jest ogólniejsza, obejmuje bowiem wszystkie zmienne losowe, a nie tylko te, które przyjmują skończenie wiele wartości. Z tego względu stanowi ona ogólny, wspólny dla wszystkich zmiennych losowych sposób ich opisu, dzięki czemu jej badanie prowadzi do ogólnych i dla wszystkich zmiennych losowych prawdziwych twierdzeń.

Przyjęło się w matematyce zmienne losowe oznaczać literami greckimi, a wartości przez nie przyjmowane literami łacińskimi. Niech zatem \xi będzie dowolną zmienną losową. Oznaczmy przez P(\xi < x) prawdopodobieństwo, że zmienna losowa \xi przyjmuje jakąkolwiek wartość mniejszą od x; zmieniając x będziemy otrzymywali różne wartości liczbowe tego prawdopodobieństwa, możemy więc potraktować P(\xi < x) jako funkcję zmiennej rzeczywistej x. Tę właśnie funkcję F(x) = P(\xi < x) nazywa się dystrybuantą zmiennej losowej \xi.


Jak sugeruje tabelka i rys. 2, dystrybuantę F(x) zmiennej losowej \xi przyjmującej skończenie wiele wartości x_{i} z prawdopodobieństwami p_{i} można określić wzorem: 

F(x)=\sum_{k}p_{k}, gdzie sumuje się tylko po tych k, dla których x_{k} < x.

Ważne zmienne losowe mogą jednak przyjmować tak dużo wartości, że nie da się ich ustawić w ciąg i dla takich zmiennych przyjmuje się inną definicję dystrybuanty. Podobnie jak w początkach analizy matematycznej znak sumy \sum przeszedł, w przypadku nieskończonego sumowania, w znak całki \int, tak i tutaj zmienną losową \xi nazywa się ciągłą, gdy jej dystrybuantę można zapisać za pomocą całki:

F(x)=\int_{-\infty}^{x}p(t)dt,

gdzie p(t) jest pewną funkcją nieujemną, zwaną gęstością rozkładu zmiennej losowej \xi.

Badanie konkretnej zmiennej losowej może dostarczyć wielu ciekawych i ważnych informacji. Najważniejsze zostały określone jako tzw. momenty. Jest ich wiele, a tutaj dla przykładu określimy dwa najprostsze, wartość oczekiwaną i dyspersję.

Wartość oczekiwana informuje, jakiego średnio wyniku możemy oczekiwać od danej zmiennej losowej. Dla zmiennej losowej \xi o skończonym (ogólniej, dyskretnym) zbiorze wartości wartość oczekiwana wyraża się wzorem E\xi=\int_{-\infty}^{\infty}x.p(x)dx. Zgodnie z oczekiwaniami, dla rozkładu Bernoulliego wartość oczekiwana wynosi np.

Dla zmiennej losowej ciągłej \xi o gęstości p(x) wartość oczekiwana wyraża się wzorem:

V\xi=\int_{-\infty}^{\infty}(x-a)^{2}p(x)dx.

Wariancja informuje jakie są średnie odchylenia wartości przyjmowanych przez daną zmienną losową \xi od jej wartości średniej a. Dla zmiennej losowej \xi o dyskretnym rozkładzie wariancja wyraża się wzorem V\xi=\sum_{k} (x_{k}-a)^2p_{k}, a dla zmiennej losowej \xi ciągłej – wzorem: 

V\xi=\int_{-\infty}^{\infty}(x-a)^{2}p(x)dx.

Dla rozkładu Bernoulliego wariancja wynosi np(1-p).

Tak zostały ustalone podstawowe pojęcia teorii prawdopodobieństwa, na których – z dużym nakładem pomysłowości i środków pochodzących z różnych gałęzi matematyki, przede wszystkim z analizy matematycznej – rozwinęła się współczesna teoria prawdopodobieństwa. Można powiedzieć, że dzięki tym wysiłkom przypadek został ujarzmiony (może skromniej: jest ujarzmiany), a jego badanie przynosi wspaniałe owoce dla naszej wiedzy o świecie.