Drukuj książkęDrukuj książkę

XII. Kariera przypadku

.

Serwis: Uniwersytet Jagielloński bez Granic
Kurs: Matematyka a dzieje myśli
Książka: XII. Kariera przypadku
Wydrukowane przez użytkownika: Gość
Data: poniedziałek, 23 wrzesień 2019, 16:16

Nierzadko w matematyce bywa, że nowe idee rodzą się daleko na obrzeżach i pozostają długo nierozpoznane. Dużo czasu mija, nim ich wartość zostanie doceniona i uznana. Wymownym przykładem tego zjawiska jest przypadek, traf, los.

Życie jest pełne przypadków, ale na to, by przypadek można było rozważać matematycznie, potrzebny był jakiś jego wyraz liczbowy. Najstarszym znanym przykładem liczbowego ujmowania przypadku jest gra w kości, znana już w starożytności, a najstarszym „teoretykiem” był niewątpliwie ten, który pierwszy swoją kość sfałszował. Przy rzucie normalną kością szansa na pojawienie się którejkolwiek jej ścian jest taka sama, ale ten kto chce częściej uzyskiwać np. szóstkę, musi swoją kość odpowiednio „poprawić”.

Zainteresowanie matematyków grami losowymi zaczęło się w XVI wieku, o czym świadczą teksty pochodzące od Galileusza [Bibliografia] i Cardano [Bibliografia]. Ten drugi obliczał m.in. prawdopodobieństwa niektórych układów przy rzucie dwoma kostkami. Później Paciolli w swojej Summa... (sekcja VI.2) sformułował problem podziału zysku między graczy przy niedokończonej grze i dał odpowiedź, którą skrytykował Tartaglia w swoim Generale Trattato. Poważniejsze zainteresowanie prawdopodobieństwem zaczęło się jednak dopiero od pytań kawalera de Méré, które on postawił Pascalowi i Robervalowi. Pytał ile należy wykonać rzutów dwoma kostkami, by szansa pojawienia się w jednym rzucie dwóch szóstek była większa niż ½ oraz jak należy podzielić nagrodę w grze do ustalonej liczby zwycięstw, jeśli zostanie ona przerwana przed osiągnięciem tej liczby przez któregokolwiek z graczy. Pytanie pierwsze ma stosunkowo łatwą odpowiedź (Ramka 1), natomiast odpowiedź na pytanie drugie nastręczała trudności. Na jego temat nastąpiła w 1654 r. (częściowo opublikowana w 1679 r.) słynna wymiana listów między Pascalem a Fermatem, w ślad za którą poszła rozprawa Pascala, uważana przez historyków za początek kombinatoryki [Bibliografia]. W tej rozprawie pojawił się „trójkąt Pascala” (Ramka 2), służący autorowi do obliczania różnych wartości wynikłych przy rozpatrywaniu zagadnień losowych. Taki był początek rachunku prawdopodobieństwa w matematyce, ale niemal trzy wieki dalszych wysiłków musiały minąć, nim został on doceniony i zyskał powszechne uznanie.

Ramka 1. Pierwsze pytanie kawalera de Méré.
Pytanie: ile razy należy rzucić dwoma kostkami, by szansa uzyskania pary szóstek była > 1/2 ?

Odpowiedź: możliwych par jest 6 \times 6=36, a zatem szansa pojawienia się pary (6,6) wynosi 1/36. Przy dwóch rzutach możliwych par jest 362, a liczbę par „dobrych” otrzymamy odejmując od liczby wszystkich par liczbę par „złych”, których będzie 362 - 352. Ogólniej, przy n rzutach parą kostek szansa wyrzucenia jednej szóstki będzie równa (36^{n} - 35^{n}) / 36^{n} i teraz pozostaje wyznaczyć najmniejszą liczbę naturalną, dla której ostatni ułamek będzie > 1/2. Jest to n = 25 i taka jest odpowiedź na pytanie kawalera de Méré.

Ramka 2. Trójkąt Pascala.


Traktowany jako marginalna ciekawostka, stał się rachunek prawdopodobieństwa trochę szerzej znany dzięki rozprawie Ch. Huygensa (1629-1695) [Bibliografia], w której sformułował on poprawnie podstawowe pojęcia prawdopodobieństwa klasycznego i wartości oczekiwanej oraz wyraził przypuszczenie, iż „czytelnik [zapewne] zauważył, że nie chodzi tu tylko o gry, lecz że zostały tu położone podstawy bardzo interesującej i płodnej teorii”. Rachunek prawdopodobieństwa wyrastał już z gry w kości (u Huygensa było także losowanie z urny), ale jak bardzo „interesująca i płodna teoria” powstawała, tego zapewne nawet Huygens nie przypuszczał.
Następny ważny krok zrobił Jakub Bernoulli pisząc swój traktat [Bibliografia]. Ukazał się dopiero po śmierci autora (zmarł 1705), jednakże jego idee wcześniej przedstawił de Montmort w podręczniku [Bibliografia], w którym analizował on różne gry w kości i karty za pomocą kombinatoryki. W drugim jego wydaniu Mikołaj Bernoulli postawił problem, słynny później jako „paradoks petersburski”: w grze w orła i reszkę gracz otrzymuje 2n funtów, jeśli orzeł pojawi się dopiero w n-tym rzucie; ile powinien on postawić, aby gra była sprawiedliwa? Klasyczna odpowiedź brzmi, że jego stawka powinna być równa wartości oczekiwanej (sekcja 5), ale w tym przypadku wartość oczekiwana jest nieskończona! Aby ten paradoks rozstrzygnąć, Daniel Bernoulli proponował rozróżnić wartość oczekiwaną „matematyczną” od wartości oczekiwanej „moralnej” i w tej drugiej brać pod uwagę czynnik szczęścia. I dopiero w 1937 r. W. Feller pokazał, jak z pomocą uogólnionego prawa wielkich liczb rozstrzygnąć „paradoks petersburski”. Dziś paradoks ten jest ciekawostką historyczną, pokazuje on jednak, z jakimi trudnościami musieli się borykać twórcy nowej dyscypliny.

A dyscyplina rosła i choć nadal brakowało jej uznania i solidnych podstaw, to jednak po wystąpieniach A. de Moivre’a (1667-1754) i P.S. Laplace’a (1749-1827) jej znaczenie trochę wzrosło. Książka de Moivre’a [Bibliografia], w której sformułował m.in. prawo rozkładu Bernoulliego (sekcja 4), będącego idealizacją gry w orła i reszkę oraz prawo rozkładu normalnego (sekcja 6, nazwa nadana później przez H. Poincarégo), przez ponad stulecie była podstawowym podręcznikiem rachunku prawdopodobieństwa. O wiek późniejsze monumentalne dzieło Laplace’a [Bibliografia], pełne idei i problemów, służyło z kolei za podstawowe źródło do końca XIX wieku. A po „wybiciu się na niezależność” w pierwszej połowie XX wieku trwa już nieprzerwany rozwój teorii prawdopodobieństwa, poświadczany sukcesami jej zastosowań i alternatywnym spojrzeniem na świat.
Chcesz dowiedzieć się więcej o historii kości? Na stronie All About Dice (j. angielski) znajdziesz również zasady różnych gier z wykorzystaniem kości.

Niekiedy prawdopodobieństwo i rzeczywistość znacznie się od siebie różnia. Najlpiej się o tym przekonać osobiście eksperymentując z rzucaniem wirtulanych kości w symulatorze z histogramem.

Poznaj lepiej teorie prawdopodobieństwa, jej problemy i odniesienia do hazardu. Czytaj więcej... (j. angielski).



Nim opiszemy najprostsze rozumienie prawdopodobieństwa, parę słów o kombinatoryce, którą można określić jako dział matematyki zajmujący się znajdowaniem liczebności pewnych zbiorów skończonych, związanych z porządkowaniem i losowaniem. Przytoczymy dwa najprostsze i najważniejsze jej pojęcia.

Uporządkowanie liniowe zbioru skończonego nazywa się krótko jego permutacją. Kombinatoryka zaczyna się od pytania, ile jest permutacji w zbiorze n-elementowym, czyli iloma sposobami można uporządkować zbiór złożony z n elementów? Odpowiedź daje proste rozumowanie. Jako element pierwszy możemy wziąć którykolwiek z naszego zbioru, a zatem mamy tu n możliwości. Po wybraniu pierwszego zostało nam już tylko n-1 elementów zbioru, a zatem mamy teraz tylko n-1 możliwości wzięcia drugiego. Tak więc dwa pierwsze elementy możemy wybrać na n(n-1) sposobów. Kontynuując to postępowanie przekonujemy się, że dowolną permutację w zbiorze n-elementowym możemy wybrać na n(n-1)(n-2)...3\cdot2\cdot1 sposobów, a zatem tyle jest permutacji w zbiorze n-elementowym. Tę liczbę matematycy oznaczają krótko n! i czytają „n silnia”, czyli:
n! = n(n-1)(n-2) ... 3\cdot 2\cdot1.

Przejdźmy teraz do sytuacji, która co tydzień skupia na sobie uwagę miłośników gry w Toto-Lotka, z wypiekami na twarzy obserwujących wybór 6 elementów ze zbioru 49-elementowego. Postawmy pytanie: iloma sposobami można wybrać k elementów ze zbioru n-elementowego? Matematycy lubią nazywać obiekty swego zainteresowania i każdy taki wybór nazwali kombinacją k-elementową ze zbioru n-elementowego. Pytanie zatem brzmi: ile jest kombinacji k-elementowych w zbiorze n-elementowym?

Rozumując, jak poprzednio, stwierdzamy, że pierwszego wyboru możemy dokonać na n sposobów, drugiego na n-1 sposobów itd., a zatem dowolnych k elementów zbioru n-elementowego możemy wybrać na:

n(n-1) ... (n-k+1) = n(n-1) ...(n-k+1) ... 3\cdot2\cdot1 / (n-k)(n-k-1) ... 3\cdot2\cdot1 = n! / (n-k)!


sposobów. To jeszcze nie jest odpowiedź na nasze pytanie, wybierane bowiem przez nas układy są uporządkowane, a nam chodzi o wybór, a nie o wybór uporządkowany. Ponieważ porządków (permutacji) w zbiorze k elementowym jest k!, więc otrzymany przed chwilą wynik trzeba jeszcze podzielić przez k!, a zatem liczbę k-elementowych kombinacji w zbiorze n-elementowym określa ostatecznie wzór:

C^{n}_{k} = n! / k! (n-k)!.

Ramka 3. Podstawowe zasady kombinatoryki.
Ilość permutacji zbioru n-elementowego n! = n.(n-1). ...3\cdot2\cdot1

Ilość kombinacji k-elementowych w zbiorze n-elementowym C^{n}_{k} = n! / k! (n-k)!

Wróćmy teraz do Toto-Lotka, gdzie trzeba skreślić kombinację 6 elementów w zbiorze 49-elementowym. Ile jest możliwości? Kombinatoryka daje natychmiastową odpowiedź:

C^{49}_{6} = 49! / 6! 43! = 13 980 886.

Z tej odpowiedzi wynika, że skreślając dowolną szóstkę mamy szansę wygranej jak 1 do 14 milionów (w przybliżeniu).

Mieć piątkę jest łatwiej, znając bowiem szóstkę wystarczy wskazać 5 liczb z 6 wylosowanych i 1 liczbę z 43 z nie wylosowanych, czyli zrealizować jedną z następującej ilości kombinacji:

C_{6}^{5}\cdotC_{43}^{1} = 6! / 5!4!\cdot43! / 1!42! = 6\cdot43 = 258.

Szansa trafienia szóstki do szansy trafienia piątki ma się zatem jak: 1:258. Podobnie, szansa trafienia szóstki do szansy trafienia czwórki ma się jak: 1:13 545.
Najprostsze i najstarsze pytania o prawdopodobieństwo wiązały się najpierw z grą w kości, potem z losowaniem z urny, grą w karty, grą w orła i reszkę itp. Nazwijmy konkretny ruch w takiej grze doświadczeniem losowym. Wynik takiego doświadczenia losowego zależy od różnych czynników przypadkowych i nie sposób go przewidzieć, można jednak starać się określić jego szansę pojawienia się, czyli prawdopodobieństwo. Rzucając dobrą kostką mamy jednakową szansę pojawienia się którejkolwiek jej ściany, a zatem szansę pojawienia się np. czwórki możemy ocenić na 1/6, czyli „prawdopodobieństwo czwórki równa się 1/6”.

Prawdopodobieństwo klasyczne odnosi się do sytuacji, w której mamy skończenie wiele podstawowych doświadczeń losowych (nazywa się je elementarnymi, a zbiór ich wszystkich nazywa się przestrzenią zdarzeń elementarnych) i wszystkie wyniki tych doświadczeń są sobie równe (jak przy rzucaniu kością).

Zdarzenia elementarne składają się na zdarzenia złożone, krótko nazywane zdarzeniami, np. wyrzucenie parzystej liczby oczek jest zdarzeniem, które składa się z trzech zdarzeń elementarnych {2}, {4} i {6}. Zdarzenia elementarne wchodzące w skład rozpatrywanego zdarzenia nazywa się zdarzeniami sprzyjającymi, a prawdopodobieństwo takiego zdarzenia określa się, jako stosunek liczby zdarzeń sprzyjających do liczby wszystkich zdarzeń możliwych, np. prawdopodobieństwo wyrzucenia parzystej liczby oczek określa się, jako 3/6, czyli 1/2.

Rozważanie prawdopodobieństwa klasycznego pozwala zauważyć trzy podstawowe własności funkcji prawdopodobieństwa P(A) zdarzenia A.

I. Dla każdego zdarzenia A,

0 \leq P(A) \leq 1.

Istotnie, liczba zdarzeń sprzyjających \leq liczba wszystkich zdarzeń elementarnych.

II. Jeśli zdarzenia A i B wyłączają się, tzn. nie ma zdarzeń elementarnych sprzyjających jednocześnie A i B, to:

P(A \cup B) = P(A) + P(B).

Tutaj A \cup B oznacza sumę zdarzeń A i B tj. zbiór złożony ze wszystkich zdarzeń elementarnych, składających się na zbiór A bądź na zbiór B. Jeśli zdarzeń elementarnych w A było k, a w B-m, to wobec wyłączania się zdarzeń A i B, w zbiorze A \cup B zdarzeń elementarnych jest k+m.

III. Jeśli \Omega jest przestrzenią zdarzeń elementarnych, to:

P(\Omega) = 1.

Własności I-III rozciąga się na inne, niż klasyczne rodzaje prawdopodobieństwa, w tym na prawdopodobieństwo statystyczne. O prawdopodobieństwie statystycznym mówimy wtedy, gdy obserwujemy bardzo długie serie powtarzających się doświadczeń losowych, np. płeć dziecka, czas żarzenia się świetlówki, oddanie strzału itp., w których mamy to samo prawdopodobieństwo sukcesu, ale jest ono określone inną, niż klasyczną drogą, a nas interesuje ilość sukcesów w danej serii. Dla takich przypadków konieczne jest rozszerzenie własności II do tzw. prawa dodawania prawdopodobieństw:

II’. Jeżeli A_{1}, A_{2}, ... jest ciągiem zdarzeń parami się wyłączających, to:

P(A_{1} \cup A_{2} \cup ...) = P(A_{1}) + P(A_{2}) + ...

Jeśli powtarzamy jakieś doświadczenie losowe (rzucamy kostką lub monetą, wyciągamy kartę z talii itp.), a wynik takiego doświadczenia nie zależy od poprzednich, to takie doświadczenia nazywamy niezależnymi (zdarzenia wyłączające się w poprzedniej sekcji są oczywiście niezależne). Takimi doświadczeniami niezależnymi są nie tylko rozpatrywane dotychczas rzuty i wybierania, ale także np. płeć nowonarodzonego dziecka, czas żarzenia się nowej świetlówki, ilość zapałek w pudełku itp. Jeśli każde doświadczenie w takiej serii daje interesujący nas wynik (matematycy lubią mówić: sukces) z tym samym prawdopodobieństwem p, to mamy do czynienia z tzw. schematem Bernoulliego zdarzeń niezależnych, Jan Bernoulli bowiem pierwszy znalazł jego podstawową formułę.
Ramka 4. Schemat Bernoulliego zdarzeń niezależnych.
Jeśli p jest prawdopodobieństwem sukcesu w pojedynczym doświadczeniu, to prawdopodobieństwo k sukcesów w serii n niezależnych doświadczeń jest równe:

P_{n}(k) = C^{n}_{k} p^{k} (1-p)^{n-k}.

W praktyce, np. w masowej produkcji, spotykamy się często z doświadczeniami, w których liczba doświadczeń jest bardzo duża. Jeśli k_{0} oznacza liczbę sukcesów w n doświadczeniach, to ułamek k_{0}/n jest przybliżeniem znanego nam wcześniej prawdopodobieństwa p (pomijamy problem, jak p otrzymujemy). Otóż w praktyce jest ważna ocena przybliżenia k_{0}/n \approx p, tzn. informacja, z jakim prawdopodobieństwem możemy liczyć na to, że stosunek liczby k_{0} sukcesów do liczby n przeprowadzonych doświadczeń będzie się różnił od prawdopodobieństwa p o mniej, niż o pewne \varepsilon. Innymi słowy, pytamy o ocenę prawdopodobieństwa:

P(\mid k_{0}/n-p \mid < \varepsilon).

Odpowiedź na to pytanie daje pierwsze z tzw. praw wielkich liczb.
Ramka 5. Prawo wielkich liczb Bernoulliego.
Jeśli k_{0} jest liczbą sukcesów w serii n doświadczeń w schemacie Bernoulliego doświadczeń niezależnych z prawdopodobieństwem p pojedynczego sukcesu, to:

P(\mid k_{0}/n-p \mid < \varepsilon) \geq 1-1/4 \varepsilon ^{2}n.

Prawo Bernoulliego powiada, że prawdopodobieństwo przybliżenia jest bardzo duże i, co ważne w zastosowaniach, podaje ocenę tego przybliżenia. Jest to historycznie pierwsze i najprostsze prawo wielkich liczb. We współczesnej probabilistyce praw takich jest więcej i odgrywają one dużą rolę.
Dużym krokiem w rozwoju teorii prawdopodobieństwa stało się określenie zmiennej losowej, odgrywające dziś w tej teorii rolę podobną do roli funkcji w analizie.

W przyrodzie, technice i życiu występują wielkości, których wartość nie może ustalona raz na zawsze, lecz zmienia się pod wpływem rozmaitych, umykających naszej wiedzy przyczyn, jak liczba rodzących się dzieci, czas pracy świetlówki, długość strzału armatniego, ciężar owocu itp. Są to wielkości ciekawe i nieraz ważne, zasługujące przeto na badanie. W teorii prawdopodobieństwa nazywa się je zmiennymi losowymi.

Aby zmienną losową badać matematycznie, trzeba ją odpowiednio opisać. W tym celu musimy przede wszystkim wiedzieć, jakie wartości opisywana zmienna losowa może przyjmować.

Podanie samego tylko zbioru wartości zmiennej losowej jednak nie wystarczy, jeśli bowiem interesuje nas np. liczba chłopców na 100 nowonarodzonych dzieci, to z tego, że ta zmienna losowa może przyjmować wartości 0, 1, 2, ..., 99, 100 – nic jeszcze ciekawego nie wynika.

Jeśli wiemy, że zmienna losowa przyjmuje skończenie wiele wartości (ze zmiennymi losowymi przyjmującymi nieskończenie wiele wartości jest trochę trudniej, p. niżej), to potrzebna jest jeszcze informacja, jak często ona każdą z tych wartości przyjmuje, czyli jakie jest prawdopodobieństwo, że dana wartość zostanie przez naszą zmienną losową przyjęta. Dopiero te dwie informacje razem, zbiór wartości i odpowiadające im prawdopodobieństwa, dają wystarczający dla badań opis zmiennej losowej. Taki łączny opis nazywa się rozkładem prawdopodobieństwa zmiennej losowej.

Rozkład prawdopodobieństwa może być opisany tabelką, wykresem lub funkcją. Dla przykładu podamy rozkład prawdopodobieństwa zmiennej losowej „suma oczek przy podwójnym rzucie kostką” w postaci tabelki:



Zamiast opisu rozkładu zmiennej losowej w postaci tabelki, wykresu lub funkcji wygodniej jest posługiwać się jej dystrybuantą, która ma tę zaletę, że jest ogólniejsza, obejmuje bowiem wszystkie zmienne losowe, a nie tylko te, które przyjmują skończenie wiele wartości. Z tego względu stanowi ona ogólny, wspólny dla wszystkich zmiennych losowych sposób ich opisu, dzięki czemu jej badanie prowadzi do ogólnych i dla wszystkich zmiennych losowych prawdziwych twierdzeń.

Przyjęło się w matematyce zmienne losowe oznaczać literami greckimi, a wartości przez nie przyjmowane literami łacińskimi. Niech zatem \xi będzie dowolną zmienną losową. Oznaczmy przez P(\xi < x) prawdopodobieństwo, że zmienna losowa \xi przyjmuje jakąkolwiek wartość mniejszą od x; zmieniając x będziemy otrzymywali różne wartości liczbowe tego prawdopodobieństwa, możemy więc potraktować P(\xi < x) jako funkcję zmiennej rzeczywistej x. Tę właśnie funkcję F(x) = P(\xi < x) nazywa się dystrybuantą zmiennej losowej \xi.


Jak sugeruje tabelka i rys. 2, dystrybuantę F(x) zmiennej losowej \xi przyjmującej skończenie wiele wartości x_{i} z prawdopodobieństwami p_{i} można określić wzorem: 

F(x)=\sum_{k}p_{k}, gdzie sumuje się tylko po tych k, dla których x_{k} < x.

Ważne zmienne losowe mogą jednak przyjmować tak dużo wartości, że nie da się ich ustawić w ciąg i dla takich zmiennych przyjmuje się inną definicję dystrybuanty. Podobnie jak w początkach analizy matematycznej znak sumy \sum przeszedł, w przypadku nieskończonego sumowania, w znak całki \int, tak i tutaj zmienną losową \xi nazywa się ciągłą, gdy jej dystrybuantę można zapisać za pomocą całki:

F(x)=\int_{-\infty}^{x}p(t)dt,

gdzie p(t) jest pewną funkcją nieujemną, zwaną gęstością rozkładu zmiennej losowej \xi.

Badanie konkretnej zmiennej losowej może dostarczyć wielu ciekawych i ważnych informacji. Najważniejsze zostały określone jako tzw. momenty. Jest ich wiele, a tutaj dla przykładu określimy dwa najprostsze, wartość oczekiwaną i dyspersję.

Wartość oczekiwana informuje, jakiego średnio wyniku możemy oczekiwać od danej zmiennej losowej. Dla zmiennej losowej \xi o skończonym (ogólniej, dyskretnym) zbiorze wartości wartość oczekiwana wyraża się wzorem E\xi=\int_{-\infty}^{\infty}x.p(x)dx. Zgodnie z oczekiwaniami, dla rozkładu Bernoulliego wartość oczekiwana wynosi np.

Dla zmiennej losowej ciągłej \xi o gęstości p(x) wartość oczekiwana wyraża się wzorem:

V\xi=\int_{-\infty}^{\infty}(x-a)^{2}p(x)dx.

Wariancja informuje jakie są średnie odchylenia wartości przyjmowanych przez daną zmienną losową \xi od jej wartości średniej a. Dla zmiennej losowej \xi o dyskretnym rozkładzie wariancja wyraża się wzorem V\xi=\sum_{k} (x_{k}-a)^2p_{k}, a dla zmiennej losowej \xi ciągłej – wzorem: 

V\xi=\int_{-\infty}^{\infty}(x-a)^{2}p(x)dx.

Dla rozkładu Bernoulliego wariancja wynosi np(1-p).

Tak zostały ustalone podstawowe pojęcia teorii prawdopodobieństwa, na których – z dużym nakładem pomysłowości i środków pochodzących z różnych gałęzi matematyki, przede wszystkim z analizy matematycznej – rozwinęła się współczesna teoria prawdopodobieństwa. Można powiedzieć, że dzięki tym wysiłkom przypadek został ujarzmiony (może skromniej: jest ujarzmiany), a jego badanie przynosi wspaniałe owoce dla naszej wiedzy o świecie.
Na początku XX wieku C.F. Gauss zajmował się tzw. rachunkiem błędów. Zauważył, że jeśli dokonujemy pomiaru jakiejś (znanej lub nieznanej) wielkości, np. długości pręta, temperatury pomieszczenia, ciężaru jakiegoś ciała, to wyniki tych pomiarów układają się w kształt pewnej krzywej, nazwanej potem na jego cześć krzywą Gaussa. Krzywa ta ma kształt przypominający dzwon (Rys. 3) i jest mniej lub bardziej spłaszczona, a wyraża się wzorem:

p(x)=1/\sigma \sqrt{2\pi} exp[-(x-a)^{2}/2\sigma^{2}], gdzie a i \sigma są stałe.



Wzór na krzywą Gaussa jest skomplikowany i nieładny, okazało się wszakże, że wiele ważnych w praktyce zmiennych losowych ciągłych ma rozkłady, dla których krzywe Gaussa są gęstościami ich rozkładu. Jest to zatem najważniejszy rodzaj zmiennych losowych i o wszystkich takich zmiennych mówimy, że mają rozkład normalny.
Jeszcze na początku XX wieku matematyczny status teorii prawdopodobieństwa wydawał się niepewny i D. Hilbert, który na kongresie matematyków w Paryżu w 1900 r. sformułował 23 problemy, jego zdaniem najważniejsze dla matematyki w nadchodzącym stuleciu, wymienił wśród nich aksjomatyzację rachunku prawdopodobieństwa.

Ważny krok w kierunku uzyskania takiej aksjomatyzacji zrobili w 1923 r. dwaj polscy matematycy, A. Łomnicki i H. Steinhaus, wprowadzając do rachunku prawdopodobieństwa teorię miary. Łomnicki podjął (nie w pełni jednak udaną) próbę oparcia całego tego rachunku na teorii miary, a Steinhaus podał opis nieklasycznego przypadku probabilistycznego (nieskończonej gry w orła reszkę) w języku tej teorii.

Każdy nieskończony ciąg rzutów monetą, zdarzenie elementarne gry w orła i reszkę [Bibliografia], daje się przedstawić w postaci ciągu 0 (reszka) i 1 (orzeł), a w konsekwencji jako liczba z odcinka [0,1]. Zbiór punktów tego odcinka jest więc przestrzenią zdarzeń elementarnych, interesującymi nas zdarzeniami będą podzbiory mierzalne tego odcinka, a ich prawdopodobieństwami – ich miary Lebesgue’a. Pozwala to zapisać nieskończoną grę w orła i reszkę w postaci trójki ([0,1], L, \lambda), gdzie L jest rodziną zbiorów mierzalnych, a \lambda miarą Lebesgue’a.

Osiągnięcie to można nazwać półfinałem aksjomatyzacji teorii prawdopodobieństwa, dziesięć bowiem lat później A. Kołmogorow zaproponował, by za przestrzeń probabilistyczną uznać trójkę (\Omega, \Sigma, \mu), gdzie \Omega jest przestrzenią zdarzeń elementarnych, \Sigma rodziną jej podzbiorów (rodzina ta musi spełniać warunki \sigma-ciała), a \mu miarą unormowaną (tzn. nie przekraczającą wartości 1) na tej rodzinie – z własnościami sprecyzowanymi w paru aksjomatach. Aksjomatyka Kołmogorowa, której nie będziemy tu omawiali [Bibliografia], ustaliła solidne podstawy dla teorii prawdopodobieństwa, nadając jej tym samym prawo pełnego obywatelstwa w matematyce.
Jest to jeden z najżywiej się obecnie rozwijających działów teorii prawdopodobieństwa, mający wiele zastosowań praktycznych w technice i w naukach takich jak fizyka, chemia, biologia, a wykorzystujący środki z wielu dziedzin matematyki.

Proces stochastyczny jest uogólnieniem schematu zdarzeń niezależnych. Formalnie definiuje się go jako rodzinę zmiennych losowych X_{t} określonych na przestrzeni probabilistycznej (\Omega, \Sigma, \mu), przy czym indeks interpretuje się zazwyczaj jako czas. Obejmuje to oczywiście schemat Bernoulliego, w tym schemacie czas bowiem jest dyskretny (doświadczenia wykonuje się po kolei w pewnych odstępach czasowych), a wszystkie zmienne losowe są identyczne. Pojęcie procesu stochastycznego jest jednak istotnie ogólniejsze i stosuje się je do opisu wielu zjawisk o probabilistycznym przebiegu, np. ruchu Browna w fizyce.
W dotychczasowych sekcjach tego rozdziału opisaliśmy proces matematyzacji prawdopodobieństwa i kształtowania jego podstawowych pojęć. Matematyka jest nauką żywą i proces ten trwa, a jego cechą charakterystyczną jest rosnąca ogólność i coraz szersza klasa zjawisk, które dają się analizować za pomocą środków probabilistycznych.

Obecnie zwrócimy uwagę na drugą dziedzinę matematyki, w której prawdopodobieństwo odgrywa istotną rolę, a mianowicie na statystykę matematyczną. Oto kilka charakterystycznych problemów, jakie statystyka matematyczna podejmuje:
a) Jak na podstawie danych o połowach ryb ocenić liczebność ich populacji i ustalić optymalne plany połowów?
b) W jakim stopniu czynniki genetyczne wpływają na inteligencję człowieka?
c) Jak zbierać i analizować dane o stanie zdrowia ludności?
d) Jakie są charakterystyczne cechy rozwoju populacji komórek rakowych w organizmie?
1. Przypadek do matematyki trafił … przypadkiem. W kości grano od niepamiętnych czasów i od tej namiętności nie byli wolni także matematycy. Galileusz i Cardano dostrzegli w tej grze problemy matematyczne, ale za początek rachunku prawdopodobieństwa w matematyce uważa się dopiero wymianę listów między Pascalem a Robervalem w 1654 r. Korespondencję spowodował dwoma pytaniami ich wspólny znajomy kawaler de Méré.

2. Znalazłszy się już w matematyce, prawdopodobieństwo długo wiodło w niej żywot podrzędny. Poświęcali mu swoje traktaty wielcy matematycy jak Jan Bernoulli, Ch. Huygens, A. de Moivre, P.S. Laplace, C.F. Gauss i inni, ale był to margines ich twórczości. Wyraźnie nie zdawali sobie sprawy z jego znaczenia. Jeszcze w 1900 r. Hilbert traktował rachunek prawdopodobieństwa nieufnie, z powodu swej nieoznaczoności bliższy badaniu przyrody (fizyce) niż matematyce i dla wyjaśnienia jego pozycji w matematyce domagał się aksjomatyzacji tego rachunku. W tym czasie były już jednak ustalone podstawowe własności prawdopodobieństwa klasycznego (sekcje 3 i 4), umiano się też z dobrym skutkiem posługiwać schematem Bernoulliego i jemu podobnymi. Znaczenia nabierała także statystyka.

3. Znaczenie prawdopodobieństwa uległo radykalnej zmianie w XX wieku, kiedy pojęcie to rozciągnięto na zjawiska nieskończone (nieskończona liczba zdarzeń elementarnych i nieskończenie wiele wartości), znajdując dla nich właściwy wyraz w pojęciach zmiennej losowej i rozkładów ciągłych (sekcje 5 i 6). Dynamiki temu procesowi nadała aksjomatyzacja Kołmogorowa z 1933 r., dająca teorii prawdopodobieństwa oparcie w teorii miary, dobrze już wówczas ugruntowanej i mającej wysoką pozycję w matematyce.

4. Jednocześnie z uznaniem teorii prawdopodobieństwa za prawowitą dziedzinę matematyki nastąpił bujny wzrost metod i znaczenia statystyki, stającej się niezastąpionym narzędziem analizy wielu zjawisk masowych w przyrodzie i życiu społecznym.

5. Współcześnie teoria prawdopodobieństwa rozwija się żywiołowo, korzystając z dorobku wielu dziedzin matematyki (co też świadczy o zasadniczej integralności matematyki), przede wszystkim analizy matematycznej, ale jest to dziedzina bardzo bliska konkretnym zapotrzebowaniom przyrodniczym i społecznym, na wielu obszarach poznania wręcz niezastąpiona.

6. Od początku jej świadomego istnienia matematyka dążyła do wyników jednoznacznych i dokładnych. Nawet jeśli były one czasem obarczone niemożnością dokładnego ich wyrażenia, jak np. przedstawienie liczby \sqrt{2}, to ta niemożność wynikała jedynie z niedoskonałości naszych narzędzi, ale „sama w sobie” liczba \sqrt{2} była określona jednoznacznie i była dokładna. Prawdopodobieństwo jest koncepcją zgoła odmienną, tutaj bowiem z zasady na jednoznaczność i dokładność nie ma co liczyć. W tym leżało psychologiczne źródło oporu przeciwko uznaniu prawdopodobieństwa za koncepcję matematyczną, ale kiedy to się po paru wiekach w końcu stało, to stało się też widoczne, że kiedy traktujemy matematykę jako język opisywania świata, to możemy mówić o dwóch językach, analitycznym i stochastycznym. Język analityczny opisuje świat w kategoriach deterministycznych, dając jednoznaczne równania i dążąc do jednoznacznych ich rozwiązań, natomiast język stochastyczny opisuje świat w kategoriach probabilistyczno-statystycznych, gdzie wyniki są tylko prawdopodobne, a jedyna rzecz na jaką możemy liczyć, to ocena tego prawdopodobieństwa.