Pravděpodobnost

Technology
12 hours ago
8
4
2
Avatar
Author
Albert Flores

Pravděpodobnost náhodného jevu je číslo, které je mírou (poměrem) očekávatelnosti určitého výsledku náhodného pokusu. Náhodným pokusem rozumíme opakovatelnou činnost (tj. máme více než jeden pokus) prováděnou za stejných (nebo přibližně stejných) podmínek, jejíž výsledek je nejistý a závisí na náhodě. Příklady mohou být například házení kostkou nebo losování loterie.

Pravděpodobnost události obecně vyjadřujeme reálným číslem od 0 do 1. Událost, která nemůže nastat, má pravděpodobnost 0 (nemožný jev), a naopak událost, která nastane vždy, má pravděpodobnost 1 (jistý jev). +more Číselné vyjádření pravděpodobnosti P jevu A je poměrem všech příznivých událostí (m) ku celkovému počtu všech možných událostí (n), tj. P(A) = \frac{m}{n}). Pravděpodobnost lze uvádět v procentech, tedy setinách klasického vyjádření.

Historie

Matematizací pojmu pravděpodobnost se ve své korespondenci zabývali Pierre de Fermat a Blaise Pascal (1654), a to zejména v kontextu hazardních her a kombinatorických problémů. Základy pravděpodobnosti jako matematické discipliny poté dále rozvinuli Christian Huygens, Abraham de Moivre a zejména Jacob Bernoulli.

Zdaleka nejvýznamnějším a dodnes inspirativním klasikem teorie pravděpodobnosti byl však Pierre-Simon Laplace. Ve svém monumentálním díle o teorii pravděpodobnosti (Théorie analytique des probabilités) nejen že systematizoval veškeré poznání svých předchůdců, ale dalekosáhle je rozpracoval i aplikoval na téměř všechny oblasti tehdejšího vědeckého poznání - od fyziky až po sociální vědy. +more V pojetí Laplace představuje pravděpodobnost nástroj pro popis všech problémů s neúplnou vstupní informací. Přínosů Laplace pro teorii pravděpodobnosti je tolik, že ani jejich základní výčet zde není možný. Mimo jiné (znovu)objevil jednu z klíčových formulí teorie pravděpodobnosti, známou dnes jako Bayesův teorém, který navíc zobecnil pro situace s obecnou apriorní informací. Na řešení konkrétního astronomického problému - určení přibližné hmotnosti Saturnu - ukázal Laplace užití pravděpodobnosti na oblast jevů, pro které opakovaný či hromadný výskyt nemá smysl. Viz též Bayesovská teorie pravděpodobnosti. Jako předobraz metody maximální entropie odvodil Laplace rozložení chyb (v podstatě Gaussovu křivku) pro některé konkrétní experimenty. Populárně stylizovaným úvodem k jeho hlavnímu pravděpodobnostnímu dílu byla jeho „filosofická“ esej o pravděpodobnosti. Tento úvod byl sice mnohem rozšířenější a čtivější, než jeho dílo hlavní, vedl však též k různým zkresleným představám a mýtům o Laplaceově pravděpodobnostním odkazu. V hlavním Laplaceově pravděpodobnostním díle dominuje jím vynalezená (a pro pravděpodobnost velmi významná) metoda vytvořujících funkcí.

Laplace pozvedl teorii pravděpodobnosti na úroveň, která pak celé století po jeho smrti nebyla překonána. Novější vývoj sledoval dvě hlavní linie: jedna z nich se zabývala zejména pravděpodobností v kontextu tzv. +more hromadných jevů a fakticky vedla k výrazně zúženému a v podstatě statistickému pojetí pojmu pravděpodobnosti (tzv. „frekvencionistická“ škola, jejímž hlavním propagátorem byl R. von Mises). Druhá vývojová linie je charakterizovaná zejména pracemi vědců jako byli Andrej Nikolajevič Kolmogorov (zejména matematika) a Edwin Thompson Jaynes (zejména fyzika), které zachovávají obecnost a ducha Laplaceova „bayesovského“ pojetí pravděpodobnosti, staví je však na modernější základy. V pracích Kolmogorova figuruje pravděpodobnost jako teorie normované míry, v pracích Jaynese je interpretována pravděpodobnost jako zobecněná logika. Obě tato pojetí jsou do značné míry ekvivalentní. Unikátnost pravidel teorie pravděpodobnosti, která představovala dlouho otevřenou otázku v základech teorie, značně ujasnili Richard Threlkeld Cox a E. T. Jaynes. Souběžně ve 20. století došlo k „pravděpodobnostní revoluci“ ve fyzice, zejména v kontextu oblastí jako statistická fyzika, kvantová mechanika, teorie chaosu, informační fyzika, atd. Rozvoj poznatků o teorii pravděpodobnosti tak stále není ani zdaleka uzavřen.

Definice

Množinu všech možných výsledků pokusu (experimentu) značíme \Omega. Jednotlivé možné výsledky pokusu značíme \omega. +more Podmnožiny množiny \Omega se nazývají (náhodné) jevy.

Klasická (Laplaceova) definice pravděpodobnosti

Nechť náhodný pokus splňuje předpoklady: # Všech možných výsledků je konečný počet. # Všechny výsledky jsou stejně možné. # Všechny výsledky se vzájemně vylučují.

Pravděpodobností jevu A pak nazveme číslo P(A) = \frac{m}{n}, kde n je počet všech výsledků náhodného pokusu a m je počet výsledků příznivých jevu A; n=|\Omega|, m=|A|.

Diskuse: Je zapotřebí zdůraznit, že Laplace uvedenou definici předložil jen jako jednoduchý a názorný zvláštní případ pro výpočet hodnoty pravděpodobnosti. Mnoho Laplaceových následovníků chybně usuzovalo, že Laplace chápal pravděpodobnost jen pro uvedené zjednodušení. +more To je však hrubý omyl. Naopak, Laplace předkládá ve svém díle i nástroje pro mnohem obecnější situaci. Například takové, které vyžadují úplnou formu součinového pravidla (de facto Bayesův teorém) a nevyžadují tudíž předpoklad, že všechny výsledky jsou apriori stejně možné. Anebo pro situace, které neumožňují mnohonásobné opakování experimentu ve statisticky stabilních podmínkách. Viz např. Laplaceův problém stanovení pravděpodobné hmotnosti Saturnu. Laplaceovo pojetí pravděpodobnosti je bayesovské - jako zobecnění logiky pro úlohy s neúplnou informací.

Bayesovské interpretace

Pravděpodobnost je míra očekávání toho, že nastane nějaký jev, měřená na škále od nuly (jistota, že jev nenastane) do jedné (jistota, že jev nastane) tak, aby číselná vyjádření pravděpodobnosti vyhovovala zákonům logiky a obvyklým rovnostem teorie pravděpodobnosti. Existují v zásadě dvě možné bayesovské interpretace pravděpodobnosti: * objektivistická, podle níž je pravděpodobnost racionální očekávání založené na stavu vědomostí a jde o rozšíření klasické dvouhodnotové logiky na situaci, kdy se pracuje i s nejistotou (Richard Threlkeld Cox, +more_T. _Jaynes'>E. T. Jaynes a další); * subjektivistická, podle níž je pravděpodobnost kvantifikací subjektivní víry, jež má podléhat pravidlům racionality a koherence (Bruno de Finetti, Abraham Wald a další).

Diskuse: I když své jméno nese podle Thomase Bayese, byl zakladatelem tohoto proudu pravděpodobnostního myšlení až Pierre-Simon Laplace. V první polovině dvacátého století bylo toto chápání pravděpodobnosti zatlačeno do pozadí jako příliš subjektivní, ale zájem o ně opět postupně narůstal, když se ukázalo jako výhodné v řadě situací, kdy je opačné (frekventistické) pojetí méně praktické nebo ho nelze přímočaře aplikovat.

Statistická definice pravděpodobnosti

Opakujme náhodný pokus N-krát, přičemž předpokládejme, že výskyt náhodného jevu A pozorujeme v K případech. Číslo K se nazývá četností jevu A. +more Poměr \frac{K}{N} se pak označuje jako poměrná či relativní četnost jevu A. Jestliže se s rostoucím N, tedy se zvyšováním počtu opakování pokusu, relativní četnost \frac{K}{N} blíží nějakému číslu, pak toto číslo můžeme považovat za pravděpodobnost daného jevu.

Diskuse: Statistickou definici pravděpodobnosti označujeme též jako frekvencionistickou. Při velkém počtu pokusů se za jistých předpokladů bude relativní četnost blížit pravděpodobnosti daného jevu. +more Musí však platit, že statistický experiment probíhá ve statisticky ustálených podmínkách. Dále je zřejmé, že statistickou definici nelze dobře použít, pokud jev není opakovatelný. Klasickou i statistickou definicí tak získáme stejnou hodnotu pravděpodobnosti jen za poměrně silných (i když v praxi dosti častých) předpokladů.

Geometrická definice pravděpodobnosti

Dalším příkladem definice pravděpodobnosti může být tzv. geometrická definice. +more Zde je definice pravděpodobnosti založena na porovnání objemů, ploch či délek geometrických útvarů. Uvažujme např. dvojrozměrnou situaci. Podle geometrické definice je pak pravděpodobnost jevu A určena jako P(A) = \frac{\omega}{S}, kde S je obsah plochy (představující např. všechny možné výsledky náhodného pokusu) a \omega je celkový obsah plochy (která např. představuje výsledky, při nichž dojde k výskytu jevu A).

Diskuse: Také geometrická definice v uvedené formě vychází z předpokladu, že všechny výsledky náhodného pokusu jsou stejně pravděpodobné (obecněji - že všechny elementy uvažovaného geometrického objektu mají „stejnou váhu“). S pomocí součinového pravidla (Bayesova teorému) ji lze snadno zobecnit i na situace s libovolným apriorním rozdělením pravděpodobností (různou váhou elementů geometrického objektu). +more Geometrickou definici pravděpodobnosti tedy není nutné svazovat s nějakými opakovanými náhodnými pokusy. Geometrická definice v uvedené zjednodušené podobě je přirozeným východiskem pro definici pravděpodobnosti jako určité normované míry, popsané axiomaticky jazykem teorie množin (Kolmogorovova definice).

Kolmogorovova axiomatická definice

Přiřazení pravděpodobnosti náhodnému jevu popisuje Kolmogorovova axiomatická definice pravděpodobnosti z roku 1933. Je-li \Omega neprázdná množina a S je σ algebra náhodných jevů definovaných na \Omega, pak pravděpodobností se nazývá reálná funkce P(A) definovaná na S, která pro A\in S a A_1, A_2, . +more \in S, A_i\cap A_j = \emptyset, i\neq j splňuje # P(A)\geq 0, tzn. pravděpodobnost každého jevu je nezáporná # P(\Omega)=1, tzn. pravděpodobnost jistého jevu je rovna 1. # P\left(\cup_{i=1}^\infty A_i\right) = \sum_{i=1}^\infty P(A_i), tzn. pravděpodobnost sjednocení vzájemně se vylučujících jevů (tj. průnik každých dvou z nich je nemožný jev) je rovna součtu jejich pravděpodobností.

Z uvedených axiomů vyplývá následující: * Pravděpodobnost je číslo v intervalu \langle 0,1 \rangle, tzn. 0\leq P(A)\leq 1. +more * Nemožný jev má nulovou pravděpodobnost, tedy P(\emptyset) = 0. * Pravděpodobnost sjednocení dvou navzájem se vylučujících jevů je rovna součtu jejich pravděpodobností, tzn. P(A_1\cup A_2) = P(A_1) + P(A_2). Tento důsledek lze zobecnit na sjednocení libovolného konečného počtu jevů, tzn. P\left(\cup_{i=1}^k A_i\right) = \sum_{i=1}^k P(A_i). * Pravděpodobnost opačného jevu je doplněk pravděpodobnosti výchozího jevu do jedné, tzn. P(\overline{A}) = 1 - P(A). * Je-li A částí jevu B, pak pravděpodobnost jevu A je menší nebo rovna pravděpodobnosti B, tzn. P(A)\leq P(B). * Je-li A částí jevu B, pak pravděpodobnost rozdílu jevů B-A je rovna rozdílu pravděpodobností obou jevů, tzn. P(B-A) = P(B)- P(A).

Kolmogorova definice je dostatečně obecná, neboť funkce P může představovat míru na dané σ-algebře. Předchozí definice pak představují pouze speciální případy axiomatické definice. +more V praxi se však při výpočtu pravděpodobnosti často využívají.

Vlastnosti

P(A\cup B) = P(A) + P(B) - P(A\cap B) * P\left(\cup_{i=1}^n A_i\right) = \sum_{i=1}^n P(A_i) - \sum_{i=1}^{n-1}\sum_{j=i+1}^n P(A_i\cap A_j) + \sum_{i=1}^{n-2}\sum_{j=i+1}^{n-1}\sum_{k=j+1}^n P(A_i\cap A_j\cap A_k) + \cdots + {(-1)}^{n-1} P\left(\cap_{i=1}^n A_i\right) * Pro posloupnost jevů A_1 \subset A_2 \subset \cdots platí P\left(\cup_{i=1}^\infty A_i\right) = \lim_{i\to\infty} P(A_i) * Pro posloupnost jevů A_1 \supset A_2 \supset \cdots platí P\left(\cap_{i=1}^\infty A_i\right) = \lim_{i\to\infty} P(A_i)

Podmíněná pravděpodobnost

Podmíněnou pravděpodobností P(A|B) jevu A rozumíme pravděpodobnost výskytu jevu A za předpokladu, že se vyskytl jev B, přičemž P(B)>0. Pokud naopak předpoklad vypustíme, hovoříme o nepodmíněné pravděpodobnosti P(A) jevu A.

Podmíněnou pravděpodobnost jevu A lze vyjádřit jako :P(A|B) = \frac{P(A \cap B)}{P(B)} = \frac

A \cap B
[wiki_table=7a22deff].

Máme-li náhodné jevy A_1, A_2, ..., A_n, pak pravděpodobnost jejich průniku je :P\left(\cap_{i=1}^n A_i\right) = P(A_1)P(A_2|A_1)P(A_3|A_1\cap A_2)\cdots P\left(A_n|\cap_{i=1}^{n-1}A_i\right)

Speciálním případem tohoto vztahu je pravděpodobnost průniku dvou jevů A, B, tedy pravděpodobnost, že jevy A, B nastanou současně. Podle tohoto vztahu je tato pravděpodobnost rovna součinu pravděpodobnosti jednoho jevu a podmíněné pravděpodobnosti jevu druhého, tzn. +more :P\left(A\cap B\right) = P(A)P(B|A) = P(B)P(A|B).

Nezávislé jevy

Řekneme, že jevy A a B jsou nezávislé, pokud pravděpodobnost jevu A nezávisí na výskytu jevu B, tj. P(A|B)=P(A); definice s prohozenými jevy A a B je ekvivalentní. +more Podle vztahu pro podmíněnou pravděpodobnost tedy platí :P(A \cap B) = P(A) \cdot P(B).

Uvedené tvrzení lze obrátit, tzn. jestliže platí P(A\cap B) = P(A) \cdot P(B), pak jsou jevy A,B nezávislé.

Podobně řekneme o jevech A_1, A_2, . , A_n, že jsou (navzájem) nezávislé právě tehdy, když pro každou podmnožinu Q \subseteq \{ A_1, A_2, . +more, A_n \} platí :P\left(\cap_{A \in Q} A\right) = \prod_{A \in Q} P(A). Všimněme si, že uvedená rovnost musí platit nejen pro průnik všech zmíněných jevů, ale také každé jejich podskupiny. Taková nezávislost bývá označována jako skupinová nezávislost jevů. Každý jev je totiž nezávislý nejen na ostatních jevech, ale je také nezávislý na (libovolných) průnicích ostatních jevů. Nezávislost jevů po dvou je typ nezávislosti, kdy každý jev je nezávislý na ostatních jevech, nemusí však být nezávislý na průnicích jiných jevů.

Příklad

Mějme čtyři krabice, přičemž každá krabice má víko a uvnitř je koule. První krabice je bílá, uvnitř je bílá koule a víko krabice je také bílé. +more Druhá krabice je bílá, uvnitř je černá koule a víko je také černé. Třetí krabice je černá, uvnitř je černá koule a víko je bílé. Poslední krabice je černá, uvnitř je bílá koule a víko je černé.

Za náhodný jev A budeme považovat, že náhodně vybraná krabice je černá, za jev B vezmeme, že náhodně vybraná krabice obsahuje černou kouli, a jevem C bude, že náhodně vybraná krabice má černé víko.

Z předchozího lze zjistit :P(A) = P(B) = P(C) = \frac{1}{2}

Pro současný výskyt dvojic jevů platí :P(A\cap B) = P(A\cap C) = P(B\cap C) = \frac{1}{4}

Vzhledem k tomu, že neexistuje žádná černá krabice s černou koulí a černým víkem, bude :P(A\cap B\cap C) = 0

Je tedy vidět, že náhodné jevy A,B,C jsou po dvou nezávislé, avšak nejsou (navzájem) nezávislé.

Vzorec úplné pravděpodobnosti

Jestliže jevy B_1, B_2, . , B_n tvoří úplný systém jevů, pak pravděpodobnost libovolného jevu A lze určit pomocí tzv. +more vzorce úplné pravděpodobnosti :P(A) = \sum_{i=1}^n P(B_i)P(A|B_i).

Bayesův vzorec

Mějme úplný systém jevů B_1, B_2, . , B_n. +more Jestliže je výsledkem náhodného pokusu jev A, pak k určení podmíněné pravděpodobnosti jevu B_k vzhledem k jevu A použijeme Bayesův vzorec, který zapisujeme :P(B_k|A) = \frac{P(B_k)P(A|B_k)}{\sum_{i=1}^n P(B_i)P(A|B_i)}= \frac{P(B_k)P(A|B_k)}{P(A)} pro k=1,2,. ,n.

Rozdělení

Rozdělení pravděpodobnosti je funkce, která přiřazuje pravděpodobnosti událostem nebo tvrzením. Pro každou sadu událostí existuje mnoho způsobů, jak přiřadit pravděpodobnost, takže výběr rozdělení odpovídá různým předpokladům o události.

Existuje několik způsobů, jak vyjádřit rozdělení pravděpodobnosti. Nejobvyklejší je uvést hustotu rozdělení pravděpodobnosti; samotná pravděpodobnost jevu se pak získá integrací funkce hustoty. +more Distribuční funkci lze také uvést přímo.

Rozdělení pravděpodobnosti nazveme diskrétní, pokud je definováno na spočetné, diskrétní množině, jako je podmnožina celých čísel. O spojitém rozdělení mluvíme v případě, že existuje spojitá distribuční funkce, např. +more polynomická nebo exponenciální. Většina rozdělení, které mají praktické využití, jsou buď diskrétní nebo spojité, ale existují i rozdělení, která nespadají do žádné z těchto dvou kategorií.

Důležitá diskrétní rozdělení jsou například alternativní rozdělení, Poissonovo, binomické, negativní binomické a Maxwellovo-Boltzmannovo. Mezi důležitá spojitá rozdělení patří normální rozdělení, rozdělení gama, Studentovo rozdělení a exponenciální rozdělení.

Náhodné veličiny jsou proměnné, jejichž hodnoty při konstantních podmínkách závisí na náhodě, přičemž každá z těchto hodnot vystupuje s určitou pravděpodobností. Náhodné veličiny mohou být diskrétní nebo spojité a odpovídá jim diskrétní nebo spojitá distribuční funkce.

: F(x) = \Pr\left[ X \le x \right]

Tato funkce je monotónní, neklesající, má nejvýše spočetně mnoho bodů nespojitosti a je spojitá zleva.

Diskrétní distribuční funkce je určena náhodnou veličinou, která je diskrétní, tedy může nabývat jen konečně mnoha hodnot xi. Hodnoty xi jsou body nespojitosti a příslušné pravděpodobnosti jsou skoky distribuční funkce v těchto bodech.

F(x) = \Pr \left[X \le x \right] = \sum_{x_i \le x} p(x_i) pro i = 1, 2, ...\,\!.

Spojité náhodné veličině odpovídá spojitá distribuční funkce.

\Pr \left[ a \le X \le b \right] = \int_a^b f(x)\,dx

kde f(x) je funkce hustoty pravděpodobnosti.

5 min read
Share this post:
Like it 8

Leave a Comment

Please, enter your name.
Please, provide a valid email address.
Please, enter your comment.
Enjoy this post? Join Cesko.wiki
Don’t forget to share it
Top