Array ( [0] => 14671553 [id] => 14671553 [1] => cswiki [site] => cswiki [2] => Pravděpodobnost [uri] => Pravděpodobnost [3] => [img] => [4] => [day_avg] => [5] => [day_diff] => [6] => [day_last] => [7] => [day_prev_last] => [8] => [oai] => [9] => [is_good] => [10] => [object_type] => [11] => 0 [has_content] => 0 [12] => [oai_cs_optimisticky] => ) Array ( [0] => [[Soubor:13-02-27-spielbank-wiesbaden-by-RalfR-093.jpg|náhled|[[Hazardní hra|Hazardní hry]] jsou založené na pravděpodobnosti]] [1] => '''Pravděpodobnost''' [[náhodný jev|náhodného jevu]] je [[číslo]] vyjadřující očekávatelnost určitého jevu, obvykle výsledku [[Náhodný pokus|náhodného pokusu]]. Náhodným pokusem rozumíme opakovatelnou činnost (tj. máme ''více než jeden pokus'') prováděnou za stejných (nebo přibližně stejných) podmínek, jejíž výsledek je nejistý a závisí na [[náhoda|náhodě]]. Příklady mohou být například házení [[hrací kostka|kostkou]] nebo losování [[loterie]]. [2] => [3] => Pravděpodobnost události nejčastěji vyjadřujeme [[reálné číslo|reálným číslem]] od 0 do 1. Událost, která nemůže nastat, má pravděpodobnost 0 (''nemožný jev''), a naopak událost, která nastane vždy, má pravděpodobnost 1 (''jistý jev''). Číselné vyjádření pravděpodobnosti P jevu A je poměrem všech příznivých událostí (''m'') ku celkovému počtu všech možných událostí (''n''), tj. P(A) = \frac{m}{n}. Alternativně se pravděpodobnost někdy uvádí v [[procento|procentech]], tedy setinách klasického vyjádření, nebo se vyjadřuje úplně jinými způsoby, např. jako [[poměr pravděpodobností]]. [4] => [5] => == Historie == [6] => Matematizací pojmu pravděpodobnost se ve své korespondenci zabývali [[Pierre de Fermat]] a [[Blaise Pascal]] (1654), a to zejména v kontextu hazardních her a kombinatorických problémů. Základy pravděpodobnosti jako matematické disciplíny poté dále rozvinuli [[Christiaan Huygens|Christian Huygens]], [[Abraham de Moivre]] a zejména [[Jacob Bernoulli]]. [7] => [8] => Zdaleka nejvýznamnějším a dodnes inspirativním klasikem teorie pravděpodobnosti byl však [[Pierre-Simon Laplace]]. Ve svém monumentálním díle o teorii pravděpodobnosti (''Théorie analytique des probabilités'') nejen že systematizoval veškeré poznání svých předchůdců, ale dalekosáhle je rozpracoval i aplikoval na téměř všechny oblasti tehdejšího vědeckého poznání – od fyziky až po sociální vědy. V Laplaceově pojetí představuje pravděpodobnost nástroj pro popis všech problémů s neúplnou vstupní informací. Laplace mimo jiné (znovu)objevil jednu z klíčových formulí teorie pravděpodobnosti, známou dnes jako [[Bayesova věta|Bayesův teorém]], kterou navíc zobecnil pro situace s obecnou apriorní informací. Na řešení konkrétního astronomického problému – určení přibližné hmotnosti Saturnu – ukázal Laplace užití pravděpodobnosti na oblast jevů, pro které opakovaný či hromadný výskyt nemá smysl (nejde o náhodné pokusy), čímž se stal průkopníkem [[Bayesovská teorie pravděpodobnosti|bayesovské teorie pravděpodobnosti]]. Jako předstupeň [[metoda maximální entropie|metody maximální entropie]] odvodil Laplace rozložení chyb (v podstatě Gaussovu křivku) pro některé konkrétní experimenty. Populárně psaným úvodem k jeho hlavnímu dílu o pravděpodobnosti byla jeho „filosofická“ esej o pravděpodobnosti. Tento úvod byl sice mnohem rozšířenější a čtivější, než jeho dílo hlavní, vedl však též k různým zkresleným představám a mýtům o Laplaceově práci v oblasti pravděpodobnosti. V hlavním Laplaceově pravděpodobnostním díle dominuje jím vynalezená (a pro pravděpodobnost velmi významná) ''[[metoda vytvořujících funkcí]]''. [9] => [10] => Laplace pozvedl teorii pravděpodobnosti na úroveň, která pak celé století po jeho smrti nebyla překonána. Novější vývoj sledoval dvě hlavní linie: jedna z nich se zabývala zejména pravděpodobností v kontextu tzv. hromadných jevů a fakticky vedla k výrazně zúženému a v podstatě statistickému pojetí pojmu pravděpodobnosti (tzv. [[frekvencionistická škola|„frekvencionistická“ škola]], jejímž hlavním propagátorem byl [[Richard von Mises|R. von Mises]]). [11] => [12] => Druhá vývojová linie je charakterizovaná zejména pracemi vědců jako byli [[Andrej Nikolajevič Kolmogorov]] (zejména matematika) a [[Edwin Thompson Jaynes]] (zejména fyzika), které zachovávají obecnost a ducha Laplaceova „bayesovského“ pojetí pravděpodobnosti, staví je však na modernější základy. V pracích Kolmogorova figuruje [[pravděpodobnost jako teorie normované míry]], v pracích Jaynese je interpretována [[pravděpodobnost jako zobecněná logika]]. Obě tato pojetí jsou do značné míry ekvivalentní. Unikátnost pravidel teorie pravděpodobnosti, která představovala dlouho otevřenou otázku v základech teorie, značně ujasnili [[Richard Threlkeld Cox]] a [[Edwin Thompson Jaynes|E. T. Jaynes]]. Souběžně ve 20. století došlo k „pravděpodobnostní revoluci“ ve fyzice, zejména v kontextu oblastí jako [[statistická fyzika]], [[kvantová mechanika]], [[teorie chaosu]], [[informační fyzika]], atd. Rozvoj poznatků o teorii pravděpodobnosti tak stále není ani zdaleka uzavřen. [13] => [14] => == Definice == [15] => [[množina|Množinu]] všech možných výsledků [[Experiment|pokusu]] (experimentu) značíme \Omega. Jednotlivé možné výsledky pokusu značíme \omega. [[podmnožina|Podmnožiny]] množiny \Omega se nazývají ''[[náhodný jev|(náhodné) jevy]]''. [16] => [17] => === Klasická (Laplaceova) definice pravděpodobnosti === [18] => Nechť náhodný pokus splňuje předpoklady: [19] => # Všech možných výsledků je konečný počet. [20] => # Všechny výsledky jsou stejně možné. [21] => # Všechny výsledky se vzájemně vylučují. [22] => [23] => Pravděpodobností jevu ''A'' pak nazveme číslo P(A) = \frac{m}{n}, kde n je počet všech výsledků náhodného pokusu a m je počet výsledků příznivých jevu ''A''; n=|\Omega|, m=|A|. [24] => [25] => ''Diskuse'': Je zapotřebí zdůraznit, že Laplace uvedenou definici předložil jen jako jednoduchý a názorný ''zvláštní případ'' pro výpočet hodnoty pravděpodobnosti. Mnoho Laplaceových následovníků chybně usuzovalo, že Laplace chápal pravděpodobnost jen pro uvedené zjednodušení. To je však hrubý omyl. Naopak, Laplace předkládá ve svém díle i nástroje pro mnohem obecnější situaci. Například takové, které vyžadují úplnou formu součinového pravidla ([[de facto]] Bayesův teorém) a nevyžadují tudíž předpoklad, že všechny výsledky jsou apriori stejně možné. Anebo pro situace, které neumožňují mnohonásobné opakování experimentu ve statisticky stabilních podmínkách. Viz např. Laplaceův problém stanovení pravděpodobné hmotnosti Saturnu. Laplaceovo pojetí pravděpodobnosti je bayesovské – jako zobecnění logiky pro úlohy s neúplnou informací. [26] => [27] => === Bayesovské interpretace === [28] => Pravděpodobnost je míra očekávání toho, že nastane nějaký jev, měřená na škále od nuly (jistota, že jev nenastane) do jedné (jistota, že jev nastane) tak, aby číselná vyjádření pravděpodobnosti vyhovovala zákonům logiky a obvyklým rovnostem teorie pravděpodobnosti. Existují v zásadě dvě možné bayesovské interpretace pravděpodobnosti: [29] => * objektivistická, podle níž je pravděpodobnost racionální očekávání založené na stavu vědomostí a jde o rozšíření klasické dvouhodnotové logiky na situaci, kdy se pracuje i s nejistotou ([[Richard Threlkeld Cox]], [[E. T. Jaynes]] a další); [30] => * subjektivistická, podle níž je pravděpodobnost kvantifikací subjektivní víry, jež má podléhat pravidlům racionality a koherence ([[Bruno de Finetti]], [[Abraham Wald]] a další). [31] => [32] => ''Diskuse'': I když své jméno nese podle [[Thomas Bayes|Thomase Bayese]], byl zakladatelem tohoto proudu pravděpodobnostního myšlení až [[Pierre-Simon Laplace]]. V první polovině dvacátého století bylo toto chápání pravděpodobnosti zatlačeno do pozadí jako příliš subjektivní, ale zájem o ně opět postupně narůstal, když se ukázalo jako výhodné v řadě situací, kdy je opačné (frekventistické) pojetí méně praktické nebo ho nelze přímočaře aplikovat. [33] => [34] => === Statistická definice pravděpodobnosti === [35] => Opakujme náhodný pokus N-krát, přičemž předpokládejme, že výskyt náhodného jevu A pozorujeme v M případech (číslo M je ''četností jevu'' A). Poměr \frac{M}{N} se pak označuje jako ''poměrná'' či ''relativní četnost jevu'' A. Jestliže se s rostoucím N, tedy se zvyšováním počtu opakování pokusu, relativní četnost \frac{M}{N} blíží nějakému číslu, pak toto číslo můžeme považovat za pravděpodobnost daného jevu. [36] => [37] => ''Diskuse'': Statistickou definici pravděpodobnosti označujeme též jako ''frekvencionistickou''. Při velkém počtu pokusů se ''za jistých předpokladů'' bude relativní četnost blížit pravděpodobnosti daného jevu. Musí však platit, že statistický experiment probíhá ve ''statisticky ustálených podmínkách''. Dále je zřejmé, že statistickou definici nelze dobře použít, pokud jev není opakovatelný. Klasickou i statistickou definicí tak získáme stejnou hodnotu pravděpodobnosti jen za poměrně silných (i když v praxi dosti častých) předpokladů. [38] => [39] => === Geometrická definice pravděpodobnosti === [40] => Dalším příkladem definice pravděpodobnosti může být tzv. ''geometrická definice''. Zde je definice pravděpodobnosti založena na porovnání objemů, ploch či délek geometrických útvarů. Uvažujme např. dvojrozměrnou situaci. Podle geometrické definice je pak pravděpodobnost jevu A určena jako P(A) = \frac{\omega}{S}, kde S je [[obsah]] [[plocha|plochy]] (představující např. všechny možné výsledky náhodného pokusu) a \omega je celkový obsah plochy (která např. představuje výsledky, při nichž dojde k výskytu jevu A). [41] => [42] => ''Diskuse'': Také geometrická definice v uvedené formě vychází z předpokladu, že všechny výsledky náhodného pokusu jsou stejně pravděpodobné (obecněji – že všechny elementy uvažovaného geometrického objektu mají „stejnou váhu“). S pomocí součinového pravidla (Bayesova teorému) ji lze snadno zobecnit i na situace s libovolným apriorním rozdělením pravděpodobností (různou váhou elementů geometrického objektu). Geometrickou definici pravděpodobnosti tedy není nutné svazovat s nějakými opakovanými náhodnými pokusy. Geometrická definice v uvedené zjednodušené podobě je přirozeným východiskem pro definici pravděpodobnosti jako určité ''normované míry'', popsané axiomaticky jazykem [[teorie množin]] (Kolmogorovova definice). [43] => [44] => === Kolmogorovova axiomatická definice === [45] => {{Viz též|Kolmogorovovy axiomy pravděpodobnosti}} [46] => Přiřazení pravděpodobnosti náhodnému jevu popisuje [[Andrej Nikolajevič Kolmogorov|Kolmogorovova]] [[axiom]]atická definice pravděpodobnosti z roku [[1933]]. [47] => Je-li \Omega neprázdná [[množina]] a S je [[sigma algebra|σ algebra]] náhodných jevů definovaných na \Omega, pak pravděpodobností se nazývá reálná [[funkce (matematika)|funkce]] P(A) definovaná na S, která pro A\in S a A_1, A_2, ... \in S, A_i\cap A_j = \emptyset, i\neq j splňuje [48] => # P(A)\geq 0, tzn. pravděpodobnost každého jevu je nezáporná [49] => # P(\Omega)=1, tzn. pravděpodobnost [[jistý jev|jistého jevu]] je rovna 1. [50] => # P\left(\cup_{i=1}^\infty A_i\right) = \sum_{i=1}^\infty P(A_i), tzn. pravděpodobnost [[sjednocení]] vzájemně se vylučujících jevů (tj. průnik každých dvou z nich je [[nemožný jev]]) je rovna [[součet|součtu]] jejich pravděpodobností. [51] => [52] => Z uvedených axiomů vyplývá následující: [53] => * Pravděpodobnost je číslo v intervalu \langle 0,1 \rangle, tzn. 0\leq P(A)\leq 1. [54] => * Nemožný jev má nulovou pravděpodobnost, tedy P(\emptyset) = 0. [55] => * Pravděpodobnost sjednocení dvou navzájem se vylučujících jevů je rovna součtu jejich pravděpodobností, tzn. P(A_1\cup A_2) = P(A_1) + P(A_2). Tento důsledek lze zobecnit na sjednocení libovolného konečného počtu jevů, tzn. P\left(\cup_{i=1}^k A_i\right) = \sum_{i=1}^k P(A_i). [56] => * Pravděpodobnost opačného jevu je doplněk pravděpodobnosti výchozího jevu do jedné, tzn. P(\overline{A}) = 1 - P(A). [57] => * Je-li A částí jevu B, pak pravděpodobnost jevu A je menší nebo rovna pravděpodobnosti B, tzn. P(A)\leq P(B). [58] => * Je-li A částí jevu B, pak pravděpodobnost rozdílu jevů B-A je rovna rozdílu pravděpodobností obou jevů, tzn. P(B-A) = P(B)- P(A). [59] => [60] => Kolmogorova definice je dostatečně obecná, neboť funkce P může představovat [[Míra (matematika)|míru]] na dané [[sigma algebra|σ-algebře]]. Předchozí definice pak představují pouze speciální případy axiomatické definice. V praxi se však při výpočtu pravděpodobnosti často využívají. [61] => [62] => === Vlastnosti === [63] => * P(A\cup B) = P(A) + P(B) - P(A\cap B) [64] => * P\left(\cup_{i=1}^n A_i\right) = \sum_{i=1}^n P(A_i) - \sum_{i=1}^{n-1}\sum_{j=i+1}^n P(A_i\cap A_j) + \sum_{i=1}^{n-2}\sum_{j=i+1}^{n-1}\sum_{k=j+1}^n P(A_i\cap A_j\cap A_k) + \cdots + {(-1)}^{n-1} P\left(\cap_{i=1}^n A_i\right) [65] => * Pro [[posloupnost]] jevů A_1 \subset A_2 \subset \cdots platí P\left(\cup_{i=1}^\infty A_i\right) = \lim_{i\to\infty} P(A_i) [66] => * Pro [[posloupnost]] jevů A_1 \supset A_2 \supset \cdots platí P\left(\cap_{i=1}^\infty A_i\right) = \lim_{i\to\infty} P(A_i) [67] => [68] => == Podmíněná pravděpodobnost == [69] => '''Podmíněnou pravděpodobností''' P(A|B) jevu A rozumíme pravděpodobnost výskytu jevu A za předpokladu, že se vyskytl jev B, přičemž P(B)>0. [70] => Pokud naopak předpoklad vypustíme, hovoříme o ''nepodmíněné pravděpodobnosti'' P(A) jevu A. [71] => [72] => Podmíněnou pravděpodobnost jevu A lze vyjádřit jako [73] => :P(A|B) = \frac{P(A \cap B)}{P(B)} = \frac{|A \cap B|}{|B|}. [74] => [75] => Máme-li náhodné jevy A_1, A_2, ..., A_n, pak pravděpodobnost jejich [[průnik]]u je [76] => :P\left(\cap_{i=1}^n A_i\right) = P(A_1)P(A_2|A_1)P(A_3|A_1\cap A_2)\cdots P\left(A_n|\cap_{i=1}^{n-1}A_i\right) [77] => [78] => Speciálním případem tohoto vztahu je pravděpodobnost průniku dvou jevů A, B, tedy pravděpodobnost, že jevy A, B nastanou současně. Podle tohoto vztahu je tato pravděpodobnost rovna součinu pravděpodobnosti jednoho jevu a podmíněné pravděpodobnosti jevu druhého, tzn. [79] => :P\left(A\cap B\right) = P(A)P(B|A) = P(B)P(A|B) [80] => [81] => === Nezávislé jevy === [82] => Řekneme, že jevy A a B jsou ''[[Statistická nezávislost|nezávislé]]'', pokud pravděpodobnost jevu A nezávisí na výskytu jevu B, tj. P(A|B)=P(A); definice s prohozenými jevy A a B je ekvivalentní. Podle vztahu pro podmíněnou pravděpodobnost tedy platí [83] => :P(A \cap B) = P(A) \cdot P(B). [84] => [85] => Uvedené tvrzení lze obrátit, tzn. jestliže platí P(A\cap B) = P(A) \cdot P(B), pak jsou jevy A,B nezávislé. [86] => [87] => Podobně řekneme o jevech A_1, A_2, ..., A_n, že jsou ''(navzájem) nezávislé'' právě tehdy, když pro každou podmnožinu Q \subseteq \{ A_1, A_2, ..., A_n \} platí [88] => :P\left(\cap_{A \in Q} A\right) = \prod_{A \in Q} P(A). [89] => Všimněme si, že uvedená rovnost musí platit nejen pro průnik všech zmíněných jevů, ale také každé jejich podskupiny. Taková nezávislost bývá označována jako ''skupinová nezávislost jevů''. Každý jev je totiž nezávislý nejen na ostatních jevech, ale je také nezávislý na (libovolných) průnicích ostatních jevů. ''Nezávislost jevů po dvou'' je typ nezávislosti, kdy každý jev je nezávislý na ostatních jevech, nemusí však být nezávislý na průnicích jiných jevů. [90] => [91] => ==== Příklad ==== [92] => Mějme čtyři krabice, přičemž každá krabice má víko a uvnitř je koule. První krabice je bílá, uvnitř je bílá koule a víko krabice je také bílé. Druhá krabice je bílá, uvnitř je černá koule a víko je také černé. Třetí krabice je černá, uvnitř je černá koule a víko je bílé. Poslední krabice je černá, uvnitř je bílá koule a víko je černé. [93] => [94] => Za náhodný jev A budeme považovat, že ''náhodně vybraná krabice je černá'', za jev B vezmeme, že ''náhodně vybraná krabice obsahuje černou kouli'', a jevem C bude, že ''náhodně vybraná krabice má černé víko''. [95] => [96] => Z předchozího lze zjistit [97] => :P(A) = P(B) = P(C) = \frac{1}{2} [98] => [99] => Pro současný výskyt dvojic jevů platí [100] => :P(A\cap B) = P(A\cap C) = P(B\cap C) = \frac{1}{4} [101] => [102] => Vzhledem k tomu, že neexistuje žádná černá krabice s černou koulí a černým víkem, bude [103] => :P(A\cap B\cap C) = 0 [104] => [105] => Je tedy vidět, že náhodné jevy A,B,C jsou ''po dvou nezávislé'', avšak nejsou ''(navzájem) nezávislé''. [106] => [107] => === Vzorec úplné pravděpodobnosti === [108] => Jestliže jevy B_1, B_2, ..., B_n tvoří [[úplný systém jevů]], pak pravděpodobnost libovolného jevu A lze určit pomocí tzv. ''vzorce úplné pravděpodobnosti'' [109] => :P(A) = \sum_{i=1}^n P(B_i)P(A|B_i) [110] => [111] => === Bayesův vzorec === [112] => {{Podrobně|Bayesova věta}} [113] => Mějme [[úplný systém jevů]] B_1, B_2, ..., B_n. Jestliže je výsledkem náhodného pokusu jev A, pak k určení podmíněné pravděpodobnosti jevu B_k vzhledem k jevu A použijeme [[Bayesova věta|''Bayesův vzorec'']], který zapisujeme [114] => :P(B_k|A) = \frac{P(B_k)P(A|B_k)}{\sum_{i=1}^n P(B_i)P(A|B_i)}= \frac{P(B_k)P(A|B_k)}{P(A)} [115] => pro k=1,2,...,n. [116] => [117] => == Rozdělení == [118] => [[Rozdělení pravděpodobnosti]] je funkce, která přiřazuje pravděpodobnosti událostem nebo tvrzením. Pro každou sadu událostí existuje mnoho způsobů, jak přiřadit pravděpodobnost, takže výběr rozdělení odpovídá různým předpokladům o události. [119] => [120] => Existuje několik způsobů, jak vyjádřit rozdělení pravděpodobnosti. Nejobvyklejší je uvést [[hustota rozdělení pravděpodobnosti|hustotu rozdělení pravděpodobnosti]]; samotná pravděpodobnost jevu se pak získá [[integrál|integrací]] funkce hustoty. Distribuční funkci lze také uvést přímo. [121] => [122] => Rozdělení pravděpodobnosti nazveme diskrétní, pokud je definováno na spočetné, diskrétní množině, jako je podmnožina celých čísel. O spojitém rozdělení mluvíme v případě, že existuje spojitá [[distribuční funkce]], např. polynomická nebo exponenciální. Většina rozdělení, které mají praktické využití, jsou buď diskrétní nebo spojité, ale existují i rozdělení, která nespadají do žádné z těchto dvou kategorií. [123] => [124] => Důležitá diskrétní rozdělení jsou například [[alternativní rozdělení]], [[Poissonovo rozdělení|Poissonovo]], [[binomické rozdělení|binomické]], [[negativní binomické rozdělení|negativní binomické]] a [[Maxwellovo–Boltzmannovo rozdělení|Maxwellovo–Boltzmannovo]]. Mezi důležitá spojitá rozdělení patří [[normální rozdělení]], [[rozdělení gama]], [[Studentovo rozdělení]] a [[exponenciální rozdělení]]. [125] => [126] => '''Náhodné''' veličiny jsou proměnné, jejichž hodnoty při konstantních podmínkách závisí na náhodě, přičemž každá z těchto hodnot vystupuje s určitou pravděpodobností. Náhodné veličiny mohou být diskrétní nebo spojité a odpovídá jim diskrétní nebo spojitá distribuční funkce. [127] => [128] => : F(x) = \Pr\left[ X \le x \right] [129] => [130] => Tato funkce je monotónní, neklesající, má nejvýše spočetně mnoho bodů nespojitosti a je spojitá zleva. [131] => [132] => '''Diskrétní distribuční funkce''' je určena náhodnou veličinou, která je diskrétní, tedy může nabývat jen konečně mnoha hodnot xi. Hodnoty xi jsou body nespojitosti a příslušné pravděpodobnosti jsou skoky distribuční funkce v těchto bodech. [133] => [134] => F(x) = \Pr \left[X \le x \right] = \sum_{x_i \le x} p(x_i) [135] => pro i = 1, 2, ...\,\!. [136] => [137] => Spojité náhodné veličině odpovídá '''spojitá distribuční funkce'''. [138] => [139] => [140] => \Pr \left[ a \le X \le b \right] = \int_a^b f(x)\,dx [141] => [142] => [143] => kde ''f(x)'' je funkce hustoty pravděpodobnosti. [144] => [145] => == Odkazy == [146] => === Literatura === [147] => * {{Citace monografie | příjmení = Marek | jméno = Luboš | titul = Pravděpodobnost | vydavatel = Professional Publishing | místo = Praha | rok = 2012 | počet stran = 250 | isbn = 978-80-7431-087-4}} [148] => [149] => === Související články === [150] => * [[Teorie pravděpodobnosti]] [151] => * [[Náhodný pokus]] [152] => * [[Náhodný jev]] [153] => * [[Náhodná veličina]] [154] => * [[Poměr pravděpodobností]] [155] => * [[Kurzové sázení]] [156] => * [[Prostor s mírou]] [157] => [158] => === Externí odkazy === [159] => * {{Commonscat}} [160] => * {{Wikicitáty|téma=Pravděpodobnost}} [161] => * {{Wikislovník|heslo=pravděpodobnost}} [162] => [163] => {{Autoritní data}} [164] => {{Portály|Matematika}} [165] => [166] => [[Kategorie:Teorie pravděpodobnosti]] [] => )
good wiki

Pravděpodobnost

Hazardní hry jsou založené na pravděpodobnosti Pravděpodobnost náhodného jevu je číslo vyjadřující očekávatelnost určitého jevu, obvykle výsledku náhodného pokusu. Náhodným pokusem rozumíme opakovatelnou činnost (tj.

More about us

About

Expert Team

Vivamus eget neque lacus. Pellentesque egauris ex.

Award winning agency

Lorem ipsum, dolor sit amet consectetur elitorceat .

10 Year Exp.

Pellen tesque eget, mauris lorem iupsum neque lacus.

You might be interested in

,'náhodný jev','Bayesova věta','Pierre-Simon Laplace','posloupnost','Andrej Nikolajevič Kolmogorov','sigma algebra','množina','Richard Threlkeld Cox','Náhodný pokus','úplný systém jevů','Edwin Thompson Jaynes','metoda maximální entropie'