Array ( [0] => 15487592 [id] => 15487592 [1] => cswiki [site] => cswiki [2] => Entropie [uri] => Entropie [3] => [img] => [4] => [day_avg] => [5] => [day_diff] => [6] => [day_last] => [7] => [day_prev_last] => [8] => [oai] => [9] => [is_good] => [10] => [object_type] => [11] => 0 [has_content] => 0 [12] => [oai_cs_optimisticky] => ) Array ( [0] => [[Soubor:SmallEntropy.svg|vpravo|200px|náhled|Termodynamický systém s nízkou entropií - „zúženým“ rozložením pravděpodobnosti, a tedy „vysokou“ schopností konat práci]] [1] => [[Soubor:HighEntropy.svg|vpravo|200px|náhled|Termodynamický systém s vysokou entropií - „rozšířeným“ rozložením pravděpodobnosti, a tedy nízkou schopností konat práci]] [2] => [3] => '''Entropie''' je jedním ze základních a nejdůležitějších pojmů ve [[fyzika|fyzice]], [[teorie pravděpodobnosti|teorii pravděpodobnosti]] a [[teorie informace|teorii informace]], [[matematika|matematice]] a mnoha dalších oblastech vědy teoretické i aplikované. Vyskytuje se všude tam, kde se pracuje s pravděpodobností možných stavů daného systému. [4] => [5] => V populárních výkladech se často vyskytuje přiblížení entropie jako veličiny udávající „míru neuspořádanosti“ zkoumaného systému. Problémem tohoto vysvětlení je, že tato „definice“ používá pojem „neuspořádanost“, který je však sám nedefinovaný. Vhodnější je intuitivní představa entropie jako míry neurčitosti systému. Zatímco „ostrá“ rozdělení pravděpodobnosti (jako například [[prahování]]) mají entropii nízkou, naopak „neostrá“ či „rozmazaná“ rozdělení pravděpodobnosti mají entropii vysokou. Za pravděpodobnostní rozložení s nejvyšší entropií lze považovat [[normální rozdělení|normální]] (pro danou střední hodnotu a směrodatnou odchylku) nebo [[rovnoměrné rozdělení|rovnoměrné]] (pro daný interval) rozložení. [6] => [7] => Původ slova „entropie“ je odvozen z [[řečtina|řeckého]] ''εντροπία'', "směrem k", (''εν-'' "k" + ''τροπή'' "směrem").{{Citace elektronické monografie| url=http://www.etymonline.com/index.php?term=entropy| titul=Entropy| vydavatel=[[Online Etymology Dictionary]]| datum přístupu=2008-08-05}} [8] => [9] => == Historie == [10] => Pojem (termodynamické) entropie zavedl [[Rudolf Clausius]] v kontextu klasické [[termodynamika|termodynamiky]] s cílem vysvětlit, proč některé procesy jsou spontánní a jiné nejsou. [11] => [12] => Mikroskopickou definici entropie předložil [[Ludwig Boltzmann]] v roce [[1887]], jako jeden z centrálních pojmů jím založeného nového oboru fyziky - [[statistická fyzika|statistické mechaniky]]. [13] => [14] => [[Claude Elwood Shannon]] v r. [[1948]] na hypotéze, že [[informace]] je činitel související s mírou poodhalení té věčně zamlžené „pravdy“ hledané člověkem, postavil matematickou hypotézu vedoucí ke vztahu, známému dříve již jako entropie. Použil tehdy jedinou známou [[Jazyk (lingvistika)|jazykovou]] reprezentaci neurčitosti – pravděpodobnost, a tak dospěl k uvedenému vztahu. Dal tak základy [[Teorie informace|teorii informace]] jako [[exaktní]] [[věda|vědě]] (v článku: Claude Elwood Shannon, Warren Weaver: „A mathematical theory of communication“ v r. 1948). [15] => [16] => == Definice == [17] => V případě diskrétních stavů i pravděpodobností je entropie nejčastěji definovaná ([[Josiah Willard Gibbs]]) jako veličina typu: [18] => :S = - k\sum_i P_i \ln P_i \! [19] => kde ''S'' je obecně používaný symbol pro entropii. Sumace se provádí přes všechny [[mikrostav]]y odpovídající zadanému [[makrostav]]u, a P_i~ je pravděpodobnost ''i''-tého mikrostavu. Konstanta ''k'' odpovídá volbě jednotek, ve kterých je entropie ''S'' měřena. V jednotkách [[Soustava SI|SI]] je ''k'' = ''kB'' = [[Boltzmannova konstanta]] = 1,380 649×10−23 J K−1. Jednotka entropie je tedy formálně stejná, jako jednotka [[tepelná kapacita|tepelné kapacity]]. V jednotkách ''bit'' je ''k'' = 1/ln(2), takže [20] => :S = -\sum P_i \log_2 P_i. [21] => Z matematického pohledu je tedy entropie určitý aditivní [[funkcionál]] na [[rozdělení pravděpodobnosti|pravděpodobnostních rozděleních]]. Z pohledu fyziky je entropie klíčová veličina pro formulaci [[druhý termodynamický zákon|druhého zákona termodynamiky]]. Tento zákon klade principiální meze pro možnost získat z termodynamické soustavy [[práce (termodynamika)|užitečnou práci]].{{Citace monografie| příjmení = Daintith | jméno = John | titul = Oxford Dictionary of Physics | url = https://archive.org/details/dictionaryofphys0000unse_i7n8 | vydavatel = Oxford University Press | rok = 2005 | isbn = 0-19-280628-9}}Explicitněji řečeno je energie ''TRS'' coby užitečná práce nedostupná, přičemž ''TR'' je teplota nejchladnějšího vnějšího rezervoáru tepla. Pojem entropie a druhý zákon termodynamiky může být také uplatněn při řešení otázky, jestli daný proces bude probíhat spontánně. [[Spontánní proces]]y v [[uzavřená soustava|uzavřených soustavách]] vždy odpovídají nárůstu entropie. [22] => [23] => V případě izolovaného systému v rovnováze (Boltzmann) platí: [24] => : S = k_{\mathrm{B}} \ln \Omega \, , [25] => kde \Omega \, je systému dostupná část [[fázový prostor|fázového prostoru]] (u stejnocenných mikrostavů se jedná jednoduše o počet rozlišitelných mikrostavů daného makroskopického stavu systému). [26] => [27] => == Termodynamická entropie == [28] => Podíl tepla Q a teploty T bývá označován jako '''redukované teplo'''. Při vratném [[Carnotův cyklus|Carnotově cyklu]] je součet redukovaných tepel roven [[nula|nule]]. Vzhledem k tomu, že libovolný [[Termodynamický děj#Vratné a nevratné děje|vratný cyklus]] je možné [[aproximace|aproximovat]] ''elementárními Carnotovými cykly'', jejichž redukované teplo lze vyjádřit jako \frac{\Delta Q}{T}, je možné předchozí tvrzení zobecnit na libovolný vratný cyklus. [29] => [30] => Proběhnutí všech elementárních Carnotových cyklů je pak ekvivalentní aproximovanému vratnému ději, což lze vyjádřit jako [31] => :\sum \frac{\Delta Q}{T} = 0 [32] => Postupným zmenšováním elementárních Carnotových cyklů se v [[limita|limitě]] dostaneme k výrazu [33] => :\oint \frac{\delta Q}{T} = 0 [34] => Tento vztah je označován jako '''Clausiova rovnice''' a představuje podmínku, která je platná pro libovolný vratný [[Termodynamický děj#Kruhový děj|kruhový děj]]. Tuto rovnici lze považovat za matematické vyjádření druhého termodynamického zákona: Všechna \delta Q nemohou být kladná, ale některá musí být i záporná. Soustava, která vykonává vratný kruhový děj tedy nemůže od okolních těles teplo pouze přijímat, ale musí jim také nějaké teplo odevzdávat. [35] => [36] => Předchozí rovnice umožňuje definovat novou termodynamickou stavovou veličinu - entropii S. Její změnu při '''vratném''' termodynamickém ději lze vyjádřit pomocí tepla Q dodaného soustavě a její termodynamické teploty T ve formě [[Integrál|integrálu]] [37] => :S_2-S_1 = \int \frac{\delta Q}{T}. [38] => Pro nevratný děj platí '''Clausiova nerovnost''':{{Citace monografie [39] => | příjmení = Obdržálek, Jan, 1942- [40] => | titul = Úvod do termodynamiky, molekulové a statistické fyziky [41] => | url = https://www.worldcat.org/oclc/928740901 [42] => | vydání = Vydání první [43] => | místo = Praha [44] => | počet stran = 333 [45] => | isbn = 978-80-7378-287-0 [46] => | isbn2 = 80-7378-287-1 [47] => | oclc = 928740901 [48] => }} [49] => [50] => \oint \frac{\delta Q}{T} < 0, [51] => [52] => zde ''T'' označuje místo teploty soustavy teplotu termostatu. [53] => [54] => == Princip růstu entropie == [55] => Entropie je veličina s velkým významem, neboť umožňuje formulovat druhou hlavní větu termodynamiky, a vyjádřit kvantitativně nevratnost tepelných pochodů. Tuto skutečnost vyjadřuje '''princip růstu entropie'''. [56] => [57] => Za příklad nevratného děje lze považovat pokles [[břemeno|závaží]] spojený s uvolněním jisté [[potenciální energie]]. Pokud klesne závaží o určitou [[výška|výšku]] h a je zastaveno [[tření]]m, vykoná [[práce (fyzika)|práci]] W, při které třením vznikne [[teplo]] Q = W. Toto teplo je odvedeno do okolí, které lze považovat za těleso s teplotou T, a jehož entropie se tím změní o hodnotu \Delta S=\frac{Q}{T}. Předpokládá se přitom, že teplota okolí se přidáním tepla Q nijak znatelně nezmění. Přivedené teplo je kladné, a proto je také změna entropie kladná. Entropie soustavy tedy při tomto nevratném ději vzrostla. [58] => [59] => [[Soubor:entropie_princip_rustu.svg|náhled|Tepelně izolovaná soustava.]] [60] => Uvažujme tepelně izolovanou soustavu dvou [[těleso|těles]] ''1'' a ''2'' s teplotami T_1 a T_2. [61] => [62] => Tělesa si mohou vyměňovat [[teplo|tepelnou energii]], přičemž celková hodnota tepelné energie zůstává [[konstanta|stálá]]. Získá-li těleso ''2'' o teplotě T_2 teplo \partial Q_2, musí těleso ''1'' stejně velké teplo odevzdat, tzn. \partial Q_2=-\partial Q_1. Bude tedy platit \partial Q_1+\partial Q_2=0. [63] => [64] => Změna entropie bude [65] => :\mathrm{d}S = \mathrm{d}S_1+\mathrm{d}S_2 = \frac{\partial Q_1}{T_1} + \frac{\partial Q_2}{T_2} = \left(\frac{1}{T_1}-\frac{1}{T_2}\right) \partial Q_1 = \frac{T_2-T_1}{T_1T_2} \partial Q_1 [66] => Z tohoto vztahu je vidět, že pokud mají výraz T_2-T_1 a teplo \partial Q_1 stejné znaménko, pak \mathrm{d}S>0, jinak \mathrm{d}S<0. Podle Clausiovy formulace druhé hlavní věty však teplo nemůže samovolně přecházet z tělesa chladnějšího na těleso teplejší. Je-li tedy T_2>T_1, nemůže teplo přejít z tělesa ''1'' na těleso ''2'', a proto musí být \partial Q_1>0, tzn. \partial Q_2<0. Pokud však T_2, nemůže teplo přejít z tělesa ''2'' na těleso ''1'', takže musí být \partial Q_1<0, tedy \partial Q_2>0. V obou případech mají T_2-T_1 a \partial Q_1 stejná znaménka, což znamená, že v izolované soustavě platí [67] => :\mathrm{d}S>0 [68] => [69] => Celková entropie izolované soustavy dvou těles různých teplot tedy roste. Jsou-li teploty dosti blízké, nebo jsou-li tělesa od sebe dostatečně dobře izolována, může být změna entropie libovolně malá. V takové soustavě prakticky nedochází k výměně tepla a soustava je blízká [[tepelná rovnováha|tepelné rovnováze]]. Děje, které probíhají v takové soustavě, lze považovat za vratné, a jejich entropie se téměř nemění. Při vratném [[adiabatický děj|adiabatickém ději]] může být tedy entropie stálá, avšak nikdy nemůže klesat. [70] => [71] => V tepelně izolované soustavě probíhají děje adiabatické. V každé soustavě mohou z počátečního stavu vzniknout různé stavy vratnou nebo nevratnou změnou. Stavy, kterých soustava dosáhne nevratnou změnou, se podle druhé termodynamické věty liší od stavů při vratné změně tím, že z nich soustava sama od sebe bez vnějšího zásahu nemůže přejít zpět do výchozího stavu. Mimoto jsou zde stavy, z nichž lze počátečního stavu soustavy dosáhnout nevratnou změnou. Tyto stavy však soustava nemůže z počátečního stavu dosáhnout bez vnějšího zásahu. Odsud plyne další možné vyjádření druhé hlavní věty termodynamiky: ''V blízkosti každého [[stav tělesa|stavu soustavy]] existují stavy, kterých nelze dosáhnout adiabatickým dějem''. Takové stavy jsou tedy v izolované soustavě vyloučeny. [72] => [73] => Podle [[Carnotův cyklus#Carnotova věta|Carnotovy věty]] je účinnost nevratného kruhového děje mezi teplotami T_1 a T_2 vždy nižší než účinnost vratného Carnotova cyklu mezi stejnými teplotami. Pokud tedy pracovní látka získá při nevratném ději teplo Q_1 a odvede teplo Q_2^\prime, bude platit [74] => :\frac{Q_2^\prime}{Q_1} > \frac{T_2}{T_1} [75] => Vydané teplo Q_2^\prime je vlastně záporné přijaté teplo, tzn. Q_2^\prime = -Q_2, tzn. [76] => :\frac{Q_1}{T_1} + \frac{Q_2}{T_2}<0 [77] => [78] => Pokud děj neprobíhá pouze mezi dvěma teplotami, ale při spojitě se měnících teplotách, přejde předchozí součet v [[limita|limitě]] na [[integrál]] po uzavřené cestě [79] => :\oint_{(nevrat)} \frac{\partial Q}{T} < 0 [80] => Tento vztah se obvykle zapisuje ve tvaru [81] => :\oint \frac{\partial Q}{T}\le 0, [82] => kde znaménko rovnosti platí pro vratný kruhový děj. Jde vlastně o vyjádření skutečnosti, že při libovolném kruhovém ději, při němž se teplo mění v [[mechanická energie|mechanickou energii]], nemohou být všechna \delta Q, která soustava přijímá, kladná, ale některá musí být také záporná. Část tepla tedy musí soustava odvádět, takže se všechno přijaté teplo nezužitkuje pro mechanickou energii. Pokud při nevratném ději působí tření, takže vykonaná práce je menší a v soustavě vzniká třením teplo, je třeba k dosažení výchozího stavu odvádět více tepla než při vratném kruhovém ději, což je vyjádřeno znaménkem nerovnosti. [83] => [84] => Pokud se entropie procesu zvyšuje, je tento proces nevratný (ireverzibilní). Pokud zůstává [[konstanta|konstantní]], je tento proces vratný (reverzibilní), jako například u ideálního Carnotova kruhového děje. [85] => [86] => Celková entropie uzavřeného systému se nemůže nikdy zmenšit. V přírodě tedy všechny děje směřují do více neuspořádaného stavu. Stejně tak roste entropie ve [[vesmír]]u. Dle předpokladů L. Boltzmana se jeví jako [[pravděpodobnost|nejpravděpodobnější]] konečný stav vyrovnání pohybových energií molekul. To znamená, že by se konečné hodnoty entropie ve vesmíru dosáhlo tehdy, kdyby se vyrovnaly veškeré teplotní rozdíly ([[tepelná smrt vesmíru]]). [87] => [88] => Růst entropie lze pozorovat i v mikroskopickém měřítku.[https://phys.org/news/2019-07-characterizing-arrow-quantum.html Characterizing the 'arrow of time' in open quantum systems] [89] => [90] => == Informační entropie == [91] => {{Podrobně|Informační entropie}} [92] => '''Informační entropie''' velmi úzce souvisí s termodynamickou entropií, ačkoliv toto spojení se ukázalo být zřejmé až po mnoha letech nezávislého studia termodynamické entropie a informační entropie. Často je také nazývána ''Shannonovou entropií'' po [[Claude Shannon|Claude Elwoodovi Shannonovi]], který zformuloval mnoho klíčových poznatků [[teoretická informatika|teoretické informatiky]]. [93] => Obecně pro systém s konečným počtem možných stavů S\in\{s_1,s_2,...,s_n\}, n< \infty a pravděpodobnostní distribucí P(s_i) je informační entropie definována jako střední hodnota: [94] => :H(S)=-\sum_{i=1}^n P(s_i)\log_{2}P(s_i) [95] => Zde se formálně definuje, že 0\cdot \log_{2}0\equiv 0. [96] => [97] => Entropie je ''maximální'' pro rovnoměrné rozložení P(s_i)=\frac{1}{n} \mbox{ pro } \forall{i}: [98] => :H(S)=-\sum_{i=1}^n \frac{1}{n}\log_{2}\frac{1}{n}=-\log_{2}\frac{1}{n}=\log_{2}n, [99] => a ''minimální'' pro zcela deterministický systém \exists P(s_k)=1\mbox{ a }P(s_i)=0 \mbox{ pro } \forall{i} \neq k: [100] => :H(S)=-\sum_{i=1}^n P(s_i)\log_{2}P(s_i)=-\log_{2}1 = 0. [101] => [102] => Stručně řečeno je entropie střední hodnota informace jednoho kódovaného znaku. Míra entropie souvisí s problematikou generování [[náhodná sekvence|sekvence náhodných čísel]] (případně [[pseudonáhodná čísla|pseudonáhodných]] čísel), protože sekvence naprosto náhodných čísel by měla mít maximální míru entropie. Shannonova entropie také tvoří limit při [[bezeztrátová komprese|bezeztrátové kompresi]] dat, laicky řečeno komprimovaná data nelze beze ztráty informace „zhustit“ více, než dovoluje jejich entropie. [103] => [104] => Jako jistou míru vzdálenosti mezi dvěma [[rozdělení pravděpodobnosti|rozděleními pravděpodobnosti]] lze definovat '''relativní entropii'''Vajda I., ''Teorie informace''. Vydavatelství ČVUT, Praha 2004. {{ISBN|80-01-02986-7}} a to následovně: nechť ''p = p(x)'' a ''q = q(x)'' jsou dvě rozdělení pravděpodobnosti na množině \scriptstyle \mathcal{X} a ''q(x) > 0'' pro všechna \scriptstyle x \in \mathcal{X}. Pak relativní entropii rozdělení ''p'' a ''q'' definujeme jako [105] => :D(p\|q) = D(p(x) \| q(y)) = \sum_{x \in \mathcal{X}} p(x) \log \frac{p(x)}{q(x)}. [106] => [107] => === Odvození entropie === [108] => Podobně jako ve fyzice lze vztah pro entropii odvodit kombinatoricky s použitím [[Stirlingův vzorec|Stirlingova vzorce]] (na levé straně vzorce je počet možných textů nad nějakou abecedou vzhledem k nějakému diskrétnímu pravděpodobnostnímu rozdělení):{{Citace elektronického periodika |titul=Multinomiální odvození entropie |url=https://scitechmath.blogspot.com/2020/03/datova-veda-i.html |datum přístupu=2020-03-26 |url archivu=https://web.archive.org/web/20200326214624/https://scitechmath.blogspot.com/2020/03/datova-veda-i.html }} [109] => [110] => \log \sqrt[N]{N \choose n_1,\ldots,n_k} \approx -\sum_{i=1}^k p_i\log p_i [111] => [112] => kde n_i je počet výskytů i-tého znaku a N délka textu. [113] => [114] => == Odkazy == [115] => === Reference === [116] => [117] => [118] => === Související články === [119] => [120] => * [[Informační entropie]] [121] => * [[Entropie aktivace]] [122] => [123] => === Externí odkazy === [124] => * {{commonscat}} [125] => * {{MathWorld| id=Entropy}} [126] => * {{Citace elektronického periodika | příjmení = Skácel| jméno = Dalibor | titul = Co to je entropie? | periodikum = Alternativní energie | datum vydání = 2002-03-21 | url = http://www.tzb-info.cz/925-co-to-je-entropie }} [127] => [128] => {{Portály|Informační věda a knihovnictví|Fyzika}} [129] => [130] => {{Autoritní data}} [131] => [132] => [[Kategorie:Termodynamika]] [133] => [[Kategorie:Statistická mechanika]] [134] => [[Kategorie:Informace]] [135] => [[Kategorie:Informatika]] [136] => [[Kategorie:Teorie informace]] [137] => [[Kategorie:Entropie a informace| ]] [] => )
good wiki

Entropie

Termodynamický systém s nízkou entropií - „zúženým“ rozložením pravděpodobnosti, a tedy „vysokou“ schopností konat práci Termodynamický systém s vysokou entropií - „rozšířeným“ rozložením pravděpodobnosti, a tedy nízkou schopností konat práci Entropie je jedním ze základních a nejdůležitějších pojmů ve fyzice, teorii pravděpodobnosti a teorii informace, matematice a mnoha dalších oblastech vědy teoretické i aplikované. Vyskytuje se všude tam, kde se pracuje s pravděpodobností možných stavů daného systému.

More about us

About

Expert Team

Vivamus eget neque lacus. Pellentesque egauris ex.

Award winning agency

Lorem ipsum, dolor sit amet consectetur elitorceat .

10 Year Exp.

Pellen tesque eget, mauris lorem iupsum neque lacus.

You might be interested in

,'teplo','rozdělení pravděpodobnosti','konstanta','limita','aproximace','pseudonáhodná čísla','Informační entropie','tepelná rovnováha','tepelná smrt vesmíru','teoretická informatika','teorie pravděpodobnosti','vesmír'