Informační entropie

Technology
12 hours ago
8
4
2
Avatar
Author
Albert Flores

Dva bity entropie: Při dvou hodech poctivou mincí je informační entropie vyjádřená v bitech logaritmus o základu 2 počtu možných výsledků; při hodu dvěma mincemi existují čtyři možné výsledky, což odpovídá dvěma bitům entropie. Informační entropie je obecně průměrné množství informace obsažené v události, pokud uvažujeme všechny možné výsledky.

Informační nebo též shannonovská entropie je střední hodnota množství informace připadající na jeden symbol generovaný stochastickým zdrojem dat.

Míra informační entropie přiřazená ke každé možné datové hodnotě je záporným logaritmem pravděpodobnostní funkce dané hodnoty:

: S = - \sum_i P_i\log{P_i} = -\operatorname{E}_P[\log P],

kde \operatorname{E}_P[X] = \sum_i P_i X_i je střední hodnota definovaná pravděpodobností P.

Když datový zdroj vyprodukuje hodnotu (symbol), která má nízkou pravděpodobnost (tj. nastane událost s nízkou pravděpodobností), nese tato událost více „informace“ (způsobí větší „překvapení“), než vyprodukování hodnoty, která má pravděpodobnost vysokou. +more Pokud množství informace, které nese každá událost, považujeme za náhodnou veličinu, informační entropie je střední hodnota této náhodné události.

Entropie obecně vyjadřuje neuspořádanost nebo nejistotu, a definice entropie používaná v teorii informace je přímou analogií entropie používané ve statistické termodynamice. Koncept informační entropie představil Claude Shannon v roce 1948 ve svém článku „A Mathematical Theory of Communication".

Základní model systému datové komunikace obsahuje tři prvky: zdroj dat, komunikační kanál a přijímač a - jak vyjádřil Shannon - „základním problémem komunikace“ je, aby přijímač byl schopen ze signálu, který přijímá z přenosového kanálu, identifikovat, jaká data byla vygenerovaná zdrojem. Entropie vyjadřuje absolutní dolní mez průměrné délky bezztrátového kódování dat vytvářených zdrojem. +more Pokud je entropie zdroje menší než kapacita komunikační kanálu, je možné data generovaná zdrojem spolehlivě přenést k přijímači (alespoň teoreticky, případně se zanedbáním určitých praktických kritérií jako například času potřebného pro přenos dat a složitosti systému k tomuto účelu).

Informační entropie se nejčastěji měří v bitech (kterým se v této souvislosti také říká „shannons“), někdy v „přirozených jednotkách“ (natech) nebo v desítkových číslicích (nazývaný „dits“, „bans“ nebo „hartleys“). Jednotka měření závisí na základu logaritmu použitého pro výpočet entropie.

Logaritmus rozdělení pravděpodobnosti je vhodný jako míra entropie, protože pro nezávislé zdroje je aditivní. Například entropie vrhu poctivou mincí je 1 bit a entropie vrhů je bitů. +more V přímočaré reprezentaci je potřeba bitů pro reprezentaci proměnné, která může nabývat jedné z hodnot, jestliže je mocninou dvojky, tj. . Pokud jsou všechny hodnoty stejně pravděpodobné, entropie (v bitech) bude . Pokud se jedna z hodnot bude objevovat častěji než ostatní, pozorování této hodnoty je méně informativní, než kdyby došlo k méně obvyklému výsledku. Naopak pozorování vzácnější události poskytuje více informace. Protože pozorování méně pravděpodobných událostí se objevují méně často, způsobují, že entropie (braná jako průměrná informace) pocházející z nerovnoměrně distribuovaných dat je vždy menší nebo rovna . Entropie je nulová, pokud je jisté, že nastane jedna určitá událost. Entropie je veličina, která kvantifikuje tato kritéria pro známé rozdělení pravděpodobnosti zdrojových dat. Entropie nezávisí na obsahu pozorovaných událostí (významu zprávy), ale bere v úvahu pouze pravděpodobnosti jejich výskytu. To znamená, že entropie závisí pouze na podkladovém rozdělení pravděpodobnosti, nikoli na významu událostí samých.

...

Úvod

Základní myšlenkou teorie informace je, že „informační hodnota“ předávané zprávy závisí na míře, jak je obsah zprávy překvapivý. Není žádným překvapením, když dojde k události, která je velmi pravděpodobná. +more Naopak, v případě málo pravděpodobných událostí, je jejich výskyt mnohem informativnější. Například znalost, že určité číslo nevyhraje v loterii, nese velmi malou informaci, protože jakékoli určité číslo téměř určitě nevyhraje. Ale znalost, že určité číslo v loterii vyhraje, má vysokou informační hodnotu, protože informuje o události s velmi nízkou pravděpodobností. Informační obsah (také nazývaný - překvapení) události E je rostoucí funkcí převrácené hodnoty pravděpodobnosti p(E) události, přesněji I(E) = -\log_2(p(E)) = \log_2(1/p(E)). Entropie měří očekávané (tj. průměrné) množství informace obsažené v informaci o výsledku náhodného pokusu. Z toho vyplývá, že vrh kostkou má vyšší entropii než házení mincí, protože každý z výsledků vrhu kostkou má menší pravděpodobnost (p=\frac{1}{6}) než každý z výsledků vrhu mincí (p=\frac{1}{2}).

Entropie je míra nepředvídatelnosti výsledku, jeho průměrného informačního obsahu. Chceme-li získat intuitivní porozumění těmto termínům, můžeme si představit průzkum veřejného mínění. +more Takové průzkumy se provádějí, aby se zjistila informace, která není známá. To znamená, že výsledek průzkumu je těžko předpověditelný a provedení průzkumu přináší nějakou novou informaci; to je jen jiný způsob jak říct, že apriorní entropie výsledků průzkumu je velká. Pokud by se stejný průzkum prováděl znovu, krátce po prvním průzkumu, když je výsledek prvního průzkum už známý, bylo by možné výsledek druhého průzkum dobře předvídat, a jeho výsledky sotva obsahují mnoho nové informace; to znamená, že apriorní entropie výsledku druhého průzkumu je relativně malá v porovnání s prvním průzkumem.

Uvažujme vrh mincí. Pokud pravděpodobnost padnutí panny je stejná jako pravděpodobnost padnutí orla, pak entropie vrhu mincí je stejně vysoká jako u libovolného pokusu se dvěma stejně pravděpodobnými výsledky. +more Výsledek vrhu mincí nelze předpovědět: pokud si máme vybrat, neexistuje žádná průměrná výhoda předvídat určitý výsledek, protože každá předpověď bude správná s pravděpodobností 1/2. Takový vrh mincí má jeden bit entropie, protože existují dva možné výsledky se stejnou pravděpodobností, a víme, že výsledek má jeden bit informace. Naproti tomu, vrh mincí, které by měla dvě panny a žádného orla má nulovou entropii, protože při vrhu takovou mincí vždy padne panna a výsledek lze dokonale předpovědět. Libovolná událost se stejně pravděpodobnými výsledky má Shannonovu entropii \log_2 2=1 bit. Podobně každý pokus se třemi stejně pravděpodobnými hodnotami obsahuje \log_2 3 (asi 1,58496) bitů informace, protože může nabývat jednu ze tří hodnot.

Pokud budeme anglický text považovat za řetězec znaků, má docela nízkou entropii; to znamená, že je docela dobře předvídatelný. I v případě, že nevíme přesně, jaký znak bude následovat, můžeme si být jisti, že například 'e' bude mnohem obvyklejší než 'z', nebo že kombinace 'qu' bude mnohem obvyklejší než 'q' následované jiným písmenem, a že i kombinace 'th' bude obvyklejší než 'z', 'q' nebo 'qu'. +more Zbytek slova můžeme často odhadnout z několika prvních písmen. Anglický text má entropii 0,6 až 1,3 bitů na znak zprávy.

Pokud je komprimační schéma bezztrátové - takové, že původní zprávu lze vždy dekomprimovat - pak komprimovaná zpráva obsahuje stejné množství informace jako původní, ale je zakódována méně znaky. Obsahuje tedy více informace na znak (má vyšší entropii). +more Komprimovaná zpráva má menší redundanci. Shannonova věta o zdrojovém kódování říká, že bezztrátové komprimační schéma nemůže v průměru komprimovat zprávy, aby měly více než jeden bit informace na bit zprávy, ale, že jakoukoli hodnotu menší než jeden bit informace na bit zprávy lze dosáhnout použitím vhodného kódovacího schématu. Entropie zprávy na bit znásobená délkou zprávy je mírou, kolik informace zpráva celkem obsahuje.

Uvažujme, že bychom měli vysílat posloupnosti obsahující 4 znaky 'A', 'B', 'C' a 'D' - například zprávu 'ABADDCAB'. Teorie informace říká, jak spočítat nejmenší možné množství informace, kterou je třeba přenést. +more Jsou-li všechna 4 písmena stejně pravděpodobná (25 %), není možné najít lepší kódovací schéma (pro binární kanál), než zakódování každého písmene dvěma bity: 'A' například jako '00', 'B' jako '01', 'C' jako '10' a 'D' jako '11'. Pokud se však 'A' objevuje s 70% pravděpodobností, 'B' s 26%, a 'C' i 'D' s 2% pravděpodobností, bylo by možné přiřadit jednotlivým znakům kódy s různou délkou, takže přijetí '1' by znamenalo, že je třeba se podívat na jiný bit pokud žádná posloupnost 2 bitů jedniček už byla přijata. V tomto případě může být 'A' kódované jako '0' (jeden bit), 'B' jako '10' a 'C' a 'D' jako '110' a '111'. Je snadno vidět, že v 70 % případů stačí jeden bit informace, v 26 % případů dvou bitů a pouze ve 4 % případů 3 bitů. Průměrně stačí méně než 2 bity, protože entropie je nižší (kvůli vysoký prevalenci symbolů 'A' následovaných 'B' - současně 96 % znaků). Tento vliv zachycuje výpočet sumy pravděpodobnosti vážené logaritmem míry pravděpodobnosti.

Ze Shannonovy věty také vyplývá, že žádné bezztrátové komprimační schéma nemůže zkrátit úplně všechny zprávy. Pokud některé zprávy vyjdou kratší, alespoň jedna musí vyjít delší kvůli Dirichletově principu. +more Při praktickém použití to obecně není problém, protože typicky přenášíme pouze určitý typ zpráv, například dokumenty v angličtině nikoli náhodné řetězce znaků, nebo digitální fotografie a nikoli šum, a proto není důležité, že komprimační algoritmus nějaké nepravděpodobné nebo nezajímavé posloupnosti prodlužuje.

Definice

Shannon definoval entropii diskrétní náhodné proměnné X s možnými hodnotami \left\{x_1, \ldots, x_n \right\} a pravděpodobnostní funkcí \mathrm{P}(X) takto:

:\Eta(X) = \operatorname{E}[\operatorname{I}(X)] = \operatorname{E}[-\log(\mathrm{P}(X))].

Pro entropii používá znak (velké řecké písmeno éta), podle Boltzmannovy Η-věty. \operatorname{E} je operátor střední hodnoty a je informační obsah . +more I(X) je také náhodná proměnná.

Entropii můžeme explicitně zapsat jako

{{Rámeček| \Eta(X) = -\sum_{i=1}^n {\mathrm{P}(x_i) \log_b \mathrm{P}(x_i)}| pozice = left | popisek = | šířka = 6 | rámeček = #0073CF | barva = #F5FFFA }}

kde je základ použitého logaritmu. V tomto případě se nejčastěji jako základ používá hodnota 2, méně často Eulerovo číslo , nebo 10. +more Entropie je pro vyjádřena v bitech, pro v jednotkách nazývaných nat a pro v jednotkách nazývaných ban, hartley nebo dit.

Pokud pro nějaké , bere se hodnota odpovídajícího členu nulová, což odpovídá limitě

:\lim_{p\to0^+}p\log (p) = 0.

Můžeme také definovat podmíněnou entropii dvou událostí X a Y, které nabývají hodnot x_i a y_j, vzorcem

: \Eta(X|Y)=-\sum_{i,j}p(x_{i},y_{j})\log\frac{p(x_{i},y_{j})}{p(y_{j})}

kde p(x_i,y_j) je pravděpodobnost, že X=x_i a Y=y_j. Tuto hodnotu chápeme jako množství náhodnosti v náhodné proměnné X pro danou hodnotu náhodné proměnné Y.

Příklad

+more_střední_hodnota|střední_vlastní_informace'>překvapení) vrhu mincí měřené v bitech vynesené podle poctivosti mince , kde reprezentuje padnutí panny. Entropie je v tomto případě nejvýše 1 bit a předání výsledku vrhu mincí (se dvěma možnými výsledky) vyžaduje průměrně nejvýše 1 bit informace (pro poctivou minci je to přesně 1 bit). Zakódování vrhu poctivou kostkou (6 hodnot se stejnou pravděpodobností) vyžaduje průměrně log26 bitů. .

Uvažujme házení mincí se známými, ne nutně poctivými pravděpodobnostmi, že padne panna nebo orel; to lze modelovat Bernoulliho procesem.

Entropie neznámého výsledku dalšího vrhu mincí je nejvyšší, jestliže mince je poctivá (tj. jestliže panna i orel mají stejnou pravděpodobnost 1/2). +more U poctivé mince je nejobtížnější předpovídat výsledek dalšího vrhu; výsledek každého vrhu mincí přináší celý jeden bit informace. Důvodem je, že :\begin{align} \Eta(X) &= -\sum_{i=1}^n {\mathrm{P}(x_i) \log_b \mathrm{P}(x_i)} \\ &= -\sum_{i=1}^2 {\frac{1}{2}\log_2{\frac{1}{2}}} \\ &= -\sum_{i=1}^2 {\frac{1}{2} \cdot (-1)} = 1 \end{align}.

Pokud však víme, že mince není poctivá, ale pravděpodobnosti hodu panny případně orla jsou , příp. , kde , pak je nejistota menší. +more Při každém vrhu je pravděpodobnější, že padne jedna strana než druhá. Snížení nejistoty je kvantifikováno nižší entropií: každý vrh mincí přináší v průměru méně než jeden bit informace. Jestliže například =0,7, pak :\begin{align} \Eta(X) &= - p \log_2 (p) - q \log_2 (q) \\ &= - 0,7 \log_2 (0,7) - 0,3 \log_2 (0,3) \\ &\approx - 0,7 \cdot (-0,515) - 0,3 \cdot (-1,737) \\ &= 0,8816 .

Rovnoměrné rozdělení pravděpodobnosti má maximální nejistotu a tedy maximální entropii. Entropie se pak může pouze snížit z hodnoty odpovídající rovnoměrné pravděpodobnosti. +more Extrémním případem je, že mince má dvě panny, takže nikdy nemůže padnout orel, nebo dva orly, takže nikdy nemůže padnout panna. Vrh takovou mincí v sobě neobsahuje žádnou nejistotu, žádnou novou informaci, protože výsledek vrhu je předem známý, takže entropie je nulová.

Entropii lze normalizovat tím, že ji vydělíme délkou informace. Výsledný poměr se nazývá metrika entropie a je mírou náhodnosti informace.

Zdůvodnění

Pro pochopení významu , nejdříve definujeme informační funkci pomocí události s pravděpodobností . Množství informace získané pozorováním události vyplývá z Shannonova řešení základních #Charakterizace|vlastností informace: # je monotonně klesající v : zvýšení pravděpodobnosti události snižuje množství informace získané pozorováním události a naopak. +more # : informace je nezáporná veličina. # : události, ke kterým dojde vždy, nepřinášejí žádnou informaci. # : informace nezávislých událostí je aditivní.

Klíčová je poslední vlastnost. Říká, že sdružená pravděpodobnost nezávislých zdrojů informace přináší stejné množství informace jako obě události samostatně. +more Speciálně jestliže první událost je jedním z stejně pravděpodobných výsledků a druhá jedním z stejně pravděpodobných výsledků, pak sdružená událost má možných výsledků. To znamená, že jestliže je potřeba bitů pro zakódování první hodnoty a bitů pro zakódování druhé, potřebujeme pro zakódování obou. Shannon objevil, že funkce pro určení množství informace, zachovávající tuto aditivitu, je logaritmická, tj. ,.

:\mathrm{I}(p) = \log\left(\tfrac{1}{p}\right) = -\log(p):

Jestliže I je informační funkce, o které předpokládáme, že je dvakrát spojitě derivovatelná, dostáváme:

:\begin{array}{lcl} I(p_1 p_2) &=& I(p_1) + I(p_2) \\ p_2 I'(p_1 p_2) &=& I'(p_1) \\ I'(p_1 p_2) + p_1 p_2 I(p_1 p_2) &=& 0 \\ I'(u) + u I(u) &=& 0 \\ (u I'(u))' &=& 0 \end{array}

Tato diferenciální rovnice má k řešení I(u) = k \log u pro jakékoli k \in \mathbb{R}. Z podmínky 2. +more vyplývá, že k k . k lze zvolit ve tvaru k = - 1/\log x pro x > 1, což je ekvivalentní s výběrem určitého základu logaritmu. Různé jednotky informace (bity pro binární logaritmus , naty pro přirozený logaritmus , bany pro desítkový logaritmus atd. ) jsou konstantní násobky jiného. Pokud například uvažujeme vrh poctivou mincí, hození panny dává bit informace, což je přibližně 0,693 natů nebo 0,301 desítkových číslic. vrhů přináší díky aditivitě bitů informace, což je přibližně natů nebo desítkových číslic.

Pokud existuje rozdělení, u kterého událost může nastat s pravděpodobností a provedeme pokusů, při kterých výsledek nastane krát, celkové množství přijaté informace je :\sum_i {n_i \mathrm{I}(p_i)} = -\sum_i {N p_i \log{p_i}}. Průměrné množství informace, kterou získáme z události je proto :-\sum_i {p_i \log {p_i}}.

Aspekty

Vztah k termodynamické entropii

Inspirace pro použití slova entropie v teorii informace pochází z podobnosti mezi Shannonovým vzorcem a velmi podobnými vzorci známými ze statistické mechaniky.

Nejobecnější vzorec pro termodynamickou entropii termodynamického systému ve statistické termodynamice je Gibbsova entropie: :S = - k_\text{B} \sum p_i \ln p_i \, kde je Boltzmannova konstanta a je pravděpodobnost mikrostavu. Gibbsovu entropii definoval +more_Willard_Gibbs'>J. Willard Gibbs v roce 1878, krátce po publikaci díla Ludwiga Boltzmanna v roce 1872.

Gibbsovu entropii lze použít téměř nezměněnou ve světě kvantové fyziky, kde dává von Neumannovu entropii, kterou zavedl John von Neumann v roce 1927: :S = - k_\text{B} \,{\rm Tr}(\rho \ln \rho) \, kde ρ je matice hustoty kvantově mechanického systému a Tr je stopa matice.

Při každodenním praktickém používání není spojitost mezi informační entropií a termodynamickou entropií evidentní. Fyzici a chemici se spíše zajímají o změny entropie, protože systém se vyvíjí spontánně ze svých počátečních podmínek ve shodě s druhým zákonem termodynamiky, než o neměnné rozdělení pravděpodobnosti. +more Malá hodnota Boltzmannovy konstanty ukazuje, že změny i pro velmi malé množství látky v chemických a fyzikálních procesech reprezentuje entropii, která je extrémně velká v porovnání s čímkoli při kompresi dat nebo zpracování signálu. V klasické termodynamice je entropie definována pomocí makroskopických měření bez odkazů na nějaké rozdělení pravděpodobnosti, což je hlavním aspektem pro definici informační entropie.

Spojení mezi termodynamikou a tím, co nyní nazýváme teorie informace, si poprvé všiml Ludwig Boltzmann, který je vyjádřil svou proslulou rovnicí:

:S=k_\text{B} \ln(W)

kde S je termodynamická entropie určitého makroskopického stavu (definovaná termodynamickými parametry jako například teplotou, objemem, energií, atd. ), W je počet mikroskopických stavů (různých kombinací částic v různých energetických stavech), které mohou dávat daný makroskopický stav a kB je Boltzmannova konstanta. +more Předpokládá se, že každý mikroskopický stav je stejně pravděpodobný, takže pravděpodobnost daného mikroskopického stavu je pi = 1/W. Pokud tyto pravděpodobnosti dosadíme do výše uvedeného výrazu pro Gibbsovu entropii (nebo ekvivalentně kB krát Shannonovu entropii), dostaneme Boltzmannovu rovnici. Použijeme-li termíny z teorie informace, je informační entropie systému rovna množství „chybějící“ informace potřebné pro určení mikroskopického stavu pro daný makroskopický stav.

V přístupu Edwina Thompsona Jaynese (1957) se na termodynamickou entropii, jak ji vysvětluje statistická mechanika, musí nahlížet jako na aplikaci Shannonovy teorie informace: termodynamická entropie se interpretuje jako množství další Shannonovy informace potřebné pro určení konkrétního mikroskopického stavu systému, který při popisu systému výhradně makroskopickými proměnnými klasické termodynamiky zůstává skrytý, přičemž konstanta úměrnosti je právě Boltzmannova konstanta. Dodáváním tepla do systému se zvyšuje jeho termodynamická entropie, protože se zvyšuje počet možných mikroskopických stavů systému, které jsou konzistentní s měřitelnou hodnotou své makroskopické proměnné, což způsobuje, že jakýkoli úplný popis stavu je komplikovanější. +more (Viz článek: Termodynamika maximální entropie). Maxwellův demon může (hypoteticky) snižovat termodynamickou entropii systému použitím informací o stavech jednotlivých molekul; ale jak ukázal v roce 1961 Rolf Landauer se svými spolupracovníky, aby démon sám fungoval, musí sám zvyšovat termodynamickou entropii v procesu, alespoň o množství Shannonovy informace, kterou potřebuje nejdřív získat a uložit; kvůli tomu se celková termodynamická entropie nesnižuje (což vysvětluje paradox). Landauerův princip určuje mimo jiné nejnižší množství tepla, které musí počítač vyprodukovat při zpracování určitého množství informací. Ani moderní počítače se k této efektivitě ani zdaleka neblíží.

Entropie jako informační obsah

Entropie je definovaná v kontextu pravděpodobnostního modelu. Nezávislý vrh poctivou mincí má entropii 1 bit na hod. +more Zdroj, které vždy generuje dlouhý řetězec znaků B má entropii 0, protože následující znak bude vždy 'B'.

Poměr entropie datového zdroje je průměrný počet bitů na symbol potřebných pro kódování tohoto zdroje. Shannonovy pokusy s lidmi jako prediktory ukazují, že anglický text má informační poměr 0,6 až 1,3 bitů na znak. +more Komprimační algoritmus Prediction by partial matching (PPM) může na anglickém textu dosáhnout komprimačního poměru 1,5 bitu na znak.

V předchozím příkladě jsou důležité tyto body:

# Entropie vyjádřená v bitech nemusí být celé číslo. # Mnoho bitů dat nenese žádné informace. +more Datové struktury často obsahují redundantní informace nebo mají identické části bez ohledu na to, jaké informace obsahují.

Pokud je Shannonova definice entropie aplikována na zdroj informace, může určovat minimální kapacitu kanálu nezbytnou pro spolehlivý přenos dat ze zdroje, pokud jsou zakódovány jako binární hodnoty (viz varování níže v kurzívě). Vzorec pro tuto kapacitu může být odvozen výpočtem matematického očekávání množství informace obsažené v každé číslici přenášených dat. +more Viz také Shannonova-Hartleyova věta.

Shannonova entropie měří informaci obsaženou ve zprávě jako protiklad k části zprávy, která je pevně určena (nebo předvídatelná). K dalším příkladům patří redundance ve struktuře jazyka nebo statistické vlastnosti týkající se frekvence výskytu dvojic, trojic, atd. +more, písmen nebo slov. Viz Markovův řetězec.

Entropie jako míra rozmanitosti

Entropie je jedním ze způsobů, jak měřit rozmanitost. Konkrétně Shannonova entropie je logaritmus , skutečný rozmanitost index s parametr rovné 1.

Komprese dat

Entropie efektivně limituje výkonnost nejsilnější bezztrátové komprimační metody, což lze teoreticky provést pomocí typické množiny nebo v praxi pomocí Huffmanova kódování, Lempel-Ziv nebo aritmetického kódování. Viz také Kolmogorovova složitost. +more V praxi komprimační algoritmy úmyslně zahrnují nějakou rozumnou redundanci ve formě kontrolního součtu pro zabezpečení proti chybám.

Světová technologická kapacita uložených a přenášených informací

Studie z roku 2011 v časopisu Science odhaduje světovou technologickou kapacitu pro uložení a přenos optimálně komprimovaných informací normalizovanou na nejefektivnější komprimační algoritmy dostupné v roce 2007, je vlastně odhadem entropie technologicky dostupný zdrojů.

Typ Informace19862007
Uložení2,6295
Vysílání4321900
Telekomunikace0,28165
Autoři odhadli technologickou kapacitu pro uložení (plně entropicky komprimovaných) informací, kterou má lidstvo k dispozici, v roce 1986 a 2007. +more Informace rozdělují do tří kategorií: objem datových médií, která byla k dispozici pro ukládání informací, množství informací předaných pomocí jednosměrných vysílacích sítí a výměnu informací pomocí obousměrných telekomunikační sítí.

Omezení entropie jako informačního obsahu

Existuje několik dalších konceptů příbuzných entropii, které určitým způsobem matematicky kvantifikují informační obsah: * Vlastní informace jednotlivé zprávy nebo symbolu vzatého z daného rozdělení pravděpodobnosti, * entropie daného rozdělení pravděpodobnosti zpráv nebo symbolů a * poměr entropie stochastického procesu. (pro určité posloupnosti zpráv nebo symbolů generované daným stochastickým procesem může také definovat „poměr vlastní informace“, který je vždy roven poměru entropie v případě stacionárního procesu. +more) Jiná množství informace se také používají pro porovnávání různých zdrojů informace.

Výše uvedené koncepty si nesmíme plést. Často je zřejmé pouze z kontextu, který koncept se myslí. +more Když například někdo říká, že „entropie“ angličtiny je asi 1 bit na znak, jedná se o modelování angličtiny jako stochastického procesu a mluví se o poměru entropie. I sám Shannon používal termín podobně.

Při použití velmi velkých bloků může být odhad entropie na jeden znak uměle nízký, protože rozdělení pravděpodobnosti posloupnosti není známo přesně; je to pouze odhad. Pokud bychom uvažovali text každé dosud publikované knihy jako posloupnost, a text celé knihy bychom považovali za symbol, a jestliže je celkem publikovaných knih a každá kniha je publikovaná pouze jednou, odhad pravděpodobnosti každé knihy je a entropie (v bitech) je . +more Jako praktický kód to odpovídá přiřazení jednoznačného identifikátoru každé knize a používat ho místo textu knihy, když se chceme odkázat na text knihy. To je mimořádně užitečné pro mluvení o knihách, ale není to tak užitečné pro charakterizaci informačního obsahu jednotlivých knih nebo jazyka obecně: z identifikátoru knihy nelze rekonstruovat obsah knihy bez znalosti rozdělení pravděpodobnosti, tj. úplného textu všech knih. Klíčovou myšlenkou je, že musíme uvažovat složitost pravděpodobnostního modelu. Kolmogorovova složitost je teoretické zobecnění této myšlenky, která umožňuje zvážení informačního obsahu posloupnosti nezávislý na jakýkoli určitý pravděpodobnost model; uvažuje nejkratší program pro univerzální počítač, který vytvoří požadovanou posloupnost. Kód, který dosahuje poměru entropie posloupnosti pro daný model, plus kódová kniha (tj. pravděpodobnostní model), je jedním takovým programem, ale nemusí být nejkratší.

Fibonacciho posloupnost je 1, 1, 2, 3, 5, 8, 13, . pokud uvažujeme posloupnost jako zprávu a každé číslo jako symbol, existuje téměř stejně symbolů jako znaků ve zprávě, což dává entropii přibližně . +more Prvních 128 symbolů Fibonacciho posloupnost má entropii přibližně 7 bitů/symbol, ale posloupnost lze vyjádřit pomocí vzorce [ pro, ] a toto vzorec má mnohem nižší entropie a je použita na jakýkoli délka Fibonacciho posloupnosti.

Omezení entropie v kryptografii

V kryptoanalýze se entropie často používá jako přibližná míra nepředvídatelnosti kryptografického klíče, jehož reálná nejistota je neměřitelná. Například 128bitový klíč, který je rovnoměrně a náhodně generovaný, má entropii 128 bitů. +more Také je třeba (v průměru) 2^{128-1} pokusů pro prolomení šifry hrubou silou. Entropie však selhává, jestliže možné klíče nejsou voleny rovnoměrně. Místo toho lze použít míru nazývanou guesswork pro změření úsilí potřebného pro útok hrubou silou.

V kryptografii se mohou objevit další problémy při používání entropie kvůli nerovnoměrnému rozdělení. Například jednorázová šifra, která šifruje text pomocí funkce xor s miliónem binárních číslic. +more Pokud má tabulka entropii milión bitů, je šifrování dokonalé. Pokud má šifra entropii jen 999 999 bitů, rovnoměrně distribuovaný (každý jednotlivý bit jednorázového hesla má entropii 0,999999 bitů) může stále poskytovat dobrou bezpečnost. Ale jestliže jednorázové heslo má entropii 999 999 bitů, přičemž první bit je pevný a zbývajících 999 999 bitů je naprosto náhodných, první bit šifrového textu nebude vůbec zašifrovaný.

Data jako Markovův proces

Obvyklý způsob, jak definovat entropii textu, vychází z Markovova modelu textu. Pro zdroj 0. +more řádu (každý znak je vybraný nezávisle na posledních znacích) je binární entropie:.

:\Eta(\mathcal{S}) = - \sum p_i \log p_i ,

kde je pravděpodobnost . Pro Markovův zdroj prvního řádu (zdroj, u něhož je pravděpodobnost výběru znak závislá pouze na předchozím znaku), je poměr entropie :

:\Eta(\mathcal{S}) = - \sum_i p_i \sum_j \ p_i (j) \log p_i (j) ,

kde je stav (určitý předchozí znaky) a p_i(j) je pravděpodobnost daný jako předchozí znak.

Pro Markovův zdroj druhého řádu je poměr entropie

:\Eta(\mathcal{S}) = -\sum_i p_i \sum_j p_i(j) \sum_k p_{i,j}(k)\ \log \ p_{i,j}(k) .

{{Math|b}}-ární entropie

Obecně -ární entropie zdroje \mathcal{S} se zdrojovou abecedou {{Math|S {a1, …, an}}} a diskrétním rozdělením pravděpodobnosti {{Math|P {p1, …, pn}}}, kde je pravděpodobnost (značíme je definovaný vztahem:

: \Eta_b(\mathcal{S}) = - \sum_{i=1}^n p_i \log_b p_i ,

Hodnota v „-ární entropie“ je počet různých symbolů ideální abecedy používané jako standardní měřítko pro měření zdrojové abecedy. V teorii informace je pro kódování informací nutné a postačující, aby abeceda obsahovala dva symboly. +more Proto implicitně pracujeme s („binární entropie“). Entropie zdrojové abecedy spolu s daným empirickým rozdělením pravděpodobnosti je číslo rovné počtu (případně zlomkovému) symbolů „ideální abecedy“ s optimálním rozdělením pravděpodobnosti nezbytných pro kódování každého symbolu zdrojové abecedy. Přitom „optimální rozdělení pravděpodobnosti“ zde znamená rovnoměrné rozdělení: zdrojová abeceda s symboly má nejvyšší možnou entropii (mezi abecedami s symboly), je-li rozdělení pravděpodobnosti abecedy rovnoměrné. Ukazuje se, že tato optimální entropie je .

Efektivita

Zdrojová abeceda s nerovnoměrným rozdělením bude mít menší entropii, než kdyby její symboly měly rovnoměrné rozdělení („optimalizovaná abeceda“). Tento nedostatek entropie lze vyjádřit poměrem nazývaným efektivita:

:\eta(X) = -\sum_{i=1}^n \frac{p(x_i) \log_b (p(x_i))}{\log_b (n)}

Použitím základních vlastností logaritmu lze tuto hodnotu také vyjádřit jako: :\eta(X) = -\sum_{i=1}^n \frac{p(x_i) \log_b (p(x_i))}{\log_b (n)} = \sum_{i=1}^n \frac{\log_b(p(x_i)^{-p(x_i)})}{\log_b(n)} = \sum_{i=1}^n \log_n(p(x_i)^{-p(x_i)}) = \log_n (\prod_{i=1}^n p(x_i)^{-p(x_i)})

Efektivita je vhodnou mírou pro využití komunikačního kanálu. Uvedená veličina se také označuje normalizovaná entropie, protože entropie je dělena maximální entropií {\log_b (n)}. +more Efektivita je navíc nezávislá na volbě základu , jak je ukázáno výše.

Charakterizace

Shannonova entropie je charakterizována malým počtem dále uvedených kritérií. Jakákoli definice entropie, která těmto kritériím vyhovuje, má tvar :-K\sum_{i=1}^np_i\log (p_i) kde je konstanta, která závisí na volbě jednotek měření.

V dalším textu budeme psát a .

Spojitost

Míra musí být spojitá, takže změna hodnoty pravděpodobnosti o velmi malou hodnotu způsobí pouze malou změnu entropie.

Symetrie

Míra nesmí záviset na pořadí výsledků . :\Eta_n\left(p_1, p_2, \ldots \right) = \Eta_n\left(p_2, p_1, \ldots \right) atd.

Maximální

Míra musí být maximální, jestliže všechny výsledky jsou stejně pravděpodobně (nejistota je nejvyšší, když všechny možné události mají stejnou pravděpodobnost). : \Eta_n(p_1,\ldots,p_n) \le \Eta_n\left(\frac{1}{n}, \ldots, \frac{1}{n}\right) = \log_b (n).

Pro stejně pravděpodobné události se entropie musí zvyšovat s počtem výsledků. :\Eta_n\bigg(\underbrace{\frac{1}{n}, \ldots, \frac{1}{n}}_{n}\bigg) = \log_b(n)

Rozdělení, které má maximální diferenciální entropií pro spojité náhodné proměnné, je vícerozměrné normální rozdělení.

Aditivita

Velikost entropie musí být nezávislá na tom, jak je proces rozdělen do složek.

Tato poslední funkcionální podmínka charakterizuje entropii systému se subsystémy. Vyžaduje, aby entropii systému bylo možné spočítat z entropií jeho subsystémů, jestliže interakce mezi subsystémy jsou známé.

Je-li dán soubor rovnoměrně distribuovaných prvků, které jsou rozděleny do podsystémů, každý s prvky, entropie celého systému se musí rovnat sumě entropií jednotlivých podsystémů a entropií jednotlivých boxů, každý vážený s pravděpodobností, že je v příslušném podsystému.

Pro kladná celá čísla kde , :\Eta_n\left(\frac{1}{n}, \ldots, \frac{1}{n}\right) = \Eta_k\left(\frac{b_1}{n}, \ldots, \frac{b_k}{n}\right) + \sum_{i=1}^k \frac{b_i}{n} \, \Eta_{b_i}\left(\frac{1}{b_i}, \ldots, \frac{1}{b_i}\right).

Pokud zvolíme, z toto vyplývá, že entropie určitého výsledku je nulová: . Z toho vyplývá, že efektivitu zdrojové abecedy s symboly lze definovat jednoduše jako její -ární entropii. +more Viz také Redundance (teorie informace).

Další vlastnosti

Shannonova entropie splňuje další vlastnosti; pro některé z nich je užitečné interpretovat entropii jako množství dodané informace (nebo odstraněné nejistoty), kterou přinese zjištění hodnoty náhodné proměnné :

* Přidání nebo odstranění události s nulovou pravděpodobností nepřispívá k entropii: ::\Eta_{n+1}(p_1,\ldots,p_n,0) = \Eta_n(p_1,\ldots,p_n). * Entropie diskrétní náhodné proměnné je nezáporné číslo: ::\Eta(X) \ge 0. +more * Užitím Jensenovy nerovnosti lze dokázat, že ::\Eta(X) = \operatorname{E}\left[\log_b \left( \frac{1}{p(X)}\right) \right] \leq \log_b \left( \operatorname{E}\left[ \frac{1}{p(X)} \right] \right) = \log_b(n). :Této maximální entropie se efektivně dosáhne takovou zdrojovou abecedou, která má rovnoměrné rozdělení pravděpodobnosti: nejistota je maximální, když jsou všechny možné události stejně pravděpodobné. * Entropie nebo množství informace získané vyhodnocením (tj. vyhodnocování a současně) se rovná informaci získané provedením dvou pokusů po sobě: nejdříve vyhodnotíme hodnotu , potom hodnotu se znalostí hodnoty . To lze napsat jako :: \Eta(X,Y)=\Eta(X|Y)+\Eta(Y)=\Eta(Y|X)+\Eta(X). * Pokud Y=f(X) kde f je funkce, pak H(f(X)|X) = 0. Použití předchozího vzorce na H(X,f(X)) dává :: \Eta(X)+\Eta(f(X)|X)=\Eta(f(X))+\Eta(X|f(X)), :takže H(f(X)) \le H(X), entropie jedné náhodné proměnné se může snížit pouze tehdy, když na druhou proměnnou aplikujeme nějakou funkci. * Pokud a jsou dvě nezávislé náhodné proměnné, pak znalost hodnoty neovlivňuje naši znalost hodnoty (protože tyto proměnné se vzájemně neovlivňují): :: \Eta(X|Y)=\Eta(X). * Entropie dvou současných událostí není větší než suma entropií každé z událostí, přičemž rovnost nastane, jsou-li události nezávislé. Konkrétněji, jestliže a jsou dvě náhodné proměnné na stejném pravděpodobnostním prostoru a označuje jejich kartézský součin, pak :: \Eta(X,Y)\leq \Eta(X)+\Eta(Y). * Entropie \Eta(p) je konkávní v pravděpodobnostní funkci p, tj. ::\Eta(\lambda p_1 + (1-\lambda) p_2) \ge \lambda \Eta(p_1) + (1-\lambda) \Eta(p_2) :pro všechny pravděpodobnostní hmotové funkce p_1,p_2 a 0 \le \lambda \le 1.

Rozšíření diskrétní entropie na spojitý případ

Diferenciální entropie

Shannonova entropie je definována pouze pro náhodné proměnné nabývající diskrétních hodnot. Odpovídající vzorec pro spojitou náhodnou proměnnou s hustotou pravděpodobnosti s konečným nebo nekonečným nosičem \mathbb X na reálné ose je možné definovat analogicky použitím výše uvedeného tvaru entropie jako střední hodnoty:

:h[f] = \operatorname{E}[-\ln (f(x))] = -\int_\mathbb X f(x) \ln (f(x))\, dx.

Tato veličina se obvykle nazývá spojitá entropie nebo diferenciální entropie. Předchůdcem spojité entropie je výraz pro funkcionál v Boltzmannově H-větě.

Přestože analogie mezi oběma funkcemi je sugestivní, je třeba položit otázku, zda je diferenciální entropie povoleným rozšířením Shannonovy diskrétní entropie. Diferenciální entropie postrádá některé vlastnosti Shannonovy diskrétní entropie - může být mimo jiné záporná - proto byly doporučovány opravy, především omezující hustota diskrétních bodů.

Aby bylo možné odpovědět na tuto otázku, je nutné ukázat spojení mezi těmito dvěma funkcemi:

Pro získání obecně konečné míry, když se velikost intervalů, na které je rozsah hodnot rozdělen, blíží k nule. V diskrétním případě je velikost intervalu (implicitní) šířkou každého z (konečných nebo nekonečných) intervalů, jejíchž pravděpodobnosti jsou označeny . +more Když uvažujeme rozšíření na spojitý případ, šířka intervalu musí být stanovena explicitně.

Vyjdeme od spojité funkce diskretizované na intervaly velikosti \Delta.

Podle věty o střední hodnotě existuje hodnota v každém intervalu tak, že

:f(x_i) \Delta = \int_{i\Delta}^{(i+1)\Delta} f(x)\, dx

integrál funkce lze aproximovat (v Riemannovském smyslu) jako

:\int_{-\infty}^{\infty} f(x)\, dx = \lim_{\Delta \to 0} \sum_{i = -\infty}^{\infty} f(x_i) \Delta

kde tato limita odpovídá tomu, že „velikost intervalu se blíží k nule“.

Označíme

:\Eta^{\Delta} := - \sum_{i=-\infty}^{\infty} f(x_i) \Delta \log \left( f(x_i) \Delta \right)

a rozepsáním logaritmu dostáváme

:\Eta^{\Delta} = - \sum_{i=-\infty}^{\infty} f(x_i) \Delta \log (f(x_i)) -\sum_{i=-\infty}^{\infty} f(x_i) \Delta \log (\Delta).

Pro Δ → 0 máme

:\begin{align} \sum_{i=-\infty}^{\infty} f(x_i) \Delta &\to \int_{-\infty}^{\infty} f(x)\, dx = 1 \\ \sum_{i=-\infty}^{\infty} f(x_i) \Delta \log (f(x_i)) &\to \int_{-\infty}^{\infty} f(x) \log f(x)\, dx. \end{align}

Pamatujte, že pro , vyžaduje speciální definici diferenciální nebo spojité entropie:

:h[f] = \lim_{\Delta \to 0} \left(\Eta^{\Delta} + \log \Delta\right) = -\int_{-\infty}^{\infty} f(x) \log f(x)\,dx,

čemuž říkáme, jak již bylo řečeno, diferenciální entropie. To znamená, že diferenciální entropie není limitou Shannonovy entropie pro . +more Naopak, liší se od limity Shannonovy entropie o nekonečné posunutí (viz také článek informační rozměr).

Omezení hustoty diskrétních bodů

Ukazuje se, že diferenciální entropie, na rozdíl od Shannonovy entropie, obecně není dobrou mírou nejistoty nebo informace. Diferenciální entropie může být například záporná; také není invariantní vůči spojité transformaci souřadnic. +more Tento problém může být ilustrován změnou jednotek, pokud by x byla veličina, která má fyzikální rozměr. f(x) pak bude mít rozměr 1/x. Argument logaritmu musí být bezrozměrný, jinak je nevlastní, takže diferenciální entropie definovaná výše bude nevlastní. Pokud Δ je nějaká „standardní“ hodnota x (tj. „velikost intervalu“) a proto má stejný rozměr, pak lze modifikovanou diferenciální entropii zapsat v patřičném tvaru jako:.

: H=\int_{-\infty}^\infty f(x) \log(f(x)\,\Delta)\,dx

Přičemž výsledek bude stejný pro jakoukoli volbu jednotek veličiny x. Totiž limita diskrétní entropie pro N \rightarrow \infty by také obsahovala člen \log(N), který by obecně byl nekonečný. +more To se dalo očekávat, protože po změně spojitých proměnných na diskrétní obvykle vyjde entropie nekonečná. Omezující hustota diskrétních bodů je skutečně mírou, o kolik snazší je popsat nějaké rozdělení než rozdělení, které je rovnoměrně přes své kvantizační schéma.

Relativní entropie

Další užitečnou mírou entropie, která funguje stejně dobře pro diskrétní i spojitý případ, je relativní entropie rozdělení. Je definovaná jako Kullbackova-Leiblerova divergence z rozdělení na reference míra takto. +more Předpokládejme, že rozdělení pravděpodobnosti je absolutně spojité vzhledem k míře , tj. má tvar pro nějakou nezápornou -integrovatelnou funkci s -integrálem 1, pak lze relativní entropii definovat jako :D_{\mathrm{KL}}(p \| m ) = \int \log (f(x)) p(dx) = \int f(x)\log (f(x)) m(dx) .

V tomto tvaru relativní entropie zobecňuje (až na změnu znaménka) jak diskrétní entropii, kde míra je počítací míra, tak diferenciální entropii, kde míra je Lebesgueova míra. Pokud míra je samotné rozdělení pravděpodobnosti, relativní entropie je nezáporná, a je nulová, jestliže jako míry. +more Je definována pro jakýkoli prostor s mírou, je tedy nezávislá na volbě souřadnic a invariantní vůči změně souřadnic, jestliže správně bereme v úvahu transformaci míry . Relativní entropie a implicitně entropie a diferenciální entropie, závisí na „referenční“ míře .

Použití v kombinatorice

Entropie se stala užitečnou veličinou v kombinatorice.

Loomisova-Whitneyova nerovnost

Jejím jednoduchým příkladem je alternativní důkaz Loomisovy-Whitneyovy nerovnosti: pro každou podmnožinu , máme : |A|^{d-1}\leq \prod_{i=1}^{d} |P_{i}(A)| kde je ortogonální projekce v -té souřadnici: : P_{i}(A)=\{(x_{1}, \ldots, x_{i-1}, x_{i+1}, \ldots, x_{d}) : (x_{1}, \ldots, x_{d})\in A\}.

Důkaz je jednoduchým důsledkem Shearerovy nerovnosti:, jestliže jsou náhodné proměnné a jsou podmnožiny množiny {{Math|{1, …, d}}} takové, že každé celé číslo mezi 1 a leží přesně v těchto podmnožinách, pak : \Eta[(X_{1}, \ldots ,X_{d})]\leq \frac{1}{r}\sum_{i=1}^{n}\Eta[(X_{j})_{j\in S_{i}}] kde (X_{j})_{j\in S_{i}} je kartézský součin náhodné proměnné s indexy v (takže rozměry tohoto vektoru se rovnají velikosti ).

Načrtneme, jak z uvedeného vyplývá Loomisova-Whitneyova nerovnost: Nechť je rovnoměrně distribuovaná náhodná proměnná s hodnotami v , takže každá hodnota má stejnou pravděpodobnost. Pak (z dalších vlastností entropie zmíněných výše) \Eta(X) = \log |A|, kde |A| označuje mohutnost množiny A. +more Nechť {{Math|Si {1, 2, …, i−1, i+1, …, d}}}. Hodnoty (X_{j})_{j\in S_{i}} jsou obsaženy v , a tedy \Eta[(X_{j})_{j\in S_{i}}]\leq \log |P_{i}(A)|. To nyní použijeme pro omezení pravé strany Shearerovy nerovnosti a aplikujeme exponenciální funkci na obě strany výsledné nerovnosti.

Aproximace binomickým koeficientem

Pro celá čísla položíme . Pak :\frac{2^{n\Eta(q)}}{n+1} \leq \tbinom nk \leq 2^{n\Eta(q)}, kde :\Eta(q) = -q \log_2(q) - (1-q) \log_2(1-q).

Zde je náčrt důkazu. Uvědomíme si, že \tbinom nk q^{qn}(1-q)^{n-nq} je jeden člen výrazu :\sum_{i=0}^n \tbinom ni q^i(1-q)^{n-i} = (q + (1-q))^n = 1. +more Přeskupení dává horní mez. Pro dolní mez musíme nejdřív ukázat pomocí nějaké algebry, že se jedná o největší člen v sumě. Ale pak, :\binom nk q^{qn}(1-q)^{n-nq} \geq \frac{1}{n+1} protože suma má členů. Přeskupení dává dolní mez.

Hezkým důsledkem je, že počet binárních řetězců délky , které obsahují přesně jedniček, je přibližně 2^{n\Eta(k/n)}.

Odkazy

Reference

Tento článek obsahuje informace z článku 'Shannon's entropy z encyklopedie PlanetMath, jejíž licence je podobná licencím Creative Commons Attribution/Share-Alike.

Související články

Podmíněná entropie * Křížová entropie - míra průměrného počtu bitů potřebné pro identifikaci události ze sady možností mezi dvěma rozděleními pravděpodobnosti * Index rozmanitosti - alternativa se blíží pro určení množství rozmanitost v rozdělení pravděpodobnosti * Entropie (šipka času) * Entropické kódování - kódovací schéma, které přiřazuje kódy na symboly tak jako vyhovovat délkám kódu s pravděpodobností symbolů. * Odhad entropie * Nerovnost entropické síly * Poměr entropií * Fisherova informace * Grafová entropie * Hammingova vzdálenost * Historie entropie * Historie teorie informace * Informační geometrie * Sdružená entropie - míra, kolik entropie je obsaženo ve sdruženém systému dvou náhodných proměnných. +more * Kolmogorovova-Sinaiova entropie v dynamických systémech * Levenštejnova vzdálenost * Vzájemná informace * Negentropie * Perplexita * Kvalitativní variace - jiné míry variability pro nominální rozdělení * Kvantová relativní entropie - míra rozlišitelnosti mezi dvěma kvantovými stavy. * Rényiho entropie - zobecnění Shannonovy entropie; je jedním z rodiny funkcionálů pro kvantifikaci rozmanitosti, nejistoty nebo náhodnosti systému. * Náhoda * Shannonův index * Theilův index * Typoglykemie.

Literatura

Arndt, C. (2004), Information Measures: Information and its Description in Science and Engineering, Springer, * +more_Cover'>Cover, T. M. , Thomas, J. A. (2006), Elements of information theory, 2. Edition. Wiley-Interscience. . * Gray, R. M. (2011), Entropy and Information Theory, Springer. * MacKay, David J. C. . [url=http://www. inference. phy. cam. ac. uk/mackay/itila/book. html]Information Theory, Inference, and Learning Algorithms[/url] Cambridge: Cambridge University Press, 2003. * * Shannon, C. E. , Weaver, W. (1949) The Mathematical Theory of Communication, Univ of Illinois Press. * Stone, J. V. (2014), Chapter 1 of [url=http://jim-stone. staff. shef. ac. uk/BookInfoTheory/InfoTheoryBookMain. html]Information Theory: A Tutorial Introduction[/url], University of Sheffield, Anglie. .

Externí odkazy

[url=https://encyclopediaofmath. org/index. +morephp. title=Entropy]Entropy[/url] Encyclopædia of Mathematics, EMS Press 2004 (1994) * [url=http://pespmc1. vub. ac. be/ENTRINFO. html]Introduction to entropy and information[/url] na webu Principia Cybernetica Web * [url=http://www. mdpi. com/journal/entropy]Entropy[/url] interdisciplinární časopis o různých aspektech konceptu entropie. Volný přístup. * [url=https://web. archive. org/web/20110515195708/http://www. rheingold. com/texts/tft/6. html]Description of information entropy from "Tools for Thought" by Howard Rheingold[/url] * [url=http://math. ucsd. edu/~crypto/java/ENTROPY/]A java applet representing Shannon's Experiment to Calculate the Entropy of English[/url] * [url=https://web. archive. org/web/20190207130355/https://www. autonlab. org/tutorials/infogain. html]Slidy o nárůstu informace a entropii[/url] * An Intuitive Guide to the Concept of Entropy Arising in Various Sectors of Science - wikibook o interpretaci konceptu entropie. * [//researchspace. auckland. ac. nz/handle/2292/3427 Network Event Detection With Entropy Measures], Dr. Raimund Eimann, University of Auckland, PDF; 5993 kB - PhD práce, která se zabývá tím, jak lze měření entropie použít pro detekci anomálií v sítích. * [url=http://rosettacode. org/wiki/Entropy]"Entropy"[/url] na Rosetta Code - repozitář implementací výpočtu Shannonovy entropie v různých programovacích jazycích. * [url=http://tuvalu. santafe. edu/~simon/it. pdf]"Information Theory for Intelligent People"[/url] . Krátký úvod do axiómů teorie informace, entropie, vzájemné informace, Kullbackovy-Lieblerovy divergence a Jensenovy-Shannonovu vzdálenosti. * [url=http://www. shannonentropy. netmark. pl]Online nástroj pro výpočet entropie (plain text)[/url] * [url=https://servertest. online/entropy]Online nástroj pro výpočet entropie (binary)[/url].

Kategorie:Teorie informace

5 min read
Share this post:
Like it 8

Leave a Comment

Please, enter your name.
Please, provide a valid email address.
Please, enter your comment.
Enjoy this post? Join Cesko.wiki
Don’t forget to share it
Top