Jensenova nerovnost

Technology
12 hours ago
8
4
2
Avatar
Author
Albert Flores

Jensenova nerovnost, jež byla pojmenována po dánském matematikovi Johanu Jensenovi, dává do souvislosti obraz konvexní kombinace a konvexní kombinaci obrazů pro konvexní funkci. Lze ji využít při důkazu jiných nerovností (např. A-G nerovnosti nebo Youngovy nerovnosti).

Vyjádření

Nechť \varphi je reálná funkce, konvexní na uzavřeném intervalu \left[a,b\right] , n \in \mathbb{N}, \left( \forall i \in \hat{n} \right) \left( x_i \in \left[a,b\right] \right).

Potom platí: \varphi \left( \sum_{i=1}^{n} \lambda_i x_i \right) \leq \sum_{i=1}^{n} \lambda_i \varphi \left( x_i \right) ,

kde \left( \forall i \in \hat{n} \right) \left( \lambda_i \in \left[0,1\right] \right) a \sum_{i=1}^n \lambda_i = 1 .

V případě konkávní funkce je nerovnost obrácená.

Důkaz

Konvexnost funkce \varphi na \left[a,b\right] je ekvivalentní s výrokem:

\left( \forall x,y \in \left[a,b\right], x.

Vlastní důkaz proběhne matematickou indukcí podle n. * n = 1: případ je triviální, * n = 2: tvrzení vyplývá přímo z výše uvedené definice konvexnosti, * n \to n + 1:

Indukční předpoklad: \varphi \left( \sum_{i=1}^{n} \lambda_i x_i \right) \leq \sum_{i=1}^{n} \lambda_i \varphi \left( x_i \right) .

Dokážeme tuto nerovnost pro n+1, tedy: \varphi \left( \sum_{i=1}^{n+1} \lambda_i x_i \right) \leq \sum_{i=1}^{n+1} \lambda_i \varphi \left( x_i \right) .

Sporem lze ukázat: \left( \exists i_0 \in \widehat{n+1} \right) \left( \lambda_{i_0} \neq 1 \right) . Kdyby totiž platil opak, tedy \left( \forall i_0 \in \widehat{n+1} \right) \left( \lambda_{i_0} = 1 \right), pak \sum_{i=1}^{n+1} \lambda_i = n+1 \geq 2 , což je spor s předpoklady.

Protože platí: \sum_{i=1}^{n+1} \lambda_i = 1 , platí také \sum_{i=1,i \neq i_0}^{n+1} \lambda_i = \lambda , kde \lambda := 1 - \lambda_{i_0}, a tedy: \sum_{i=1,i \neq i_0}^{n+1} \frac{\lambda_i}{\lambda} = 1 .

Snadno lze také ukázat: \left( \forall i \in \widehat{n+1}, i \neq i_0 \right) \left( \frac{\lambda_i}{\lambda} \in \left[0,1\right] \right) , protože \left( \forall i \in \widehat{n+1}, i \neq i_0 \right) \left( \lambda_i \in \left[0,\lambda \right] \right) .

Pak lze zřejmě psát:

\varphi \left( \sum_{i=1}^{n+1} \lambda_i x_i \right) = \varphi \left( \sum_{i=1,i \neq i_0}^{n+1} \lambda_i x_i + \lambda_{i_0} x_{i_0} \right) = \varphi \left( \lambda \sum_{i=1,i \neq i_0}^{n+1} \frac{\lambda_i}{\lambda} x_i + (1-\lambda) x_{i_0} \right) .

Označme: y:=\sum_{i=1,i \neq i_0}^{n+1} \frac{\lambda_i}{\lambda} x_i a dokažme, že y \in \left[a,b\right]. Protože \left( \forall i \in \widehat{n+1} \right) \left( x_i \in \left[a,b\right] \right) , můžeme y odhadnout shora, resp. +more zdola, když za x_i, pro všechna i dosadíme b, resp. a (zřejmě totiž platí: b = \sum_{i=1,i \neq i_0}^{n+1} \frac{\lambda_i}{\lambda} b , pro a analogicky).

Potom lze napsat:

\varphi \left( \lambda \sum_{i=1,i \neq i_0}^{n+1} \frac{\lambda_i}{\lambda} x_i + (1-\lambda) x_{i_0} \right) = \varphi \left( \lambda y + (1-\lambda) x_{i_0} \right) .

Z uvedené definice konvexnosti plyne:

\varphi \left( \lambda y + (1-\lambda) x_{i_0} \right) \leq \lambda \varphi(y) + (1-\lambda)\varphi(x_{i_0}) .

Podle indukčního předpokladu lze psát:

\lambda \varphi(y) + (1-\lambda)\varphi(x_{i_0}) = \lambda \varphi(\sum_{i=1,i \neq i_0}^{n+1} \frac{\lambda_i}{\lambda} x_i) + (1-\lambda)\varphi(x_{i_0}) \leq \lambda \sum_{i=1,i \neq i_0}^{n+1} \frac{\lambda_i}{\lambda} \varphi(x_i) + (1-\lambda)\varphi(x_{i_0}) = \sum_{i=1}^{n+1} \lambda_i \varphi \left( x_i \right) .

Důsledkem tedy je: \varphi \left( \sum_{i=1}^{n+1} \lambda_i x_i \right) \leq \sum_{i=1}^{n+1} \lambda_i \varphi \left( x_i \right) , což je dokazovaná nerovnost.

5 min read
Share this post:
Like it 8

Leave a Comment

Please, enter your name.
Please, provide a valid email address.
Please, enter your comment.
Enjoy this post? Join Cesko.wiki
Don’t forget to share it
Top