\(\Delta:\) \(P(t\ge\alpha)=\sum_{t\ge\alpha}P(t)\). Умножая каждый член правой части на \(\frac{t}{\alpha}\ge 1\): \(P(t\ge\alpha)\le\sum_{t\ge\alpha}P(t)\frac{t}{\alpha}\). Добавляя недостающие (заведомо положительные) члены в сумму: \(P(t\ge\alpha)\le \frac{1}{\alpha}\sum_{t}P(t)t = \frac{\overline t}{\alpha} \qed\)
\(\Delta:\) Из первого неравенства Чебышева, пусть \(t=(x-\overline x)^2\): \(P((x-\overline x)^2\ge\alpha) \le \frac{\overline{(x - \overline x)^2}}{\alpha} =\frac{\sum_x P(x)(x-\overline x)^2}{\alpha} = \frac{\sigma_x^2}{\alpha}\) \(\qed\)
\(\Delta:\) Применяя 2 неравенство Чебышева к \(x\), \(P((x-\overline x)^2 \ge \alpha) \le \frac{\sigma_x^2}{\alpha},\) но из линейности математического ожидания, \(\overline x = \frac{1}{N}\sum_i \overline h = \overline h,\) а \(\sigma_x^2 = \frac{1}{N^2}\sum_i \sigma_h^2 = \frac{\sigma_h^2}{N}\) в силу независимости \(h_i\) \(\qed\)
Рассмотрим случайную переменную \(\frac{1}{N}\log_2\frac{1}{P(\mathbf{\vec{x}})}\), где \(\mathbf{\vec{x}} \in X^N\).
Определим множество “типичных” значений из \(X^N\) как
\[T_{N\beta} = \left\{\mathbf{\vec{x}} \in X^N : \left|\frac{1}{N}\log_2\frac{1}{P(\mathbf{\vec{x}})} - H(X)\right| < \beta \right\},\]
\[T_{N\beta} = \left\{\mathbf{\vec{x}} \in X^N : \left|\frac{1}{N}\log_2\frac{1}{P(\mathbf{\vec{x}})} - H(X)\right| < \beta \right\},\]
\[H(X^N)\]
\[< P(\mathbf{\vec{x}} \in T_{N\beta})(1+log_2|T_{N\beta}|) \\+ P(\mathbf{\vec{x}} \notin T_{N\beta})(1+\log_2|U_{N\beta}|)\]
\[< P(\mathbf{\vec{x}} \in T_{N\beta})(1+\underset{< N(H(X)+\beta)}{\underbrace{log_2|T_{N\beta}|}}) \\+ P(\mathbf{\vec{x}} \notin T_{N\beta})(1+\log_2|U_{N\beta}|)\]
\[< P(\mathbf{\vec{x}} \in T_{N\beta})(1+\underset{< N(H(X)+\beta)}{\underbrace{log_2|T_{N\beta}|}}) \\+ \underset{\le \frac{\sigma^2}{\beta^2 N}}{\underbrace{P(\mathbf{\vec{x}} \notin T_{N\beta})}}(1+\log_2|U_{N\beta}|)\]
\[< \underset{\le 1}{\underbrace{P(\mathbf{\vec{x}} \in T_{N\beta})}}(1+\underset{< N(H(X)+\beta)}{\underbrace{log_2|T_{N\beta}|}}) \\+ \underset{\le \frac{\sigma^2}{\beta^2 N}}{\underbrace{P(\mathbf{\vec{x}} \notin T_{N\beta})}}(1+\log_2|U_{N\beta}|)\]
\[ < 1 + N(H(X)+\beta)+\frac{\sigma^2}{\beta^2 N}(1+\log_2|U_{N\beta}|)\]
\[ < 1 + N(H(X)+\beta)+\frac{\sigma^2}{\beta^2 N}(1+\underset{\le |X|^N}{\underbrace{\log_2|U_{N\beta}|}})\]
\[ < 1 + N(H(X)+\beta)+\frac{\sigma^2}{\beta^2 N}(1+\log_2|X|^N)\]
\[ < N(H(X)+\beta+\frac{1}{N})+\frac{\sigma^2}{\beta^2 N}(1+\log_2|X|^N)\]
\[ < N(H(X)+\beta+\frac{1}{N})+\frac{\sigma^2}{\beta^2 N}(1+N\log_2|X|)\]
\[ < N(H(X)+\beta+\frac{1}{N})+\frac{\sigma^2}{\beta^2 N}+\frac{\sigma^2}{\beta^2}\log_2|X|)\]
\[ < N(H(X)+\beta+\frac{1}{N}+\frac{\sigma^2}{\beta^2 N^2}+\frac{\sigma^2}{\beta^2 N}\log_2|X|))\]
\[ < N(H(X)+\beta+\frac{1}{N}+\frac{\sigma^2}{\beta^2 N}\log_2|X|+\frac{\sigma^2}{\beta^2 N^2})\]
\(H(X^N) < N(H(X)+\beta+\frac{1}{N}+\frac{\sigma^2}{\beta^2 N}\log_2|X|+\frac{\sigma^2}{\beta^2 N^2})\)
\[P(\mathbf{\vec{x}} \in S) = P(\mathbf{\vec{x}} \in S \cap T_{N\beta}) \\ + P(\mathbf{\vec{x}} \in S \cap (X^N - T_{N\beta})).\]
\(P(\mathbf{\vec{x}} \in S) =\) \(P(\mathbf{\vec{x}} \in S \cap T_{N\beta}) + P(\mathbf{\vec{x}} \in S \cap (X^N - T_{N\beta}))\)
\[P(\mathbf{\vec{x}} \in S) \le 2^{N(H(X)-2\beta)} 2^{-N(H(X)-\beta)} + \frac{\sigma^2}{\beta^2 N}.\]
\[P(\mathbf{\vec{x}} \in S) \le 2^{-N\beta} + \frac{\sigma^2}{\beta^2 N}.\]
\[P(\mathbf{\vec{x}} \notin S) \ge 1 - 2^{-N\beta} - \frac{\sigma^2}{\beta^2 N}.\]
Используем альтернативную формулировку теоремы.
Пара случайных последовательностей \(\mathbf{\vec{x}}\), \(\mathbf{\vec{y}}\), элементы которых принадлежат ансамблям, соответственно, \(X\) и \(Y\), называются совместно-типичными (с точностью \(\beta\)), если:
Рассмотрим следующую систему кодирования-декодирования с плотностью \(ρ'\):
Мы можем выделить следующие вероятности ошибки декодирования:
Обозначим множество взаимно-типичных \(\mathbf{\vec{x}}, \mathbf{\vec{y}}\) (с точностью \(\beta\)) как \(J_{N\beta}\).
Оценим среднюю вероятность ошибки. Существует два потенциальных источника ошибки:
По закону больших чисел,
Для двух независимых \(\mathbf{\vec{x}}' \in X^N\) и \(\mathbf{\vec{y}}' \in Y^N\), вероятность того, что они совместно типичны
Пусть \(X\), \(Y\) – случайные переменные, а \(p_e\) – вероятность ошибки “угадывания” \(X\) по \(Y\) (при известных вероятностях \(P(X|Y)\)). Тогда, \[H_2(p_e)+p_e\log(N-1) \ge H(X|Y),\] где \(N\) – размерность алфавита \(X\).
\[H(E|XY) + H(X|Y) = H(X|EY) + H(E|Y)\]
\[\underset{=0}{\underbrace{H(E|XY)}} + H(X|Y) = H(X|EY) + H(E|Y)\]
\[\underset{=0}{\underbrace{H(E|XY)}} + H(X|Y) = H(X|EY) + \underset{\le H(E)}{\underbrace{H(E|Y)}}\]
\[H(X|Y) \le H(X|EY) + H(E)\]
\[H(X|Y) \le H(X|EY) + H_2(p_e)\]
\[H(X|Y) \le H(X|EY) + H_2(p_e)\]
\[= P(E=0)H(X|Y, E=0) \\+ P(E=1)H(X|Y,E=1)\]
\[= P(E=0)\underset{= 0}{\underbrace{H(X|Y, E=0)}} \\+ P(E=1)H(X|Y,E=1)\]
\[= P(E=0)\underset{= 0}{\underbrace{H(X|Y, E=0)}} \\+ P(E=1)\underset{\le \log(N-1)}{\underbrace{H(X|Y,E=1)}}\]
\[\le p_e \log(N-1)\]
\[H(X|Y) \le p_e \log(N-1) + H_2(p_e)\]
Пусть \(f(x)\) выпуклая вниз на некотором отрезке \(\mathcal X\), и пусть числа \(q_i\) (\(i=1,\ldots, n\)) представляют веса (\(q_i > 0\), \(\sum_i q_i = 1\)). Тогда \(\forall x_i \in \mathcal X\) \[f(\sum_i q_i x_i) \le \sum_i q_i f(x_i).\]
Для выпуклой вверх функции неравенство обращается.
\[H(M^{N-1} R^{N-1} S) \\+ H(M_N|M^{N-1} R^{N-1} S) \\+ H(R_N|M^{N-1} R^{N-1} S)\]
\[H(M^{N-1} R^{N-1} S) \\+ \underset{= 0}{\underbrace{H(M_N|M^{N-1} R^{N-1} S)}} \\+ \underset{= H(R_N|M_N)}{\underbrace{H(R_N|M^{N-1} R^{N-1} S)}} \]
\[H(M^{N-1} R^{N-1} S) + H(R_N|M_N)\]
\[\ldots\]
\[H(S) + \sum_{i=1}^N H(R_i|M_i)\]
\(H(M^N R^N S) = H(S) + \sum_{i=1}^N H(R_i|M_i)\)
\[H(R^N S) + H(M^N|R^N S)\]
\[H(R^N S) + \underset{= 0}{\underbrace{H(M^N|R^N S)}}\]
\[H(R^N S)\]
\[= H(S)+H(R^N)-H(R^N S)\]
\[= H(R^N)-\sum_{i=1}^N H(R_i|M_i)\]
\[= \underset{\le \sum_{i=1}^N H(R_i)}{\underbrace{H(R^N)}}-\sum_{i=1}^N H(R_i|M_i)\]
\[\le \sum_{i=1}^N (H(R_i) - H(R_i|M_i))\]
\[\le \sum_{i=1}^N I(R_i M_i)\]
\[\le \sum_{i=1}^N \underset{\le C}{\underbrace{I(R_i M_i)}}\]
\[\le C N\]
\[\le C \frac{K}{ρ}\]
\[I(S R^N) \le C \frac{K}{ρ}\]
\[H_2(p_b)\]
\[= H_2(\frac{\sum_{i=1}^K P(\text{ошибка в }i\text{-том бите})}{K})\]
\[\ge \frac{\sum_{i=1}^K H_2(P(\text{ошибка в }i\text{-том бите}))}{K}\]
(по н-ву Йенсена)
\[\ge \frac{\sum_{i=1}^K H(i\text{-й бит сообщения}|R^N)}{K}\]
(по нер-ству Фано)
\[\ge \frac{H(S|R^N)}{K}\]
(по св-ву энтропии)
\[\ge \frac{H(S) - I(S; R^N)}{K}\]
(по опр. \(I\))
\[\ge \frac{K - K\frac{C}{ρ}}{K}\]
(при \(P(s_i)=P(s_j)\))
\[= 1 - \frac{C}{ρ}\]
\[ρ \le \frac{C}{1 - H_2(p_b)}\]
Определяет пропускную способность канала с аддитивным гауссовским шумом.
\[C = B \log_2(1+\frac{S}{N}),\]
где C – пропускная способность канала, бит/с, \(B\) – полоса пропускания (частотная ширина канала), Гц, \(S\) – средняя мощность сигнала над полосой пропускания, Вт, \(N\) – средняя мощность шума над полосой пропускания, Вт.
Если взять более интуитивную аксиому,
получим энтропию Реньи или α-энтропия: \[H_\alpha(X)={\frac{1}{1-\alpha}}\log \sum _{x\in X} (P_{i}(x))^{\alpha},\]
эквивалентна энтропии Шеннона только в пределе \(\alpha\to 1\):
\[\lim_{\alpha\to 1} \frac{\log \sum_{x\in X} (P_{i}(x))^{\alpha}}{1-\alpha}\]
\[- \lim_{\alpha\to 1} \frac{\sum_{x\in X}(P_{i}(x))^{\alpha} \log (P_{i}(x))}{\sum_{x\in X}(P_{i}(x))^{\alpha}}\]
\[- \sum_{x\in X} P_{i}(x) \log (P_{i}(x))\]
Эквивалентная системе Хинчина аксиоматика.