Вероятностно - статистические модели сообщений и их свойства

Линейная модель связи

Источник информации
любой объект, порождающий сообщения, которые должны быть переданы во времени или пространстве.
Первичный преобразователь
сущность, воспринимающая информацию из источника информации и тем или иным образом её представляющая в виде данных.
Кодер
устройство, выполняющее кодирование
Кодирование
представление данных, выраженных некоторым алфавитом, некоторым другим алфавитом
Модулятор
устройство, преобразующее сообщения, формируемые кодером канала, в сигналы, согласованные с физической природой канала или средой хранения информации
Канал
некий физический канал связи, через который происходит передача данных от передающего устройства к принимающему.

Следует отметить, что “связь” здесь используется в достаточно широком смысле. В частности “каналом” может выступать устройство хранения, тогда “связь” описывает передачу информации не в пространстве, а во времени (“источник” находится в прошлом, а “получатель” – в будущем; не исключено что физически это один и тот же объект)

Источники сообщений

Рассмотрим произвольный источник сообщений. Каждое сообщение можно рассматривать как символ \(\xi\) некого алфавита \(A\). \(\xi\) – случайная дискретная величина.

Если размерность алфавита \(A\) конечна, т.е. \(2 \le |A| < \infty\), где \(|A|\) – количество символов в алфавите, то источник является дискретным источником. Иначе, если размерность \(A\) бесконечна – непрерывный источник.

В основном мы будем рассматривать дискретные источники.

Дискретный ансамбль
полная совокупность состояний с вероятностями их появления \(B = \{(\xi, P(\xi)) | \forall \xi \in A\}\)

Статистическая модель канала связи

Пусть канал связи может получать на вход сообщения из множества \(M = \{m_i\}\), и на выходе давать сигналы из множества \(R = \{r_j\}\). Вероятностная модель канала будет тогда задаваться совокупностью \(|M|\cdot |R|\) условных вероятностей \(\{P(r_j | m_j)\},\) задающих вероятность появления на выходе сигнала \(r_j\) при поступлении на вход сообщения \(m_j\).

Априорная вероятность сообщения
Вероятности появления сообщений на входе канала \(\{P(m_j)\}\) называются априорными вероятностями сообщений.

Действие канала может быть описано множеством элементарных событий \(\Omega = \{ m_i \} \times \{ r_j \}\). Вероятности этих событий, \[P(m_i r_j) = P(m_i) P(r_j | m_i).\]

По формуле полной вероятности: \[P(r_j) = \sum_{m_i\in M} P(m_i, r_j),\] \[P(m_i|r_j) = \frac{P(m_i,r_j)}{P(r_j)}.\]

Апостериорная вероятность
Условная вероятность исходного сообщения \(m_i\in M\) при обнаружении на выходе сигнала \(r_j \in R\), \(P(m_i|r_j)\), называется апостериорной.

Множество всех апостериорных вероятностей статистически описывает передаточные свойства канала связи. Те же свойства канала можно описывать канальной матрицей.

Канальная матрица приёмника
Матрица апостериорных вероятностей \[\mathbf{P} = [p_{ij} = P(m_i|r_j)]\]
Канальная матрица источника
Матрица вероятностей \[\mathbf{P} = [p_{ij} = P(r_j|m_i)]\]
Канальная матрица объединения
Матрица вероятностей \[\mathbf{P} = [p_{ij} = P(m_i r_j)]\]
В отличие от двух предыдущих полностью описывает канал

Основная задача теории связи. Статистически оптимальный приёмник

Основная задача теории связи заключается в описании приёмника, который по полученному сигналу \(r_j \in R\) принимает оптимальное (в смысле наиболее вероятного) решение относительно исходного сообщения \(m_i \in M\).

Иными словами, приёмник должен отображать пространство сигналов на выходе канала связи \(R\) на пространство сообщений на входе \(M\). Обозначим такой оператор отображения как \[\hat m : R \to M.\]

Тогда, при оптимальном выборе \(\hat m\), условная вероятность оптимального выбора исходного сообщения \(\xi\) при получении сигнала \(r_j\), \(P(\xi | r_j),\) будет совпадать с условной вероятностью \(P(\hat m(r_j) | r_j)\): \[P(\xi | r_j) = P(\hat m(r_j) | r_j).\]

\(P(\xi | r_j)\) принимает наибольшее значение, если в качестве \(\hat m (r_j)\) всегда выбирается сообщение, имеющее наибольшую апостериорную вероятность для данного \(r_j\). Оптимальность такого решения можно убедительно показать, вычислив безусловную вероятность оптимального выбора \(\xi\): \[P(\xi) = \sum_{j=1}^J P(\xi|r_j)P(r_j) = \sum_{j=1}^J P(\hat m(r_j) | r_j) P(r_j).\]

Поскольку \(P(r_j)\) не зависят от выбора \(\hat m\), вероятность выбора оптимального исходного сообщения \(P(\xi)\) принимает максимальное значение только тогда, когда все \(P(\xi|r_j)\) принимают максимальные значения.

Для выбора оптимального \(\hat m\) нам не требуется, вообще говоря, знать апостериорные вероятности \(P(m_i|r_j)\) или вероятности приёма сигналов \(P(r_j)\). Для выбора оптимального \(\hat m\) достаточно руководствоваться следующим принципом:

Выбор \(\hat m\) оптимален, если для любого сигнала \(r_j\), \(\hat m(r_j) = m_k\), где \(m_k\) – сообщение, обладающее наибольшей апостериорной вероятностью для сигнала \(r_j\), то есть, \[\forall i: P(m_k|r_j) \ge P(m_i|r_j).\] Это верно тогда и только тогда, когда \[\forall i: P(m_k)P(r_j|m_k)\ge P(m_i)P(r_j|m_i).\]

Иными словами, оптимальные значения \(\hat m(r_j) = m_k,\) такие, что \[P(m_k)P(r_j|m_k) = \underset{m_i\in M}\max(P(m_i)P(r_j|m_i)),\] или, эквивалентно, \[P(m_k r_j) = \underset{m_i\in M}\max(P(m_i r_j)),\]

Действительно, \[P(m_k|r_j) \ge P(m_i|r_j) \Leftrightarrow \] \[\frac{P(m_k, r_j)}{P(r_j)} \ge \frac{P(m_i,r_j)}{P(r_j)}\] Поскольку \(P(r_j) > 0\) (если \(P(r_j)=0\), то \(P(m_i|r_j)\) не определено), мы можем домножить обе части неравенства на \(P(r_j)\). Тогда, \[P(m_k, r_j) \ge P(m_i,r_j) \Leftrightarrow\] \[P(m_k) P(r_j | m_k) \ge P(m_k) P(r_j | m_i)\]