Вероятностно - статистические модели сообщений и их свойства

Линейная модель связи

Источник информации
любой объект, порождающий сообщения, которые должны быть переданы во времени или пространстве.
Первичный преобразователь
сущность, воспринимающая информацию из источника информации и тем или иным образом её представляющая в виде данных.
Кодер
устройство, выполняющее кодирование
Кодирование
представление данных, выраженных некоторым алфавитом, некоторым другим алфавитом
Модулятор
устройство, преобразующее сообщения, формируемые кодером канала, в сигналы, согласованные с физической природой канала или средой хранения информации
Канал
некий физический канал связи, через который происходит передача данных от передающего устройства к принимающему.

Следует отметить, что “связь” здесь используется в достаточно широком смысле. В частности “каналом” может выступать устройство хранения, тогда “связь” описывает передачу информации не в пространстве, а во времени (“источник” находится в прошлом, а “получатель” – в будущем; не исключено что физически это один и тот же объект)

Источники сообщений

  • произвольный источник
  • сообщение можно рассматривать как символ \(\xi\) некого алфавита \(A\)
  • \(\xi\) – случайная дискретная величина
  • Если размерность \(A\) конечна, т.е. \(2 \le |A| < \infty\), где \(|A|\) – количество символов в алфавите, то источник является дискретным источником.
  • Иначе – непрерывный источник.
  • В основном будем рассматривать дискретные источники.
Дискретный ансамбль
полная совокупность состояний с вероятностями их появления \(B = \{(\xi, P(\xi)) | \forall \xi \in A\}\)

Статистическая модель канала связи

  • Пусть канал связи может получать на вход сообщения из множества \(M = \{m_i\}\), и на выходе давать сигналы из множества \(R = \{r_j\}\)
  • Вероятностная модель канала задаётся совокупностью \(|M|\cdot |R|\) условных вероятностей \(\{P(r_j | m_j)\},\) задающих вероятность появления на выходе сигнала \(r_j\) при поступлении на вход сообщения \(m_j\).
Априорная вероятность сообщения
Вероятности появления сообщений на входе канала \(\{P(m_j)\}\) называются априорными вероятностями сообщений.
  • Действие канала описывается множеством элементарных событий \(\Omega = \{ m_i \} \times \{ r_j \}\). Вероятности этих событий, \[P(m_i r_j) = P(m_i) P(r_j | m_i).\]
  • По формуле полной вероятности: \[P(r_j) = \sum_{m_i\in M} P(m_i, r_j),\] \[P(m_i|r_j) = \frac{P(m_i,r_j)}{P(r_j)}.\]
Апостериорная вероятность
Условная вероятность исходного сообщения \(m_i\in M\) при обнаружении на выходе сигнала \(r_j \in R\), \(P(m_i|r_j)\), называется апостериорной.
  • Множество всех апостериорных вероятностей статистически описывает передаточные свойства канала связи. Те же свойства канала можно описывать канальной матрицей.
Канальная матрица приёмника
\[\mathbf{P} = [p_{ij} = P(m_i|r_j)]\]
Канальная матрица источника
\[\mathbf{P} = [p_{ij} = P(r_j|m_i)]\]
Канальная матрица объединения
\[\mathbf{P} = [p_{ij} = P(m_i r_j)]\]
В отличие от двух предыдущих полностью описывает канал

Основная задача теории связи. Статистически оптимальный приёмник

  • Основная задача теории связи – описание приёмника, который по полученному сигналу \(r_j \in R\) принимает оптимальное (наиболее вероятное) решение относительно исходного сообщения \(m_i \in M\).
  • Иными словами, приёмник должен отображать пространство сигналов на выходе канала связи \(R\) на пространство сообщений на входе \(M\). Обозначим такой оператор отображения как
  • \[\hat m : R \to M.\]

  • При оптимальном выборе \(\hat m\), условная вероятность выбора исходного сообщения \(\xi\) при получении сигнала \(r_j\), \(P(\xi | r_j),\) будет совпадать с условной вероятностью \(P(\hat m(r_j) | r_j)\):
  • \[P(\xi | r_j) = P(\hat m(r_j) | r_j).\]

  • \[P(\xi | r_j) = P(\hat m(r_j) | r_j).\]
  • \(P(\xi | r_j)\) принимает наибольшее значение, если в качестве \(\hat m (r_j)\) всегда выбирается сообщение, имеющее наибольшую апостериорную вероятность для данного \(r_j\).
  • Чтобы показать оптимальность, вычислим безусловную вероятность оптимального выбора \(\xi\): \[P(\xi) = \sum_{j=1}^J P(\xi|r_j)P(r_j) = \sum_{j=1}^J P(\hat m(r_j) | r_j) P(r_j).\]
  • \(P(r_j)\) не зависят от выбора \(\hat m\), следовательно \(P(\xi)\) максимально только тогда, когда все \(P(\xi|r_j)=P(\hat m(r_j) | r_j)\) максимальны.

  • Для выбора оптимального \(\hat m\) не требуется, вообще говоря, знать \(P(m_i|r_j)\) или \(P(r_j)\). Достаточно руководствоваться следующим принципом:
  • Выбор \(\hat m\) оптимален, если \(\forall r_j: \hat m(r_j) = m_k\), где \(m_k = m_k(r_j)\) – сообщение, обладающее наибольшей апостериорной вероятностью для сигнала \(r_j\), то есть, \[\forall i: P(m_k|r_j) \ge P(m_i|r_j).\]
  • \[\iff \forall i: P(m_k)P(r_j|m_k)\ge P(m_i)P(r_j|m_i).\]
  • Почему?

  • \[\iff \forall i: P(m_k)P(r_j|m_k)\ge P(m_i)P(r_j|m_i).\]
  • оптимальные значения \(\hat m(r_j) = m_k,\) такие, что \[P(m_k)P(r_j|m_k) = \underset{m_i\in M}\max(P(m_i)P(r_j|m_i)),\]
  • эквивалентно, \[P(m_k r_j) = \underset{m_i\in M}\max(P(m_i r_j)),\]