Радиотехника и электроника, 2019, T. 64, № 2, стр. 195-198

Квазикогерентный прием цифровых сигналов с межсимвольной информационной связью

А. А. Парамонов 1*, А. И. Стариковский 1, В. Е. Мартиросов 2, О. В. Тихонова 1

1 МИРЭА – Российский технологический университет
119454 Москва, просп. Вернадского, 78, Российская Федерация

2 Московский авиационный институт (национальный исследовательский университет)
125993 Москва, Волоколамское ш., 4, Российская Федерация

* E-mail: paramonov@mirea.ru

Поступила в редакцию 12.04.2018
После доработки 01.06.2018
Принята к публикации 11.06.2018

Полный текст (PDF)

Аннотация

Теория оптимальной нелинейной фильтрации дискретно-непрерывных процессов распространена на случай приема сигналов с межсимвольной информационной связью, т.е. сигналов, форма которых на некотором тактовом интервале зависит не только от текущего информационного символа, но и от предыдущих символов. Рассмотрен общий алгоритм приема таких сигналов и его упрощенный вариант, допускающий практическую реализацию демодулятора.

Бурный рост скоростей и объемов передаваемой по радиоканалам информации привел к тому, что обострилась проблема ограниченности емкости радиочастотного спектра и взаимных помех. Поэтому в практике передачи цифровых сообщений происходит переход на новые сигнальные форматы, отличающиеся компактным спектром и высокой энергетической эффективностью. Во многих случаях дополнительным требованием к подобным сигналам оказывается постоянство огибающей. Этим требованиям отвечает, например, модуляция с непрерывной фазой. Особенностью подобных сигналов является то, что у них начальная фаза на некотором тактовом интервале зависит от того, какой информационный символ передавался на предыдущих интервалах [1], т.е. форма сигнала на некотором тактовом интервале зависит не только от текущего информационного символа, но и от предыдущих символов. Известны и другие виды сигналов, для которых характерна такая межсимвольная информационная связь (МИС). В статье рассматривается квазикогерентный прием таких сигналов.

Обозначим принимаемое приемником на некотором i-ом тактовом интервале колебание как

(1)
$r\left( t \right) = s\left( {t,\quad{{{\mathbf{A}}}_{i}},\quad{\mathbf{\psi }}} \right) + n\left( t \right),$
где $s\left( {t,\quad{{{\mathbf{A}}}_{i}},\quad{\mathbf{\psi }}} \right)\quad$ – сигнал с МИС, $\quad{{{\mathbf{A}}}_{i}} = \left[ {{{a}_{1}},\quad{{a}_{2}},\quad \ldots ,\quad{{a}_{i}}} \right]\quad$ – вектор m-ичных информационных символов, ${\mathbf{\psi }}$ – вектор случайных параметров, $n\left( t \right)\quad$ – белый гауссовский шум с двухсторонней спектральной плотностью мощности ${{{{N}_{0}}} \mathord{\left/ {\vphantom {{{{N}_{0}}} 2}} \right. \kern-0em} 2}.$

Зависимость сигнала на некотором тактовом интервале от всей последовательности символов, передаваемых до текущего момента времени, отражает наличие в нем МИС.

Будем считать, что априорная плотность вероятности вектора ${\mathbf{\psi }}\left( t \right)$ удовлетворяет уравнению Фоккера–Планка–Колмогорова

$\dot {w}\left( {t,{\mathbf{\psi }}} \right) = \mathcal{L}\{ w(t,{\mathbf{\psi }})\} ,$

где точка над буквой обозначает производную по времени, а через $\mathcal{L}\{ \cdot\} $ обозначен оператор:

$\begin{gathered} \mathcal{L}\{ \cdot\} = - \sum\limits_{s = 1}^l {\frac{\partial }{{\partial {{\psi }_{s}}}}} \left[ {{{\alpha }_{s}}\left( {t,{\mathbf{\psi }}} \right)} \right] + \\ + \,\,\frac{1}{2}\sum\limits_{s = 1}^l {\sum\limits_{r = 1}^l {\frac{{{{\partial }^{2}}}}{{\partial {{\psi }_{r}}\partial {{\psi }_{s}}}}} } [{{\beta }_{{rs}}}\left( {t,{\mathbf{\psi }}} \right)]. \\ \end{gathered} $

Здесь ${{\alpha }_{s}}\left( {t,{\mathbf{\psi }}} \right)$ – элемент вектора коэффициента сноса, ${{\beta }_{{rs}}}\left( {t,{\mathbf{\psi }}} \right)$ – элемент матрицы коэффициентов диффузии, l – размерность вектора ${\mathbf{\psi }}(t).$

В работе [2] приведены алгоритмы оптимального приема дискретно-непрерывных сигналов, определяемых на каждом k-ом тактовом интервале только соответствующим информационным символом ${{a}_{k}}.$ Применить непосредственно эти алгоритмы для демодуляции сигналов с МИС не удается, поскольку принимаемый сигнал, промодулированный некоторым информационным символом, не локализован на одном тактовом интервале, а за счет этой информационной связи растянут во времени на несколько интервалов. Соответственно, на одном тактовом интервале сигнал оказывается промодулированным несколькими информационными символами. Для того чтобы обойти эту трудность, перейдем к новой формулировке решаемой задачи.

Будем считать, что решение о некотором информационном символе ${{a}_{k}},$ передаваемом на интервале времени $t \in \left( {\left( {k - 1} \right)T,kT} \right],\quad$ принимается с задержкой на Q тактовых интервалов, т.е. в момент времени (k + Q)T . Рассматривая передаваемый сигнал на интервале времени $\left( {\left( {k - 1} \right)T,\left( {k + Q} \right)T} \right],$ расширим все векторы информационных символов до одинакового размера k + Q, дополнив их нулями:

$\begin{array}{*{20}{c}} {{\mathbf{A}}_{1}^{p} = [{{{\mathbf{A}}}_{1}},0;0; \cdots ,0] = [{{a}_{1}},0;0; \cdots ,0],} \\ {{\mathbf{A}}_{2}^{p} = [{{{\mathbf{A}}}_{2}},0;0; \cdots ,0] = [{{a}_{1}},{{a}_{2}},0;0; \cdots ,0],} \\ \cdots \\ {{\mathbf{A}}_{i}^{p} = [{{{\mathbf{A}}}_{i}},0;0; \cdots ,0] = [{{a}_{1}},{{a}_{2}}, \cdots {{a}_{i}},0;0; \cdots ,0],} \\ \cdots \\ {{\mathbf{A}}_{{k + Q}}^{p} = {{{\mathbf{A}}}_{{k + Q}}} = [{{a}_{1}},{{a}_{2}}, \cdots {{a}_{{k + Q}}}].} \end{array}$

Теперь перейдем к новому укрупненному алфавиту размером ${{m}^{{k + Q}}}$ таким образом, что каждый расширенный вектор может быть сопоставлен с одним из возможных значений этого укрупненного алфавита. В результате удается прийти к ситуации приема ${{m}^{{k + Q}}}$-ичных символов, причем на каждом новом тактовом интервале сигнал зависит только от одного нового символа. Заметим, что эти новые ${{m}^{{k + Q}}}$-ичные символы образуют марковскую последовательность.

Для того чтобы не усложнять запись и не вводить новых переменных, для этих новых ${{m}^{{k + Q}}}$-ичных символов сохраним прежние обозначения ${{{\mathbf{A}}}_{1}},$ ${{{\mathbf{A}}}_{2}},$ …, ${{{\mathbf{A}}}_{{k + Q}}}.$ При таком обозначении символов нового алфавита не возникает никаких недоразумений, так как между этими символами и векторами ${{{\mathbf{A}}}_{1}},$ ${{{\mathbf{A}}}_{2}},$ …, ${{{\mathbf{A}}}_{{k + Q}}}$ имеется однозначное соответствие.

Теперь можно рассматривать задачу оптимального приема символов укрупненного алфавита. При этом оказываются применимыми оптимальные алгоритмы приема дискретно-непрерывных марковских процессов. Согласно [2] апостериорная совместная плотность вероятностей некоторого символа ${{{\mathbf{A}}}_{n}}$ и вектора ${\mathbf{\psi }}\left( t \right)$ на соответствующем тактовом интервале удовлетворяет уравнению

(1)
$\begin{gathered} {{{\dot {p}}}_{{ps}}}\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right) = \mathcal{L}\left\{ {{{p}_{{ps}}}\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right)} \right\} + \\ + \,\,\left[ {F\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right) - F\left( t \right)} \right]{{p}_{{ps}}}\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right), \\ \end{gathered} $

где

(2)
$F\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right) = - \frac{1}{{{{N}_{0}}}}{{\left[ {r\left( t \right) - s\left( {t,\quad{{{\mathbf{A}}}_{n}},\quad{\mathbf{\psi }}} \right)} \right]}^{2}},$
(3)
$F\left( t \right) = \sum\limits_{\forall {{{\mathbf{A}}}_{n}}} {\int\limits_{\mathbf{\psi }} {F\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right)} } {{p}_{{ps}}}\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right)d{\mathbf{\psi }}.$

Связь между значениями апостериорной совместной плотности вероятностей на соседних тактовых интервалах определяется соотношением

(4)
${{p}_{{ps}}}\left( {nT + 0,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right) = \sum\limits_{\forall {{{\mathbf{A}}}_{{n - 1}}}} {{{\pi }_{{{{{\mathbf{A}}}_{{n - 1}}},{{{\mathbf{A}}}_{n}}}}}} {{p}_{{ps}}}\left( {nT,{{{\mathbf{A}}}_{{n - 1}}},{\mathbf{\psi }}} \right).$

Здесь ${{\pi }_{{{{{\mathbf{A}}}_{{n - 1}}},{{{\mathbf{A}}}_{n}}}}}\quad$ – вероятность перехода информационного символа укрупненного алфавита из значения ${{{\mathbf{A}}}_{{n - 1}}}$ в значение ${{{\mathbf{A}}}_{n}}.$ Важно отметить, что значительная часть этих переходных вероятностей равна нулю. Действительно, от символа ${{{\mathbf{A}}}_{{n - 1}}}$ возможен переход не к любому символу укрупненного алфавита, а только к такому, который в векторной записи соответствует предыдущему символу ${{{\mathbf{A}}}_{{n - 1}}},$ дополненному информационным символом первичного алфавита ${{a}_{n}}.$ А так как последний может принимать лишь m возможных значений, только m переходных вероятностей отличны от нуля.

Из выражений (1)–(4) можно получить два конструктивных алгоритма приема сигналов с МИС – алгоритм переприсвоения и алгоритм фильтрации [2]. Первый из них имеет то преимущество, что работоспособен в ситуациях, когда сопутствующие параметры меняются быстро. Остановимся подробнее на этом алгоритме. Согласно алгоритму переприсвоения апостериорная вероятность символа укрупненного алфавита ${{{\mathbf{A}}}_{n}}$ в момент времени t = nT выражается следующим образом:

(5)
${{p}_{{ps}}}\left( {nT,{{{\mathbf{A}}}_{n}}} \right) = \frac{{{\text{exp}}\left\{ {\int\limits_{\left( {n - 1} \right)T}^{nT} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right)} \right\rangle } dt} \right\}{{p}_{{ps}}}\left( {\left( {n - 1} \right)T + 0,{{{\mathbf{A}}}_{n}}} \right)}}{{\mathop \sum \nolimits_{\forall {{{\mathbf{A}}}_{n}}} {\text{exp}}\left\{ {\int\limits_{\left( {n - 1} \right)T}^{nT} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right)} \right\rangle } dt} \right\}{{p}_{{ps}}}\left( {\left( {n - 1} \right)T + 0,{{{\mathbf{A}}}_{n}}} \right)}}.$

Входящая сюда функция $\left\langle {F\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right)} \right\rangle $ представляет собой усреднение (2) по непрерывному аргументу:

(6)
$\left\langle {F\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right)} \right\rangle = \int\limits_{\mathbf{\psi }} {F\left( {t,{{{\mathbf{A}}}_{n}},{\mathbf{\psi }}} \right)} {{w}_{{ps}}}\left( {t,\left. {\mathbf{\psi }} \right|{{{\mathbf{A}}}_{n}}} \right)d{\mathbf{\psi }},$

где ${{w}_{{ps}}}\left( {t,\left. {\mathbf{\psi }} \right|{{{\mathbf{A}}}_{n}}} \right)$ – апостериорная плотность вероятности вектора сопутствующих параметров, условная по символу ${{{\mathbf{A}}}_{n}}$ укрупненного алфавита.

Далее будем полагать, что априорные вероятности символов первичного алфавита одинаковы и равны 1/m.

В соответствии с (5) апостериорная вероятность вектора ${{{\mathbf{A}}}_{1}}$ в момент времени t = T равна

${{p}_{{ps}}}\left( {T,{{{\mathbf{A}}}_{1}}} \right) = \frac{{{\text{exp}}\left\{ {\int\limits_0^T {\left\langle {F\left( {t,{{{\mathbf{A}}}_{1}},{\mathbf{\psi }}} \right)} \right\rangle } dt} \right\}}}{{\sum\limits_{\forall {{{\mathbf{A}}}_{1}}} {{\text{exp}}} \left\{ {\int\limits_0^T {\left\langle {F\left( {t,{{{\mathbf{A}}}_{1}},{\mathbf{\psi }}} \right)} \right\rangle } dt} \right\}}}.$

Аналогично апостериорная вероятность вектора ${{{\mathbf{A}}}_{2}}$ в момент времени t = 2T равна

$\begin{gathered} {{p}_{{ps}}}\left( {2T,{{{\mathbf{A}}}_{2}}} \right) = \\ = \frac{{{\text{exp}}\left\{ {\int\limits_T^{2T} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{2}},{\mathbf{\psi }}} \right)} \right\rangle } dt} \right\}{{p}_{{ps}}}\left( {T + 0,{{{\mathbf{A}}}_{2}}} \right)}}{{\sum\limits_{\forall {{{\mathbf{A}}}_{2}}} {{\text{exp}}} \left\{ {\int\limits_T^{2T} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{2}},{\mathbf{\psi }}} \right)} \right\rangle } dt} \right\}{{p}_{{ps}}}\left( {T + 0,{{{\mathbf{A}}}_{2}}} \right)}}. \\ \end{gathered} $

Поскольку лишь m переходных вероятностей ${{\pi }_{{{{{\mathbf{A}}}_{{n - 1}}},{{{\mathbf{A}}}_{n}}}}}$ отличны от нуля, а символы первичного алфавита равновероятны и независимы, выражение для вероятности ${{p}_{{ps}}}\left( {\left( {n - 1} \right)T + 0,{{{\mathbf{A}}}_{n}}} \right)$ можно представить в виде

$\begin{gathered} {{p}_{{ps}}}\left( {\left( {n - 1} \right)T + 0,{{{\mathbf{A}}}_{n}}} \right) = {{p}_{{ps}}}\left( {\left( {n - 1} \right)T + 0,{{{\mathbf{A}}}_{{n - 1}}},{{a}_{n}}} \right) = \\ = {{m}^{{ - 1}}}{{p}_{{ps}}}\left( {\left( {n - 1} \right)T,{{{\mathbf{A}}}_{{n - 1}}}} \right). \\ \end{gathered} $

Это выражение позволяет выразить вероятность ${{p}_{{ps}}}\left( {2T,{{{\mathbf{A}}}_{2}}} \right)$ с использованием вероятности ${{p}_{{ps}}}\left( {T,{{{\mathbf{A}}}_{1}}} \right)\,:$

$\begin{gathered} {{p}_{{ps}}}\left( {2T,{{{\mathbf{A}}}_{2}}} \right) = \\ = \frac{{{\text{exp}}\left\{ {\int\limits_0^T {\left\langle {F\left( {t,{{{\mathbf{A}}}_{1}},{\mathbf{\psi }}} \right)} \right\rangle } dt + \int\limits_T^{2T} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{2}},{\mathbf{\psi }}} \right)} \right\rangle } dt} \right\}}}{{\sum\limits_{\forall {{{\mathbf{A}}}_{2}}} {{\text{exp}}} \left\{ {\int\limits_0^T {\left\langle {F\left( {t,{{{\mathbf{A}}}_{1}},{\mathbf{\psi }}} \right)} \right\rangle } dt + \int\limits_T^{2T} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{2}},{\mathbf{\psi }}} \right)} \right\rangle } dt} \right\}}}. \\ \end{gathered} $

Повторяя рекуррентно эту процедуру, приходим к выражению для апостериорной вероятности символа укрупненного алфавита ${{{\mathbf{A}}}_{{k + Q}}}\,:$

(7)
$\begin{gathered} {{p}_{{ps}}}\left( {\left( {k + Q} \right)T,{{{\mathbf{A}}}_{{k + Q}}}} \right) = \\ = \frac{{{\text{exp}}\left\{ {\sum\limits_{l = 1}^{k + Q} {\int\limits_{\left( {l - 1} \right)T}^{lT} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{l}},{\mathbf{\psi }}} \right)} \right\rangle } } dt} \right\}}}{{\sum\limits_{\forall {{{\mathbf{A}}}_{{k + Q}}}} {{\text{exp}}} \left\{ {\sum\limits_{l = 1}^{k + Q} {\int\limits_{\left( {l - 1} \right)T}^{lT} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{l}},{\mathbf{\psi }}} \right)} \right\rangle } } dt} \right\}}}. \\ \end{gathered} $

В (7) входят величины $\left\langle {F\left( {t,{{{\mathbf{A}}}_{l}},{\mathbf{\psi }}} \right)} \right\rangle ,$ для вычисления которых необходимо в соответствии с (6) знать условные апостериорные плотности вероятностей ${{w}_{{ps}}}\left( {t,\left. {\mathbf{\psi }} \right|{{{\mathbf{A}}}_{n}}} \right).$ На l-ом тактовом интервале они удовлетворяют уравнению

(8)
$\begin{gathered} {{{\dot {w}}}_{{ps}}}\left( {t,{\mathbf{\psi }}{\text{|}}{{{\mathbf{A}}}_{l}}} \right) = \mathcal{L}\left\{ {{{w}_{{ps}}}\left( {t,\left. {\mathbf{\psi }} \right|{{{\mathbf{A}}}_{l}}} \right)} \right\} + \\ + \,\,\left[ {F\left( {t,{{{\mathbf{A}}}_{l}},{\mathbf{\psi }}} \right) - \left\langle {F\left( {t,{{{\mathbf{A}}}_{l}},{\mathbf{\psi }}} \right)} \right\rangle } \right]{{w}_{{ps}}}\left( {t,\left. {\mathbf{\psi }} \right|{{{\mathbf{A}}}_{n}}} \right) \\ \end{gathered} $

с начальным условием

(9)
$\begin{gathered} {{w}_{{ps}}}\left( {\left( {l - 1} \right)T + 0,\left. {\mathbf{\psi }} \right|{{{\mathbf{A}}}_{l}}} \right) = \\ = {{w}_{{ps}}}\left( {\left( {l - 1} \right)T,\left. {\mathbf{\psi }} \right|{{{\mathbf{A}}}_{{l - 1}}}} \right). \\ \end{gathered} $

При использовании выражения (9) следует иметь в виду, что вектор ${{{\mathbf{A}}}_{l}},$ по которому условна плотность вероятности в левой части, есть дополненный символом ${{a}_{l}}$ вектор ${{{\mathbf{A}}}_{{l - 1}}}$ из правой части. Обратим внимание на то, что при принятой нами форме укрупненного алфавита переход некоторого символа в состояние ${{{\mathbf{A}}}_{l}}$ возможен только из состояния ${{{\mathbf{A}}}_{{l - 1}}}.$ Это делает излишней операцию переприсвоения. Тем не менее, сохраним за алгоритмом (7)–(9) устоявшееся название.

Апостериорная вероятность некоторого символа ${{a}_{k}},$ по которому должно быть вынесено решение в момент времени (k + Q)T, находится усреднением (7) по всем лишним аргументам:

(10)
${{p}_{{ps}}}\left( {{{a}_{k}}} \right) = {{k}_{0}}\sum\limits_{\forall {\mathbf{A}}_{{k + Q}}^{'}} {{\text{exp}}} \left\{ {\sum\limits_{l = 1}^{k + Q} {\int\limits_{\left( {l - 1} \right)T}^{lT} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{l}},{\mathbf{\psi }}} \right)} \right\rangle } } dt} \right\},$

где ${{k}_{0}}$ – коэффициент, не зависящий от оцениваемого символа ${{a}_{k}},$ а через ${\mathbf{A}}_{{k + Q}}^{'}$ обозначен вектор информационных символов, в котором отсутствует элемент ${{a}_{k}}.$

К сожалению, выражение (10) не позволяет получить реализуемый алгоритм приема, так как с ростом номера k оцениваемого символа непрерывно возрастает количество корреляционных интегралов и экспонент, которые необходимо вычислять. Рассмотрим возможности упрощения выражения (10) и создания реализуемого алгоритма.

Согласно (10) апостериорная вероятность символа ${{a}_{k}}$ пропорциональна сумме экспонент от функций $\left\langle {F\left( {t,{{{\mathbf{A}}}_{l}},{\mathbf{\psi }}} \right)} \right\rangle ,$ вычисленных для всех конфигураций последовательностей информационных символов ${{a}_{1}},\quad{{a}_{2}},\quad \ldots ,\quad{{a}_{{k + Q}}}.$ Вклад отдельных слагаемых в эту сумму различен: при больших отношениях сигнал/шум вклад наибольшего слагаемого является определяющим. Это является следствием того, что слагаемые имеют экспоненциальный характер, поэтому даже при не слишком большом различии между аргументами экспонент сами экспоненты различаются заметно сильнее. В действительности же различия между аргументами оказываются значительными, так как эти аргументы по своей сути – корреляционные интегралы, соответствующие правильной и неправильным последовательностям информационных символов, используемых в цепях формирования опорных колебаний.

Приняв во внимание эти рассуждения, выражение (10) можно записать в таком виде:

${{p}_{{ps}}}\left( {{{a}_{k}}} \right) \approx {{k}_{0}}\mathop {\max }\limits_{\forall {\mathbf{A}}_{{k + Q}}^{'}} {\text{exp}}\left\{ {\sum\limits_{l = 1}^{k + Q} {\int\limits_{\left( {l - 1} \right)T}^{lT} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{l}},{\mathbf{\psi }}} \right)} \right\rangle } } dt} \right\}.$

Перейдем от апостериорных вероятностей к их логарифмам:

${{M}_{{{\text{м а к с }}}}}\left( {{{a}_{k}}} \right) \approx \mathop {\max }\limits_{\forall {\mathbf{A}}_{{k + Q}}^{'}} \sum\limits_{l = 1}^{k + Q} {\int\limits_{\left( {l - 1} \right)T}^{lT} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{l}},{\mathbf{\psi }}} \right)} \right\rangle } } dt.$

Правило вынесения решения, записанное с использованием величин ${{M}_{{{\text{м а к с }}}}}\left( {{{a}_{k}}} \right),$ приобретает вид:

(11)
${{\hat {a}}_{k}} = {\;max}_{{\forall {\mathbf{A}}_{{k + Q}}^{'}}}^{{ - 1}}\left\{ {{{M}_{{{\text{м а к с }}}}}\left( {{{a}_{k}}} \right)} \right\}.$

В соответствии с этим правилом необходимо вычислить все возможные интегралы вида

$M\left( {{{a}_{k}},{\mathbf{A}}_{{k + Q}}^{'}} \right) = \sum\limits_{l = 1}^{k + Q} {\int\limits_{\left( {l - 1} \right)T}^{lT} {\left\langle {F\left( {t,{{{\mathbf{A}}}_{l}},{\mathbf{\psi }}} \right)} \right\rangle } } dt,\quad\,\,\,\,\forall {\mathbf{A}}_{{k + Q}}^{'}.$

Величины $M\left( {{{a}_{k}},{\mathbf{A}}_{{k + Q}}^{'}} \right)\quad$ вычисляются для всех возможных векторов ${{{\mathbf{A}}}_{{k + Q}}},$ т.е. для всех возможных последовательностей информационных символов ${{a}_{1}},$ ${{a}_{2}},$ $ \cdots \quad{{a}_{{k + Q}}},$ поэтому они могут быть названы метриками путей вдоль последовательностей информационных символов.

Нетрудно убедиться в том, что правило (11) эквивалентно такому:

(12)
${{\hat {a}}_{k}} = {\;max}_{{\forall {{a}_{k}},{\mathbf{A}}_{{k + Q}}^{'}}}^{{ - 1}}\left\{ {M\left( {{{a}_{k}},{\mathbf{A}}_{{k + Q}}^{'}} \right)} \right\}.$

Правило (12) описывает процедуру такого решения о символе ${{a}_{k}},$ которое соответствует наиболее правдоподобной последовательности информационных символов от момента времени t = 0 до момента t = (k + Q)T. Иными словами, процедура принятия решения отвечает критерию максимума правдоподобия последовательности (МПП).

В том виде, в котором эта процедура представлена выше (выражение (12)), она натолкнется на непрерывно возрастающий объем необходимых вычислений, так как количество вычисляемых метрик путей $M\left( {{{a}_{k}},{\mathbf{A}}_{{k + Q}}^{'}} \right)$ растет с ростом k. Однако в том случае, когда сигнал с МИС может принимать конечное число состояний (это справедливо, например, для модулированных сигналов с непрерывной фазой при рациональных индексах модуляции), к (12) может быть применена процедура Витерби. Она включает в себя отбрасывание на каждом новом тактовом интервале невыживших путей и добавление к метрикам выживших путей приращений метрик, вычисляемых на новом интервале. Такое последовательное вычисление метрик возможно в связи с их аддитивным (по номеру тактового интервала) характером. В результате этой процедуры удается добиться невозрастающей с ростом номера тактового интервала сложности алгоритма оптимального по критерию МПП приема.

Не приводя описания хорошо известного алгоритма Витерби, отметим, что ключевой операцией в алгоритме МПП, реализуемом с его помощью, является вычисление на каждом тактовом интервале приращений метрик

$\begin{gathered} \Delta M\left( {{{a}_{{k + Q}}},{{{\mathbf{A}}}^{{\text{s}}}}_{{k + Q - 1}}} \right) = \\ = \int\limits_{\left( {k + Q - 1} \right)T}^{\left( {k + Q} \right)T} {\left\langle {F\left( {t,{{a}_{{k + Q}}},{{{\mathbf{A}}}^{{\text{s}}}}_{{k + Q - 1}},{\mathbf{\psi }}} \right)} \right\rangle } dt. \\ \end{gathered} $

Индекс “s” в обозначении вектора информационных символов отражает тот факт, что этот вектор относится к выжившему пути.

Для вычисления приращения метрики необходимо знание апостериорной плотности вероятности вектора ${\mathbf{\psi }}\left( t \right),$ условной по вектору ${{{\mathbf{A}}}^{{\text{s}}}}_{{k + Q - 1}}$ и символу ${{a}_{{k + Q}}}.$ Эта плотность вероятности описывается соотношениями, аналогичными (8) и (9):

$\begin{gathered} {{w}_{{ps}}}\left( {t,{\mathbf{\psi }}{\text{|}}{{a}_{{k + Q}}},{{{\mathbf{A}}}^{{\text{s}}}}_{{k + Q - 1}}} \right) = \mathcal{L}\left\{ {{{w}_{{ps}}}\left( {t,\left. {\mathbf{\psi }} \right|{{a}_{{k + Q}}},{{{\mathbf{A}}}^{{\text{s}}}}_{{k + Q - 1}}} \right)} \right\} + \\ + \,\,\left[ {F\left( {t,{{a}_{{k + Q}}},{{{\mathbf{A}}}^{{\text{s}}}}_{{k + Q - 1}},{\mathbf{\psi }}} \right) - \left\langle {F\left( {t,{{a}_{{k + Q}}},{{{\mathbf{A}}}^{{\text{s}}}}_{{k + Q - 1}},{\mathbf{\psi }}} \right)} \right\rangle } \right] \times \\ \times \,\,{{w}_{{ps}}}\left( {t,\left. {\mathbf{\psi }} \right|{{a}_{{k + Q}}},{{{\mathbf{A}}}^{{\text{s}}}}_{{k + Q - 1}}} \right), \\ {{w}_{{ps}}}\left( {\left( {k + Q - 1} \right)T + 0,\,\,\left. {\mathbf{\psi }} \right|{{a}_{{k + Q}}},\,\,{{{\mathbf{A}}}^{{\text{s}}}}_{{k + Q - 1}}} \right) = \\ = {{w}_{{ps}}}\left( {\left( {k + Q - 1} \right)T,\,\,\left. {\mathbf{\psi }} \right|{{{\mathbf{A}}}^{{\text{s}}}}_{{k + Q - 1}}} \right). \\ \end{gathered} $

Последнее выражение показывает, что в качестве начальных условий на $\left( {k + Q} \right)$-ом интервале используются те апостериорные плотности вероятностей процесса ${\mathbf{\psi }}\left( t \right),$ которые соответствуют выжившим к моменту времени $\left( {k + Q} \right)T$ путям.

В работе рассмотрены вопросы приема произвольных сигналов с МИС, причем состав и характеристики сопутствующих параметров ${\mathbf{\psi }}\left( t \right)$ не конкретизированы. В силу этих причин приведенные алгоритмы приема имеют весьма общий вид. Для конкретных видов сигналов с МИС и характеристик сопутствующих параметров эти алгоритмы удается существенно упростить.

Список литературы

  1. Xiong Fuqin. Digital Modulation Techniques. Boston: Artech House, 2006.

  2. Тихонов В.И., Харисов В.Н. Статистический анализ и синтез радиотехнических систем и устройств. М.: Горячая линия – Телеком, 2014.

Дополнительные материалы отсутствуют.