3.7. Детектирование амплитудно-модулированных сигналов

 

Детекторы АМ-сигналов предназначаются для преобра­зования модулированного электрического колебания высокой частоты в напряжение (ток), изменяющееся по закону моду­ляции. Детекторы на нелинейных элементах строятся по струк­турной схеме, показанной на рис. 3.14.

Детектируемое напряжение описывается уравнением:

Простейшим и широко используемым является нелиней­ный диодный детектор, имеющий последовательную или па­раллельную схему включения диода (рис. 3.16).

Рассмотрим качественно явление, происходящее при де­тектировании. Предположим, что нелинейный элемент обла­дает вольтамперной характеристикой:

При воздействии на детектор амплитудно-модулированного напряжения в его выходной цепи протекает ток в виде высокочастотных импульсов с огибающей модулированного ко­лебания (рис. 3.17).

В спектре тока имеются колебания несущей частоты и ее гармоники, постоянная составляющая и составляющая с час­тотой модуляции. Среднее значение тока нелинейного элемента за период высокочастотного напряжения прямо пропорцио­нально площади импульса тока, протекающего через нели­нейный элемент в данный период. Площадь синусоидального импульса прямо пропорциональна его максимальному значе­нию, а огибающая импульсов по своей форме соответствует огибающей входного модулированного колебания. Поэтому и усредненное по периоду высокой частоты значение тока не­линейного элемента изменяется по закону модуляции. Таким образом, для выделения сигнала, изменяющегося по закону модуляции, достаточно произвести усреднение выходного тока (или напряжения) детектора.

Усреднение (или фильтрация) выходного напряжения де­тектора осуществляется с помощью нагрузки в виде фильт­ра, составленного из резистора R и емкости С. Постоянная времени этой цепи обычно выбирается из условия

При выполнении условия (3.61) детектор безынерционен по отношению к модулирующему напряжению и поэтому на­зывается безынерционным. При нарушении неравенства RС << ТΩ детектор становится инерционным, в результате мо­дулирующий сигнал воспроизводится в искаженном виде. Обычно условие безынерционности детектора предполагает­ся выполненным.

Для детектирования импульсных радиосигналов приме­няются схемы обычных амплитудных детекторов, которые от­личаются параметрами элементов.

Детектор импульсных радиосигналов осуществляет либо выделение огибающей каждого входного радиоимпульса, либо выделение последовательности входных радиоимпульсов. В первом случае на выходе детектора формируются импульсы

различной амплитуды (видеоимпульсы). Такой детектор на­зывают импульсным (рис. 3.18а). Во втором случае последо­вательность импульсов высокой частоты преобразуется в на­пряжение, форма которого повторяет форму огибающей пос­ледовательности. Поскольку выходное напряжение в этом слу­чае пропорционально максимальному (пиковому) значению ам­плитуды импульсов последовательности, детектор называют пиковым (рис. 3.186). Так как частота изменения огибающей последовательности импульсов существенно меньше частоты следования импульсов, то фактически импульсный и пико­вый детекторы различаются только величиной посто­янной времени цепи нагрузки.

 

3.8. Частотные и фазовые детекторы

 

Частотным детектором называют устройство, в ко­тором осуществляется преобразование входного частотно-мо­дулированного радиосигнала в выходное напряжение (или ток), меняющееся по закону модуляции (рис. 3.19).

В настоящее время для частотного детектирования ис­пользуют два наиболее распространенных метода.

Первый заключается в частотном детектировании напря­жения, амплитуда которого изменяется по закону изменения частоты входного сигнала. Второй метод заключается в пре­образовании синусоидального ЧМ-сигнала в импульсный с вре­менной модуляцией (ВИМ). Преобразование импульсного сиг­нала ВИМ в низкочастотный осуществляется с помощью пре­образователя "код — напряжение". Частотные детекторы пер­вого типа можно условно назвать частотно-амплитудными, а второго — частотно-импульсными.

Рассмотрим детектор частотно-амплитудного типа.

Структурная схема состоит из двух элементов: преобразо­вателя сигнала ЧМ в сигнал с амплитудой, изменяющейся со­ответственно изменению частоты, и амплитудного детектора.

Первый элемент является линейным устройством, поэто­му используемый здесь и далее термин "преобразователь ЧМ в AM" не означает замену частотной модуляции амплитуд­ной. Это лишь означает, что в результате зависимости коэф­фициента передачи от частоты напряжение на выходе пре­образователя изменяется по амплитуде. Причем изменение амплитуды достаточно точно повторяет закон изменения час­тоты входного сигнала. Обычно сохраняется и изменение час­тоты. Но на дальнейшее преобразование высокочастотного сиг­нала в низкочастотный с помощью амплитудного детектора это изменение частоты не влияет.

При анализе частотного детектора предполагается, что радиосигнал ЧМ на входе частотного детектора имеет посто­янную амплитуду. Однако в реальных условиях амплитуда входного ЧМ-радиосигнала оказывается переменной вслед­ствие возникновения сопутствующей амплитудной модуляции в передатчике и приемнике и воздействия помех в линии связи. В частотном детекторе частотно-амплитудного типа вы­ходное напряжение преобразователя ЧМ в AM и, тем более, амплитудного детектора будет зависеть не только от часто­ты, но и от амплитуды входного сигнала. В результате на вы­ходе частотного детектора сигнал будет искажен за счет па­разитной AM. Устранение паразитной AM осуществляется с помощью амплитудного ограничителя, включенного на входе частотного детектора, или благодаря физическим процессам, происходящим в самом детекторе.

Простейшим вариантом частотного детектора является однотактная схема с одиночным расстроенным контуром. Схема внешне совпадает со схемой амплитудного детектора (рис. 3.16). Отличие в том, что контур LkCk расстроен относительно сред­ней частоты ω0 радиосигнала на ω0. Этот контур и исполь­зуется в качестве преобразователя радиосигнала с ЧМ в на­пряжение с изменяющейся амплитудой (рис. 3.21).

Амплитуда напряжения на контуре меняется по закону изменения частоты модулированного сигнала. Напряжение с контура подается на диодный амплитудный детектор. Вслед­ствие того, что скаты резонансной характеристики не явля­ются прямолинейными, в процессе преобразования сигнала ЧМ в сигнал с изменяющейся амплитудой возникают различ­ные несимметричные нелинейные искажения. На практике обычно применяются более сложные схемы частотных детек­торов (дифференциальный частотный детектор, дробный де­тектор и т. д.).

Фазовым детектором называют устройство, в котором входной фазомодулированный сигнал преобразуется в напря­жение (или ток), изменяющееся по закону модуляции фазы. Для определения изменения фазы входного сигнала на фазо­вый детектор подается второй опорный сигнал с постоянной фазой.

Принцип действия фазового детектора заключается в ам­плитудном детектировании результирующего колебания, ам­плитуда которого зависит от разности фаз слагаемых колеба­ний:

Эта зависимость представляет собой характеристику про­стейшего фазового детектора, содержащего один нелинейный элемент (рис. 2.226). В таком однотактном детекторе характе­ристика имеет малый линейный участок, кроме того, напря­жение не меняет знака при изменении фазы. На практике широкое применение получил двухтактный балансный фазо­вый детектор.

 

Контрольные вопросы и задания

 

1. Поясните основные методы модуляции различных носителей

информации.

2. Как определяется коэффициент модуляции?

3. Нарисуйте спектр амплитудно-модулированного колебания при гармонической и сложной модулирующих функциях.

4. Для чего применяется однополосная модуляция?

5.  Покажите общность двух разновидностей угловой модуля­ции — частотной и фазовой.

6.  Что называется девиацией частоты и индексом угловой мо­дуляции?

7.  Как определяется спектр сигнала при угловой модуляции и каким образом он зависит от индекса угловой модуляции?

8. Поясните особенности спектров частотно-модулированного и фазомодулированного колебаний.

9. В чем особенность модуляции импульсных носителей?

10. Нарисуйте и поясните спектр АИМ-сигнала.

11. Для чего вводится понятие узкополосного сигнала?

12. Что такое аналитический сигнал?

13. Для чего применяется аппроксимация характеристик нели­нейного элемента? В чем смысл аппроксимации степенным рядом и кусочно-линейной аппроксимации?

14. Как проявляется нелинейность вольтамперной характерис­тики при гармоническом воздействии?

15. Нарисуйте и поясните спектр тока при гармоническом воз­действии на резистивный элемент и при частотной модуляции.

16.  К каким результатам приводит воздействие суммы гармо­нических сигналов на безынерционный нелинейный элемент?

17.  Нарисуйте структурную схему устройства для преобразо­вания спектра сигналов.

18.  Нарисуйте простейший амплитудный детектор и поясните

принцип его работы.

19. Чем различаются импульсный и пиковый детекторы?

20. Поясните принцип работы частотного детектора.

21. Какие сигналы подаются на фазовый детектор?

 

ГЛАВА 4

ДИСКРЕТИЗАЦИЯ И КВАНТОВАНИЕ НЕПРЕРЫВНЫХ СООБЩЕНИЙ

 

4.1. Основные понятия и определения

 

Переход от аналогового представления сигнала к цифро­вому, который дает в ряде случаев значительные преимуще­ства при передаче, хранении и обработке информации, свя­зан с дискретизацией сигнала x(t) по времени и с квантова­нием по уровню.

Рассмотрим разновидности сигналов, которые описыва­ются функцией x(t).

Непрерывная функция непрерывного аргумента (не­прерывный сигнал, рис. 4.1а). В этом случае значения, кото­рые может принимать функция x(t) и аргумент t, заполняют конечные (или бесконечные) промежутки [0,Х] и [0,Т] соот­ветственно.

Непрерывная функция дискретного аргумента (дис­кретный во времени сигнал, рис. 4.16). Здесь значения функ­ции x(t) определяются лишь на дискретном множестве зна­чений аргумента t.,i= 0,1,2,...,(0<t< T).

Дискретная функция непрерывного аргумента (кван­тованный по уровню сигнал, рис. 4.1в). В этом случае значе­ния, которые может принимать функция x(t), образуют диск­ретный ряд чисел xl,x2xk..., т. е. такой конечный или бесконечный ряд, в котором каждому числу можно поставить в соответствие интервал k, bk ), внутри которого других чи­сел данного ряда нет. Значение аргумента t может быть лю­бым на отрезке [0,Т].

Дискретная функция дискретного аргумента (циф­ровой сигнал, рис. 4.1г). Значения, которые могут принимать функция x(t) и аргумент t, образуют дискретные ряды чисел x1,x2,...,хk...и to,t1,t2,...,ti,..., заполняющие отрезки [0,Х] и [0,Т] соответственно.

Дискретизация состоит в преобразовании сигнала x(t) непрерывного аргумента t в сигнал x(t.) дискретного аргумен­та ti.

Квантование по уровню состоит в преобразовании непре­рывного множества значений сигнала x (ti) в дискретное мно­жество значений xk,k = 0,l,2,...,m-1.

Совместное применение операций дискретизации и кван­тования позволяет преобразовывать непрерывный сигнал x(t) в дискретный по координатам х ut.

Применительно к детерминированной функции рассмот­рим сущность понятия дискретизации сигнала x(t).

Дискретизация реализации сигнала x(t) связана с заме­ной промежутка изменения независимой переменной некоторым множеством точек, т. е. операции дискретизации соот­ветствует отображение:

 (4.1)

где x(t) — функция, описывающая сигнал;

x(t) — функция, описывающая сигнал в результате дис­кретизации.

Следовательно, в результате дискретизации исходная функция x(t) заменяется совокупностью отдельных значений x(f)

По значениям функции x(f) можно восстановить исход­ную функцию x(t) с некоторой погрешностью. Функцию, по­лученную по результатам восстановления (интерполяции) по значениям x(t), будем называть воспроизводящей и обозна­чим через V(t)

Воспроизводящая функция V(t) строится как взвешенная сумма некоторого ряда функций f(t-tk):

причем коэффициенты аk зависят от отсчетов x(t ),х(t-1)...

При обработке сигналов дискретизация по времени дол­жна производиться таким образом, чтобы по отсчетным зна­чениям х (t) можно было получить воспроизводящую функ­цию V(t, которая с заданной точностью отображает исход­ную функцию x(t).

При дискретизации сигналов приходится решать вопрос о том, как часто следует производить отсчеты функции, т. е. каков должен быть шаг дискретизации ti =ti-ti-1.

При малых шагах дискретизации ti количество отсче­тов функции на отрезке обработки будет большим и точность воспроизведения — высокой. При больших ti количество от­счетов уменьшится, но при этом, как правило, снижается точ­ность восстановления.

Оптимальной является такая дискретизация, которая обес­печивает представление исходного сигнала с заданной точностью при минимальном количестве выборок. В этом случае все отсчеты существенны для восстановления исходного сиг­нала. При неоптимальной дискретизации кроме существен­ных отсчетов имеются и избыточные отсчеты.

Избыточные отсчеты не нужны для восстановления сиг­нала с заданной точностью. Они загружают тракт передачи информации, отрицательно сказываются на производитель­ности обработки данных ЭВМ, вызывают дополнительные рас­ходы на хранение и регистрацию данных. В связи с этим ак­туальна задача сокращения избыточных данных. Сокраще­ние избыточной для получателя информации может произво­диться в процессе дискретизации сигналов. В более общем плане задача сокращения избыточных отсчетов может рас­сматриваться как задача описания непрерывных сигналов с заданной точностью минимальным числом дискретных харак­теристик.

 

4.2. Методы дискретизации сигналов

 

Методы дискретизации и восстановления сигналов мож­но разделить на несколько групп в зависимости от принятых признаков классификации. Выберем для классификации сле­дующие признаки:

регулярность отсчетов;

критерий оценки точности дискретизации и восстановле­ния;

базисные функции;

принцип приближения.

 

1. Регулярность отсчетов

 

В процессе дискретизации отрезок обработки сигнала x(t) разбивается на ряд не перекрывающихся интервалов t1, t2, ∆t3,...

В соответствии с признаком регулярности отсчетов мож­но выделить две основные группы методов: равномерную инеравномерную дискретизацию (соответственно и восстанов­ление).

Дискретизацию будем называть равномерной, если дли­тельность интервалов

на всем отрезке обработки [0,Т] сигнала.

Шаг дискретизации t, или частота отсчетов Fo= 1/ ∆t, вы­бираются на основе априорных сведений о характеристиках сигнала x(t). При использовании методов равномерной диск­ретизации приходится решать в числе основных вопрос о вы­боре частоты отсчетов (шага дискретизации) и способа вос­становления сигналов.

Методы равномерной дискретизации нашли широкое при­менение. Это объясняется тем, что алгоритм дискретизации и восстановления сигналов и соответствующая аппаратура дос­таточно просты. Однако из-за несоответствия априорных ха­рактеристик сигнала характеристикам обрабатываемой реа­лизации возможна значительная избыточность отсчетов.

Дискретизацию будем называть неравномерной, если дли­тельность интервалов между отсчетами различна.

Выделяют две группы неравномерных методов: адаптив­ные и программируемые.

При адаптивных методах интервал изменяется в зависи­мости от текущего изменения параметров реализации сигна­лов.

Такие способы передачи информации очень перспектив­ны, так как позволяют существенно уменьшить избыточность сигнала и тем самым увеличить фактическую пропускную способность. В настоящее время разработаны системы с адап­тивной импульсно-кодовой модуляцией.

При программируемых методах изменение интервалов (ча­стоты опроса) производится либо оператором на основе ана­лиза поступающей информации, либо в соответствии с зара­нее установленной программой работы.

 

2. Критерий оценки точности

 

Разность между истинными значениями сигнала x(t) и при­ближающей P(t, или воспроизводящей V(t)-функцией, пред­ставляет собой текущую погрешность дискретизации или со­ответственно восстановления:

Выбор критерия оценки погрешности дискретизации (и восстановления) сигнала осуществляется получателем инфор­мации и зависит от целевого использования дискретизированного сигнала и возможностей аппаратной (программой) ре­ализации. Оценка погрешности может проводиться как для отдельных, так и для множества реализаций сигнала.

Чаще других отклонение воспроизводимой функции V(t) от сигнала x(t) на интервале дискретизации ti=titi-1 оценивается следующими критериями.

а) Критерий наибольшего отклонения:

где ε(t) текущая погрешность (4.3).

Черта сверху означает усреднение по вероятностному мно­жеству.

в) Интегральный критерий как мера отклонения x(t) от V(t) имеет вид:

 

3. Базисные функции

 

Задачи дискретизации сигналов, особенно адаптивной, в математическом плане достаточно близки к задачам равно­мерных и среднеквадратических приближений функций. Фор­мулировка задачи дискретизации может быть следующей.

Для данной функции x(t), определенной на отрезке [a,в], найти функцию Р(t,(или V(t)), для которой число точек раз­биения ti отрезка минимально и ε(t )≤ ε0. Здесь ε0 — допус­тимое значение погрешности, ε (t ) — оценка отклонения x(t) от P(t) (или V(t) в  соответствии с принятым критерием.

Функции P(t) называют приближающими.

На практике при решении задач дискретизации сигналов выбор типа базисных (приближающих, воспроизводящих) функций в основном определяется требованиями ограниче­ния сложности устройств (программ) дискретизации и вос­становления сигналов.

Задачи восстановления дискретизированных сигналов в общем случае аналогичны задачам интерполирования функ­ций. При восстановлении исходного сигнала x(t) совокупность выборок x(t) ставится в соответствии с некоторым обобщен­ным многочленом:

значения которого в точках отсчета t- совпадают со значения­ми функции x(t).

Иногда, кроме того, требуют совпадения производных до n-го порядка, n = 1,2,3...

Воспроизводящие функции V(t) обычно совпадают с при­ближающимися P(t,, хотя в общем случае они могут и отли­чаться от них.

Основные типы функций, применяемые в задачах диск­ретизации и восстановления сигналов, следующие: ряд Фу­рье, ряд Котельникова, полиномы Чебышева, полиномы Ле-жандра, степенные полиномы, функции Уолша и др.

 

4. Принцип приближения

 

По принципу приближения можно выделить три группы методов:

•   интерполяционные;

•   экстраполяционные;

•    комбинированные (интерполяционно-экстраполяцион-ные).

Экстраполяционные методы не требуют задержки сиг­нала при проведении дискретизации. Следовательно, они мо­гут использоваться в системах, которые работают в реальном времени.

Для обработки сигналов более эффективны интерполя­ционные методы, обеспечивающие меньшую избыточность отсчетов по сравнению с экстраполяционными методами. Од­нако использование интерполяционных методов связано с за­держкой сигнала на интервал интерполяции.

Интерполяционно-экстраполяционные методы обла­дают положительными качествами первых двух методов. Адап­тивная дискретизация непрерывного сигнала x(t) связана с под­бором приближающих функций Р(t для каждого из интерва­лов дискретизации ti. При интерполяционно-экстраполяционных методах процедура нахождения приближающихся фун­кций разбивается на два этапа. На первом этапе методами интерполяции находится приближающая функция P(t, для начальной части интервала ti дискретизации ti.

На втором этапе найденная функция экстраполируется для значений t>ti-1 + ∆ti и проверяется отклонение сигнала от этой функции.

При выборе шага адаптивной дискретизации рассматри­ваются различные модели сигналов и вводятся соответствую­щие критерии отбора отсчетов.

Можно отметить некоторые из них:

а)  частотный критерий, при котором интервалы между отсчетами выбираются с учетом частотного спектра дискретизируемого сигнала;

б) корреляционный критерий отсчетов, устанавливающий связь интервалов между отсчетами с интервалами корреля­ции сигнала;

в)  квантовый критерий отсчетов, предложенный для де­терминированной модели сигнала и устанавливающий зави­симость интервалов между отсчетами от значения ступени квантования и крутизны (первой производной) сигнала.

 

4.3. Равномерная дискретизация. Теорема Котельникова

 

При равномерной дискретизации шаг t и частота отсче­тов являются постоянными величинами. Точки отсчетов в этом случае равномерно размещены по оси t.

Устройства, с помощью которых проводится дискретиза­ция сигналов, носят название дискретизаторов. На рис. 4.2. изображена функциональная схема дискретизатора.

 

Дискретизатор можно рассматривать как прерыватель ис­ходного сигнала x(t). Генератор импульсов выдает на вход пре­рывателя некоторую последовательность импульсов, в ре­зультате чего входной сигнал x(t) преобразуется в последо­вательность дискретных выборок сигнала x(t). Работа гене­ратора импульсов определяется устройством управления. В случае равномерной дискретизации частота импульсов, по­ступающих от генератора, является неизменной.

В. А. Котельниковым доказана теорема для функций с ограниченным (финитным) спектром (теорема отсчетов), ко­торая формулируется следующим образом: если наивысшая частота в спектре функции x(t) меньше, чемƒm, то функ­ция x(t) полностью определяется последовательностью своих значений в моменты, отстоящие друг от друга не более чем на секунд.

Интерполяционный ряд вида (4.9) носит название ряда Котельникова. (В иностранной литературе этот ряд связыва­ют с именами Найквиста и Шеннона.)

Пусть сигнал, описываемый непрерывной функцией вре­мени x(t), имеет ограниченный спектр, т. е. преобразование Фурье:

Подставим выражение (4.14) в формулу (4.11), изменив при этом знак при п с учетом, что суммирование проводится по всем отрицательным и положительным значениям п. Кро­ме того, учитывая сходимость ряда и интеграла Фурье, изме­ним порядок операций интегрирования и суммирования:

При выводе (4.9) предполагалось, что x(t) удовлетворяет условиям Дирихле. Это не дает возможности использовать полученный результат для функций, не стремящихся к нулю при t →∞, или для функций, не интегрируемых на интерва­ле (а, в).

Теорема Котельникова относится к сигналам с ограни­ченным спектром. Реальные сообщения имеют конечную дли­тельность. Спектр таких сигналов не ограничен, т. е. реаль­ные сигналы не соответствуют модели сигнала с ограничен­ным спектром, и применение теоремы Котельникова к реаль­ным сигналам связано с погрешностями при восстановлении сигналов по формуле (4.9) и неопределенностью выбора шага дискретизации (4.16) или частоты отсчетов F0=2fm.

Приведенные соображения свидетельствуют, что приме­нение теоремы Котельникова к реальным сигналам вызывает определенные трудности в том случае, если теорема рассмат­ривается как точное утверждение. Для практических усло­вий, однако, идеально точное восстановление функций не тре­буется, необходимо лишь восстановление с заданной точнос­тью. Поэтому теорему Котельникова можно рассматривать как приближенную для функций с неограниченным спектром.

Практически всегда можно определить наивысшую час­тоту спектра fm так, чтобы "хвосты" функции времени, обус­ловленные отсеканием частот, превышающих fm, содержали пренебрежимо малую долю энергии по сравнению с энергией исходного сигнала x(t). При таком допущении для сигнала дли­тельностью Т с полосой частот общее число независимых па­раметров [т. е. значений x(nt) ], которое необходимо для пол­ного задания сигнала, очевидно, будет:

Величина N0 представляет собой число степеней свобо­ды сигнала x(t), так как даже при произвольном выборе зна­чений x(rt) сумма вида (4.19) определяет функцию, удов­летворяющую условиям заданного спектра и заданной дли­тельности сигнала.

Параметр B=N0, который широко применяется в систе­мах передачи информации, называют базой сигнала.

Представление сигналов в виде ряда Котельникова поло­жено в основу построения систем передачи информации с временным уплотнением. Смысл временного уплотнения со­стоит в том, что в интервале времени между двумя соседни­ми отсчетами одного сигнала можно передавать отсчеты дру­гих сигналов. Формирование такого группового сигнала пока­зано на рис. 4.5.

В заключение данного параграфа заметим, что хотя тео­рема Котельникова базируется на модели сигнала с ограни­ченным спектром, она имеет большую теоретическую и прак­тическую ценность. Поэтому представление сигналов рядом Котельникова наиболее широко применяется в технике пре­образования, передачи и обработки информации.

 

4.4. Адаптивная дискретизация

 

При адаптивной дискретизации отсчетные точки ti в от­личие от равномерной выборки не образуют периодической последовательности. В процессе обработки сигнала отбираются лишь те точки ti (минимально необходимое число) и соот­ветствующие выборки x(f), на основании которых можно вос­становить исходный сигнал   с заданной точностью ε0.

Таким образом, в процессе адаптивной дискретизации вы­деляется минимальное число выборок x(t), называемых су­щественными, которые с заданной точностью отображают непрерывный сигнал.

В связи с тем, что отсчетные точки при адаптивной диск­ретизации в общем случае произвольно размещены на вре­менной оси, необходимо иметь информацию о значении мо­ментов опроса ti  или о длинах соответствующих отрезков ti.

В настоящее время существует значительное число спо­собов и алгоритмов адаптивной дискретизации. Среди них можно выделить две группы:

•  способы, при которых производится сравнение сигнала x(t) с приближающей функцией P(t, формируемой в процес­се обработки сигнала x(t) с учетом его характеристик;

•  способы, при которых осуществляется сравнение сиг­нала с некоторыми эталонными фиксированными функциями

Значительный интерес представляют способы и алгорит­мы адаптивной дискретизации, относящиеся к первой группе, так как при этом обеспечивается наиболее эффективное уст­ранение избыточности отсчетов и соответственно минимиза­ция описания исходного сигнала. В общем виде процедура адаптивной дискретизации в этом случае сводится к поиску на каждом из отрезков (ti, ti+1) некоторой функции принято­го типа, наилучшим образом представляющей исходную фун­кцию x(t) в соответствии с заданным критерием уклонения.

Адаптивная дискретизация может быть организована та­ким образом, что на отрезках (ti ti+1) постоянной длины мо­гут меняться тип и порядок (степень) приближающих функ­ций или при неизменном типе и порядке приближающей фун­кции изменяется длина отрезка. Возможна адаптация и по двум этим показателям.

В практических применениях наибольшее распростране­ние нашли алгоритмы адаптивной дискретизации с адапта­цией по длинам отрезков (t, ti+1) , использующие алгебраи­ческие полиномы нулевой и первой степени. Рассмотрим про­стейшие алгоритмы адаптивной дискретизации при оценке точности приближения (воспроизведения) по критерию наи­большего отклонения.

Экстраполяционные способы адаптивной дискретизации полиномом нулевой степени относительно t содержат опера­цию сравнения текущего значения сигнала x(t) со значением предшествующей выборки x(ti) сигнала.

Пусть приближающая функция P(t, на отрезке (ti, ti+1) выбирается следующим образом:

 

В устройствах адаптивной дискретизации с полиномами нулевой степени этот способ применяется наиболее часто.

При использовании адаптивной дискретизации с полино­мами первой степени приближающая функция P(t, на отрез­ке (ti, ti+1) может иметь вид:

В устройстве дискретизации на каждом из отрезков (ti, ti+1) генерируется приближающая функция вида (4.22) и вычисляется x(t). Моменты отсчета определяются выпол­нением условия:

В данном случае определение приближающих функций на отрезках (ti, ti+1) связано с дифференцированием сигнала.

Следует заметить, что аппаратная реализация алгорит­мов адаптивной дискретизации с полиномами первой степени достаточно сложна.

При адаптивной дискретизации с эталонными приближа­ющими функциями исходный сигнал x(t) сравнивается с на­бором эталонных сигналов {fk(t)}, поступающих от специ­ального генератора. По результатам сравнения определяются моменты отсчетов сигнала.

 

4.5. Квантование по уровню

 

Квантование сигнала x(t) по уровню состоит в преобра­зовании непрерывных значений сигнала x(t) в моменты от­счета ti в дискретные. В результате квантования по уровню непрерывное множество значений сигнала x(t) разбивается на т одинаковых частей — интервалов квантования. Под ша­гом (интервалом) квантования δk понимается разность:

где хk-1, хk — соседние уровни квантования.

Шкала х значений сигнала x(t) может быть разбита на отдельные участки различным образом: с привязкой уровней квантования xk точке x(t) = 0, к границам xmin, xmax диапазо­на изменения сигнала и т. д.

Обычно применяются следующие способы отнесения зна­чений сигнала x(f)K соответствующему уровню квантова­ния:

а)  сигнал   x(t) отождествляется с ближайшим уровнем квантования;

б)  сигнал  x(t) отождествляется с ближайшим меньшим (или большим) уровнем квантования.

Для сигнала x1(t) показанного на рис. 4.7а, по первому способу отождествления x1(f) →хk, а по второму х1(1) →хk-1. Для второго сигнала в обоих случаях х2(t) →xk-1 (рис. 4.76).

Так как в процессе квантования по уровню значение сиг­нала jc отображается уровнем квантования хk, а каждому уров­ню хk может быть поставлен в соответствие свой номер (чис­ло), то при передаче или хранении можно вместо истинного значения уровня квантования хk использовать соответствую­щее число k. Истинное значение уровня квантования легко восстановить, зная масштаб по шкале x.

Устройство для квантования сигналов по уровню, назы­ваемое квантизатором (рис. 4.8а), представляет собой нели­нейный элемент с амплитудной характеристикой типа приве­денной на рис. 4.86 при отождествлении сигнала с ближай­шим меньшим уровнем квантования или типа приведенной на рис. 4.8 в в случае отождествления сигнала с ближайшим уров­нем.

Квантование по уровню сопровождается шумами кван­тования, или погрешностью квантования. Погрешность квантования Δxk = x(t)-xk связана с заменой истинного зна­чения сигнала x(t) уровнем квантования хk. Максимальная погрешность квантования зависит от способа отождествления сигнала с уровнем квантования. Для первого из рассмотрен­ных способов она равна (рис. 4.86):

При отождествлении сигнала с ближайшим уровнем кван­тования максимальная погрешность (рис. 4.8в) не превышает 0.5δk, т. е. способ квантования по уровню, отождествляющий сигнал с ближайшим квантованным уровнем, приводит к сни­жению максимальной погрешности квантования.

В заключение можно сказать, что преобразование непре­рывного сообщения в цифровое состоит из трех операций: сначала непрерывное сообщение подвергается дискретизации по времени через интерва Δt; полученные отсчеты мгновен­ных значений x(n Δ t) квантуются с шагом δ ; наконец, после­довательность квантованных значений передаваемого сообще­ния представляется посредством кодирования в виде после­довательности типичных кодовых комбинаций.

Такое преобразование называется импулъсно-кодовой модуляцией (ИКМ).

 

Контрольные вопросы и задания

 

1. Какими функциями описываются разновидности сигналов?

2. Дайте определение понятиям дискретизации и квантования.

3. Что называется воспроизводящей функцией?

4. По каким признакам классифицируются методы дискретиза­ции сигналов?

5. Как формулируются критерии оценки точности восстановле­ния сигналов?

6.  Как подразделяются принципы приближения при проведе­нии дискретизации сигналов?

7. Поясните функциональную схему дискретизации сигналов.

8. Сформулируйте теорему Котельникова.

9. Перечислите основные свойства функции отсчетов.

10. Для каких сигналов применима теорема Котельникова?

11. Дайте определение понятиям числа степеней свободы и базы сигнала.

12. Поясните процесс формирования группового сигнала в сис­темах с временным уплотнением.

13. Поясните основные способы адаптивной дискретизации сиг­налов.

14. Как определяется шаг квантования по уровню?

15. Какими характеристиками должен обладать квантизатор?

16. Что такое "шум" квантования?

 

ГЛАВА 5 ХАРАКТЕРИСТИКИ И МОДЕЛИ КАНАЛОВ ПЕРЕДАЧИ ИНФОРМАЦИИ

 

5.1. Общие сведения о каналах передачи

Информации

 

Во введении канал связи (передачи информации) опреде­лен как совокупность средств, предназначенных для переда­чи сигналов (сообщений) между различными точками систе­мы передачи информации (информационной системы).

Под "средством" понимают и технические устройства, и линию связи — физическую среду, в которой распространя­ется сигнал между пунктами связи. Канал связи можно пред­ставить как последовательное соединение устройств (блоков), выполняющих различные функции в общей системе переда­чи информации.

Классификация каналов передачи информации возмож­на с использованием различных признаков. В зависимости от назначения информационной системы каналы делят на теле­графные, фототелеграфные, телефонные, звукового вещания, передачи данных, телевизионные, телеметрические, смешан­ные и т. д. В зависимости от характера физической среды, в которой распространяются сигналы, выделяют: радиоканалы (в частности, космические каналы) и каналы проводной связи (воздушные, кабельные, волоконно-оптические линии связи, волноводные СВЧ-тракты и т. д.). В технике передачи информации находят применение также механические и акустичес­кие каналы. В зависимости от характера связи между сигна­лами на входе и выходе канала различают каналы линейные и нелинейные.

Различают каналы чисто временные (с сосредоточенны­ми параметрами), в которых сигналы на входе и выходе опи­сываются функциями одного скалярного параметра (времени t), и пространственно-временные каналы (с распределен­ными параметрами), в которых сигналы на входе и (или) вы­ходе описываются функциями более одного скалярного пара­метра (например, времени t и пространственных координат х, у,z). Такие сигналы называют полями.

При использовании электрических сигналов для переда­чи информации более существенна классификация каналов по диапазону рабочих частот, так как именно этот фактор определяет пропускную способность канала. На современных симметричных кабельных линиях связи применяют сигналы, занимающие полосы частот в диапазоне, ограниченном сверху частотой в несколько сотен килогерц.

Коаксиальные кабели, являющиеся основой сетей магис­тральной связи, пропускают в настоящее время диапазон ча­стот до сотни мегагерц. На воздушных проводных линиях ис­пользуют частоты не выше 150 кГц, так как на более высоких частотах в этих линиях сильно сказывается мешающее дей­ствие аддитивных помех и резко возрастает затухание в ли­нии.

При передаче сигналов по радиоканалам применяют час­тоты от 3·103 до 3·1012 Гц. Этот диапазон принято в соответ­ствии с десятичной классификацией подразделять следую­щим образом (см. табл. 5.1).

В таблице в скобках указаны нестандартные, но исполь­зуемые названия диапазонов волн. Диапазон децимиллиметровых волн уже вплотную подходит к диапазону инфракрас­ных волн. В настоящее время благодаря созданию и широко­му внедрению оптических квантовых генераторов (лазеров)

освоен оптический диапазон. В волоконно-оптических линиях связи (ВОЛС) используются частоты порядка 1014Гц (длины волн 1.55÷0.85 мкм).

Для современного этапа развития техники передачи ин-L формации характерна тенденция к переходу на все более I высокие частоты. Это вызвано рядом причин, в частности, необходимостью повышать скорость передачи сообщений (уве­личивать быстродействие систем), возможностью получить остронаправленное излучение при небольших размерах из­лучателей, меньшей интенсивностью атмосферных и многих видов промышленных помех в более высокочастотных диапа­зонах, возможностью применения помехоустойчивых широ­кополосных систем модуляции и т. п.

Для теории передачи информации большой интерес пред­ставляет классификация каналов связи по характеру сигна­лов на входе и выходе канала. Различают каналы:

а)  непрерывные (по уровням), на входе и выходе кото­рых сигнал непрерывен.

Примером может служить канал, заданный между вы­ходом модулятора и входом демодулятора в любой системе передачи информации;

б) дискретные (по уровням), на входе и выходе которых сигналы дискретны. Примером такого канала является канал, заданный от входа кодирующего устройства до выхода деко­дера;

в) дискретные со стороны входа и непрерывные со сторо­ны выхода или наоборот. Такие каналы называются дискрет­но-непрерывными, или полунепрерывными (например, ка­налы, заданные между входом модулятора и входом демоду­лятора или между выходом модулятора и выходом декодера).

Структурная схема канала передачи информации приве­дена на рис. 5.1.

 

Всякий дискретный или полунепрерывный канал содер­жит внутри себя непрерывный канал. Следует помнить, что дискретность и непрерывность канала не связана с характе­ром сообщений: можно передавать дискретные сообщения по непрерывному каналу и непрерывные сообщения — по диск­ретному.

 

5.2. Анализ непрерывных каналов

 

Методы и модели анализа непрерывных каналов разра­батываются на основе изучения физических и статистичес­ких характеристик реальных каналов. Так как непрерывные каналы являются основной составной частью всех других ка­налов, результаты анализа непрерывных каналов широко ис­пользуются для решения задач анализа и синтеза систем пе­редачи информации. Основными задачами анализа непрерыв­ных каналов являются анализ линейных и нелинейных иска­жений сигналов в каналах и анализ влияния помех в каналах.

Для анализа искажений сигналов в каналах необходимо располагать сведениями о характеристиках входных сигна­лов, структуре и параметрах операторов преобразования сиг­налов в канале и изучать характеристики выходных сигна­лов. Характеристики входных сигналов определяют как ха­рактеристики модулированных сигналов (см. гл. 3).

Структуру и параметры операторов преобразования сиг­налов в канале определяют на основе построения математи­ческих моделей каналов.

При строгом рассмотрении реальные непрерывные ка­налы являются нелинейными инерционными система­ми со случайными параметрами (стохастические сис­темы). В них реакция на выходе не может предшествовать воздействию на входе, поэтому такие системы часто называ­ют динамическими. Анализ таких систем представляет слож­ную задачу. Ее решение еще более усложняется, когда в роли входных воздействий выступают случайные модулированные сигналы.

Передача сигналов по реальным каналам всегда сопро­вождается изменениями (преобразованиями) этих сигналов. С точки зрения передачи информации по каналу важно под­разделение преобразований сигнала на обратимые и необра­тимые. Обратимые преобразования не влекут за собой потери информации. При необратимых преобразованиях потери информации неизбежны. Поэтому для обратимых преобразова­ний сигнала также часто используется термин "искажение", а необратимые преобразования называют "помехами".

Линейные искажения сигналов появляются в линейном инерционном четырехполюснике с постоянными параметра­ми из-за наличия в нем реактивных элементов. При линей­ных искажениях нарушаются существующие частотные и фа­зовые соотношения между отдельными составляющими сиг­нала и форма сигналов. Для отсутствия искажений необходи­мо, чтобы модуль коэффициента передачи и времени запаз­дывания для всех составляющих были одинаковы (гл. 2). Нелинейными называют искажения сигналов, которые возни­кают в нелинейных безынерционных четырехполюсниках с постоянными параметрами из-за нелинейности характерис­тик активных элементов: транзисторов, диодов и др. В ре­зультате нелинейных искажений спектр сигналов расширя­ется, в них появляются дополнительные компоненты, растут уровни взаимных помех в каналах.

Для рассмотрения помех в непрерывных каналах выход­ной сигнал представляют в виде:

где S(t) — входной сигнал; μ(t) и τ (t) — соответственно муль­типликативная и аддитивная помехи; τ (t) — задержка сигна­ла в канале.

Мультипликативные помехи обусловлены случайны­ми изменениями коэффициента передачи канала из-за изме­нения характеристик среды, в которой распространяются сиг­налы, и коэффициентом усиления схем при изменении пита­ющих напряжений, из-за замираний сигналов в результате интерференции и различного затухания сигналов при много­лучевом распространении радиоволн. К мультипликативным помехам следует отнести и "квантовый шум" лазеров, приме­няемых в оптических системах передачи и обработки инфор­мации. "Квантовый шум" лазера вызван дискретной приро­дой светового излучения и зависит от интенсивности излучения, т. е. от самого полезного сигнала. Мультипликативные помехи бывают "медленные", когда:

где Δτk — интервал корреляции случайного процесса μ(t), Δ τ с — интервал корреляции или длительность сигнала, если он рассматривается как детерминированный.

Аддитивные помехи обусловлены флуктуационными яв­лениями (случайными колебаниями тока и напряжения), свя­занными с тепловыми процессами в проводах, резисторах, транзисторах и других элементах схем, наводками под дей­ствием атмосферных явлений (грозовые разряды и т. д.) и индустриальных процессов (работа промышленных установок, других линий связи и т. д.).

Аддитивные помехи делят на сосредоточенные и флуктуационные. Сосредоточенные аддитивные помехи отличают­ся сосредоточенностью энергии помех в полосе частот (узко­полосные помехи) или на отрезке времени (импульсные по­мехи).

Узкополосные помехи в основном обусловлены действи­ем посторонних источников — ширина спектра этих помех сравнима или значительно меньше ширины спектра полез­ных сигналов. Узкополосные помехи как помехи от соседних станций характерны для передачи информации по радиока­налам. Борьба с узкополосными аддитивными помехами ве­дется методами улучшения технических характеристик уст­ройств приема и обработки сигналов.

Импульсные помехи — это случайные последовательнос­ти импульсов, создаваемые промышленными установками и атмосферными источниками сигналов. Эти помехи харак­теризуются широким энергетическим спектром. Ширина их спектра, как известно, обратно пропорциональна длительнос­ти импульсов. Энергия спектральных составляющих импуль­сных помех падает в области сверхнизких и сверхвысоких частот.

Флуктуационная аддитивная помеха характеризуется "размытостью" энергии спектра в широком диапазоне частот. Она обусловлена главным образом внутренними шумами эле­ментов аппаратуры (тепловой шум, дробовой эффект и т. д.). Средняя мощность теплового шума в полосе частот ΔF по­лезного сигнала определяется по формуле:

где k = 1,38 · 10 -23 Дж/град — постоянная Больцмана, Т° — абсолютная температура. Флуктуационную помеху из-за "внутренней" природы невозможно устранить, можно лишь учесть ее характеристики при синтезе такой оптимальной системы, в которой наличие флуктуационной помехи меньше всего сказывается на качестве передачи информации.

Математическими моделями сосредоточенных аддитивных помех являются узкополосные случайные сигналы и случай­ные последовательности импульсов. Математической моделью флуктуационной аддитивной помехи служит гауссовский "бе­лый шум" (гл. 2).

В настоящее время разработано большое количество мо­делей непрерывных каналов, различных по сложности мате­матического описания, требуемым исходным данным и погреш­ностям описания реальных каналов. Наиболее распростране­ны следующие модели: идеальный канал, гауссовский канал, гауссовский канал с неопределенной фазой, гауссовский однолучевой канал с замираниями и сосредоточенными помеха­ми. Для анализа реальных каналов в конкретных условиях

обычно выбирают такую модель, которая приводит к не слиш­ком трудоемким решениям задач и в то же время обладает погрешностями, допустимыми в инженерных расчетах.

Идеальный канал можно применять как модель реаль­ного непрерывного канала, если соблюдаются следующие ус­ловия: помехи любого вида отсутствуют, преобразование сиг­налов в канале является детерминированным, мощность и по­лоса сигналов ограниченны.

Для анализа выходных сигналов с помощью этой модели необходимо знать характеристики входных сигналов и опера­торов преобразования. Модель идеального канала слабо отра­жает реальные условия, ее применяют чаще всего для анали­за линейных и нелинейных искажений модулированных сиг­налов в многоканальных системах проводной связи.

Гауссовский канал. Основные допущения при построе­нии такой модели следующие: коэффициент передачи и вре­мя задержки сигналов в канале не зависят от времени и яв­ляются детерминированными величинами, известными в мес­те приема сигналов; в канале действует аддитивная флуктуа-ционная помеха — гауссовский "белый шум" (гауссовский про­цесс). Гауссовский канал применяют как модель реальных каналов проводной связи и однолучевых каналов без замира­ний или с медленными замираниями. При этом замирания представляют собой неконтролируемые случайные изменения амплитуды сигнала. Такая модель позволяет анализировать амплитудные и фазовые искажения сигналов и влияние флук­туационной помехи.

Гауссовский канал с неопределенной фазой сигнала. В этой модели время задержки сигнала в канале рассматри­вают как случайную величину, поэтому фаза выходного сиг­нала также случайна. Для анализа выходных сигналов кана­ла необходимо знать закон распределения времени задержки или фазы сигнала.

Гауссовский однолучевой канал с замираниями. В этой модели коэффициент передачи канала и фазовую характери­стику канала рассматривают как случайные величины или процессы. В этом случае спектр выходного сигнала канала шире спектра входного даже при отсутствии помехи из-за паразитных амплитудной и фазовой модуляций. Такие моде­ли достаточно хорошо описывают свойства радиоканалов раз­личных диапазонов и проводных каналов со случайными, в том числе и переменными параметрами.

Гауссовский многолучевой канал с замираниями. Эта модель описывает радиоканалы, распространение сигналов от передатчика к приемнику в которых происходит по различ­ным "каналам" — путям. Длительность прохождения сигна­лов и коэффициенты передачи различных "каналов" являют­ся неодинаковыми и случайными. Принимаемый сигнал обра­зуется в результате интерференции сигналов, пришедших по разным путям. В общем случае частотная и фазовая характе­ристики канала зависят от времени и частоты. Для описания многолучевых каналов с замираниями необходимо задавать в п раз больше (n — число путей распространения радиоволн) статистических характеристик по сравнению с однолучевым. В то же время характеристика многолучевого канала с зами­раниями является одной из наиболее общих и пригодна для описания свойств большинства радиоканалов и проводных каналов.

Гауссовский многолучевой канал с замираниями и ад­дитивными сосредоточенными помехами. В этой модели наряду с флуктуационной помехой учитывают и различного вида сосредоточенные помехи. Она является наиболее общей и достаточно полно отражает свойства многих реальных ка­налов. Однако ее использование порождает сложность и тру­доемкость задач анализа, а также необходимость сбора и об­работки большого объема исходных статистических данных.

В настоящее время для решения задач анализа непре­рывных и дискретных каналов используются, как правило, модель гауссовского канала и модель гауссовского однолучевого канала с замираниями.

 

5.3. Анализ дискретных каналов

 

Для анализа дискретных каналов разрабатывают специ­альные математические модели и методы. Рассмотрим основ­ные из них и на примере двоичного канала покажем, как оп­ределяют характеристики дискретных каналов: условные ве­роятности появления ошибок, полные вероятности появления ошибки и правильного приема, вероятности появления раз­личных символов на выходе дискретного канала и др.

Дискретный канал образуют устройства тракта "вход ко­дера — выход декодера" (рис. 5.1). На вход канала поступают символы ак1, а с выхода — ак2. Математическая модель диск­ретного канала определена, если известны следующие харак­теристики: алфавит и априорные вероятности Р(ак1) появле­ния символов ак1 сообщений (к = 1,...,т2, т2 — объем алфа­вита); скорость передачи символов W1, алфавит символов аi2 копии сообщений (i = 1,...,т2, т2 — объем алфавита); апри­орная условная вероятность Р(аi2k1) появления символа а.2 при условии, что был передан аk1.

Первые две характеристики определяются свойствами ис­точника сообщений и полосой пропускания непрерывного ка­нала. Объем выходного алфавита т2 определяется способом построения системы передачи информации. Условная веро­ятность Р(аi1k1) определяется в основном свойствами не­прерывного канала и его характеристиками. Если в системе используется канал обратной связи и "стирание" символов, то т2 > m1. Стирание символов вводят тогда, когда из-за ис­кажений и помех неясно, какой символ передавался. Решаю­щее устройство декодера выдает символ стирания, если сим­вол а{2 настолько отличается от символов источника сообще­ний, что его нельзя с большой вероятностью отождествить ни с одним из передаваемых. Стирание символов позволяет умень­шить вероятность появления ошибки, но приводит к умень­шению вероятности правильного приема. Определены усло­вия, при которых стирание символов целесообразно. Обычно вводят один символ стирания.

Результатом анализа дискретного канала является опре­деление апостериорной условной вероятности Р(ак1 /ai2) того, что при получении символа ai2 передавался символ ак1.

С помощью этих апостериорных вероятностей и априор­ных вероятностей Р(ак1) рассчитывают полную вероятность появления ошибки в канале, полную вероятность правильно­го приема, вероятность появления символов на выходе кана­ла, информационные характеристики дискретного канала (ско­рость передачи информации, пропускную способность, коли­чество принятой информации и др.).

Апостериорная вероятность рассчитывается по формуле Байеса:

то канал называют каналом без памяти. Если условие (5.8) не выполняется, канал обладает памятью на i символов. Вы­полнение условий (5.7) и (5.8) зависит от того, на каком непре­рывном канале построен дискретный канал. Например, еслк непрерывный канал является гауссовым, то условия (5.7) у (5.8) выполняются, и построенный на нем дискретный канал является однородным и без памяти.

Реальные дискретные каналы являются неоднородны­ми и с памятью. Это обусловлено следующими причинами: искажением сигналов и влиянием помех в непрерывном кана­ле, задержкой во времени выходной последовательности сиг­нала по отношению к входной, нарушением тактовой синхро­низации передаваемых и принимаемых импульсов, ошибками решающих схем. Однако модель дискретного однородного ка­нала без памяти как модель первого приближения находит широкое применение. Она позволяет упростить методы ана­лиза и получения исходных данных.

Для математического описания дискретных однородных каналов без памяти необходимо использовать матрицы типа:

элементами которых являются условные вероятности pik = P(ai2/akl). Совместно с априорными вероятностями Р(ак1) эти вероятности рiк перехода i-госимвола в k-й полностью опре­деляют вероятностные характеристики дискретных каналов.

Математическим аппаратом, который позволяет исполь­зовать дискретные каналы, является теория марковских це­пей. Она предназначена для описания случайных дискретных последовательностей. Рассмотрим те элементы этой теории, которые используются в дальнейшем.

 

Если случайная последовательность получена дискретизацией стационарного и эргодического про­цесса, она также обладает этими свойствами. Числовые ха­рактеристики такой последовательности получают использова­нием операций усреднения по множеству и по времени (гл. 2).

Оценка математического ожидания последовательности:

где при усреднении по множеству: п — количество реализа­ций, измеренных в один момент времени ti; хik kзначение случайной величины Xi; при усреднении по времени: n — ко­личество моментов времени, рассматриваемых для одной ре­ализации.

Если все значения Хi стационарной последовательности непрерывны и независимы, то полной характеристикой явля­ется одномерная плотность распределения ƒ(xi). Плотности рас­пределения большей размерности определяют как произве­дение одномерных плотностей. Если Xi являются дискретны­ми независимыми символами, что имеет место при опреде­ленных условиях передачи дискретных сообщений, полной ха­рактеристикой является распределение вероятностей рi появления символа Xi ,i= 1,...,n. Так как Xi образует полную группу сообщений, то:

Равенство (5.11) называют условием нормировки.

Если символы последовательности взаимозависимы (кор­релированны), помимо вероятности появления отдельных сим­волов необходимо задавать условные вероятности Р(Хi/ Хi-1, Xi-2,…X i-i), появление в последовательности символа Xi при, что перед ним появилась группа символов Хi-1,Xi- 2,...Хi-i.. Пос­ледовательности, в которых существуют статистические свя-|зи между символами, называют цепями Маркова, или марковскими цепями. Если статистическая связь существует только между двумя символами i-м и (i-1)-м, то марковскую цепь называют простой, ее поведение полностью описывает­ся матрицей (5.9) при заданные начальных вероятностях P(akl) = pk. Для эргодической марковской цепи вероятности р. появление символов Xj в установившемся режиме находят из системы алгебраических уравнений:

с использованием условия нормировки (5.11).

Для математического описания дискретных однородных каналов без памяти используют методы теории марковских простых однородных цепей.

Используя эти результаты, найдем вероятностные харак­теристики двоичного дискретного однородного канала без па­мяти.

Рассмотрим работу решающей схемы реализации сигна­лов s1(t) = s(t) на выходе модулятора и s2(t) — x(t) на входе демодулятора (показаны на рис. 5.2). Положительные импульсы соответствуют передаче символа b1 отрицательные — пере­даче b2. Можно заметить, что прохождение сигнала через ка­нал привело к изменению его формы.

Если искажения сигналов в канале отсутствуют и непре­рывный канал является гауссовым, то изменение формы сиг­нала обусловлено лишь действием флуктуационной помехи ξ(t). Сигнал на входе решающей схемы можно представить в виде s2(t) = s1(t) + ξ(t).

На основании отсчетов напряжения принятого сигнала s2(t) в моменты времени t1,t2,...,tk,..., решающая схема демодуля­тора должна определить: был принят импульс с амплитудой или импульс с амплитудой -А. Так как |А| является детер­минированной величиной, то распределение суммы |А| + ξ(tk) полностью определяется одномерным распределением помехи ƒ(ξ)

Вероятность ошибок и правильного приема определяет­ся не только характеристиками помех, но и порогом о приня­тия решения. Если s2(tk) < а, то принимается решение о том, что пришел отрицательный импульс. Правильные решения принимаются тогда, когда выполняются следующие неравен­ства:

Ошибки происходят тогда, когда неравенства (5.13) и (5.14) не выполняются из-за выбросов, обусловленных помехой. Ус­ловные вероятности ошибок — это вероятности выполнения противоположных неравенств, поэтому:

 

 

Из-за симметрии двоичного канала полная вероятность ошибки совпадает с условной вероятностью. Это удобное свой­ство симметричного канала, так как значение р0 (одного пара­метра) полностью определяет свойства двоичного однородно­го симметричного канала без памяти. Полная вероятность пра­вильного приема сигналов:

Реальный дискретный канал можно рассматривать как функциональный преобразователь распределения вероятнос­тей появления символов входного алфавита в распределение вероятностей появления символов выходного алфавита.

Идеальный дискретный канал не является преобразова­телем, поскольку оставляет распределение символов неизмен­ным, и оригиналы и копии дискретных сообщений совпадают.

Так как символы дискретных сообщений кодируют ко­довыми комбинациями, которые включают п элементарных кодовых сигналов, представляет интерес определение веро­ятности того, что в кодовой комбинации будет q ошибочно принятых элементарных сигналов. Величину называют крат­ностью ошибок. Если все элементарные сигналы в кодовой ком­бинации независимы, эта вероятность определяется биноми­альным распределением и формулой Бернулли:

Поэтому в первую очередь обращают внимание на обна­ружение и исправление ошибок малой кратности.

В заключение данной главы отметим, что для решения задачи прохождения сигналов через реальные каналы в об­щей постановке необходимо изучать прохождение случайных сигналов через нелинейные стохастические инерционные не­стационарные системы. Работа таких систем описывается не­линейными дифференциальными уравнениями со случайны­ми переменными коэффициентами и случайной правой час­тью. Поэтому решение таких задач является сложным, для многих реальных каналов оно является предметом современ­ных научных исследований. Характерные особенности задач анализа прохождения случайных сигналов через каналы обыч­но рассматривают с помощью более простых приближенных моделей каналов.

 

Контрольные вопросы и задания

 

1.  Приведите классификацию каналов по различным призна­кам.

2. Нарисуйте структурную схему канала передачи информации и поясните ее назначение ее элементов.

3. Поясните разницу между помехами и искажениями.

4. Объясните причины возникновения различных видов помех.

5. Каковы особенности различных моделей каналов?

6. Каким образом осуществляется анализ дискретных каналов?

7.  Поясните разницу между каналом без памяти и каналом с памятью.

8. Как определяются вероятностные характеристики двоичного дискретного однородного канала без памяти?

 

ГЛАВА  6

ОСНОВНЫЕ ПОНЯТИЯ И ОПРЕДЕЛЕНИЕ ТЕОРИИ ИНФОРМАЦИИ

 

6.1. Мера количества информации

 

В теории информации изучаются количественные зако­номерности передачи, хранения и обработки информации.

Основное внимание в теории информации уделяется оп­ределению средней скорости передачи информации и реше­нию задачи максимизации этой скорости путем применения соответствующего кодирования. Предельные соотношения те­ории информации позволяют оценить эффективность различ­ных систем связи и установить условия согласования в ин­формационном отношении источника с каналом и канала с потребителем.

Для исследования этих вопросов с общих позиций необ­ходимо прежде всего установить универсальную количествен­ную меру информации, не зависящую от конкретной физи­ческой природы передаваемых сообщений. Когда принимает­ся сообщение о каком-либо событии, то наши знания о нем изменяются. Мы получаем при этом некоторую информацию об этом событии. Сообщение о хорошо известном нам собы­тии, очевидно, никакой информации не несет. Напротив, со­общение о малоизвестном событии несет много информации.

Таким образом, количество информации в сообщении о некотором событии существенно зависит от вероятности этого события. Вероятностный подход и поло­жен в основу определения меры количества информации. Для количественного определения информации, в принципе, мож­но использовать монотонно убывающую функцию вероятнос­ти F[P(a)] , где Р(а) — вероятность сообщения. Простейшей из них является функция которая характеризует меру неожиданности (неопределенности) сообщения. Од­нако удобнее исчислять количество информации в логариф­мических единицах, т. е. определять количество информации в отдельно взятом сообщении как:

что соответствует интуитивным представлениям об увеличе­нии информации при получении дополнительных сообщений. Основание логарифма k может быть любым. Чаще всего при­нимают k = 2, и тогда количество информации выражается в двоичных единицах:

Двоичную единицу называют бит. Слово "бит" произош­ло от выражения binary digit (двоичная цифра). В двоичных системах передачи информации используется два символа, ус­ловно обозначаемых 0 и 1. В таких системах при независи­мых и равновероятных символах, когда Р(0) = Р(1) - 1/2, каж­дый из них несет одну двоичную единицу информации:

Формула (6.1) позволяет вычислять количество инфор­мации в сообщениях, вероятность которых отлична от нуля. Это, в свою очередь, предполагает, что сообщения дискретны, а их число ограниченно. В таком случае принято говорить об ансамбле сообщений, который описывается совокупностью возможных сообщений и их вероятностей:

Отсюда следует, что количество информации в со­общении зависит от ансамбля, из которого оно выбра­но. До передачи сообщения имеется неопределенность отно­сительно того, какое из т -сообщений ансамбля будет пере­дано. После приема сообщения эта неопределенность снижа­ется. Очевидно, чем больше т, тем больше неопределенность и тем большее количество информации содержится в пере­данном сообщении.

Рассмотрим пример. Пусть ансамбль возможных сообще­ний представляет собой алфавит, состоящий из т различ­ных букв. Необходимо определить, какое количество инфор­мации содержится в передаваемом слове длиной п букв, если вероятности появления букв одинаковы, а сами буквы следу­ют независимо друг от друга. Количество информации при передаче одной буквы:

В общем случае при передаче сообщений неопределен­ность снимается не полностью. Так, в канале с шумами воз­можны ошибки. По принятому сигналу v только с некоторой вероятностью P(a/v) < 1 можно судить о том, что было пере­дано сообщение а. Поэтому после получения сообщения ос­тается некоторая неопределенность, характеризуемая вели­чиной апостериорной вероятности  P(a/v), а количество информации, содержащееся в сигнале v, определяется степе­нью уменьшения неопределенности при его приеме. Если Р(а)— априорная вероятность, то количество информации в принятом сигнале относительно переданного сообщения а, оче­видно, будет равно:

Это выражение можно рассматривать также как разность между количеством информации, поступившим от источника сообщений, и тем количеством информации, которое потеря­но в канале за счет действия шумов.

 

6.2. Энтропия источника дискретных сообщений

 

1. Энтропия источника независимых сообщений

 

До сих пор определялось количество информации, содер­жащееся в отдельных сообщениях. Вместе с тем во многих случаях, когда требуется согласовать канал с источником со­общений, таких сведений оказывается недостаточно. Возни­кает потребность в характеристиках, которые позволяли бы оценивать информационные свойства источника сообщений в целом. Одной из важных характеристик такого рода является среднее количество информации, приходящееся на одно сообщение.

В простейшем случае, когда все сообщения равновероят­ны, количество информации в каждом из них одинаково и определяется выражением:

При этом среднее количество информации равно  log m. Следовательно, при равновероятных независимых сообщениях информационные свойства источника зависят только от числа сообщений в ансамбле т.

Однако в реальных условиях сообщения, как правило, имеют разную вероятность. Так, буквы алфавита О, Е, А встре­чаются в тексте сравнительно часто, а буквы Щ, Ы, Ъ — редко. Поэтому знание числа сообщений т в ансамбле явля­ется недостаточным, необходимо иметь сведения о вероят­ности каждого сообщения: P(a1), Р(а2),...,Р(ат).

Так как вероятности сообщений неодинаковы, то они не­сут различное количество информации: J(ai) = -logP(ai). Менее вероятные сообщения несут большее количество ин­формации и наоборот. Среднее количество информации, приходящееся на одно сообщение источника, определя­ется как математическое ожидание J(ai):

Величина Н(а) называется энтропией. Этот термин за­имствован из термодинамики, где имеется аналогичное по своей форме выражение, характеризующее неопределенность со­стояния физической системы. В теории информации энтро­пия Н(а) также характеризует неопределенность ситуации до передачи сообщения, поскольку заранее неизвестно, какое из сообщений ансамбля источника будет передано. Для нас самым существенным является то, что чем больше эн­тропия, тем сильнее неопределенность и тем большую информацию в среднем несет одно сообщение источника.

В качестве примера вычислим энтропию источника сооб­щений, который характеризуется ансамблем, состоящим из двух сообщений а1и а2 с вероятностями Р(а1) = р и Р(а2) = 1 — р. На основании (6.10) энтропия такого источника будет равна:

Максимум энтропии имеет место при р= 1/2, т. е. когда ситуация является наиболее неопределенной. При р = 1 или р = 0, что соответствует передаче одного из сообщений а1 или а2, неопределенности отсутствуют. В этих случаях энт­ропия Н(а) равна нулю.

Среднее количество информации, содержащееся в пос­ледовательности из п -сообщений, равно:

Отсюда следует, что количество передаваемой инфор­мации можно увеличить не только за счет числа сооб­щений, но и путем повышения энтропии источника, т. е. информационной емкости его сообщений.

Обобщая эти результаты, можно сформулировать основ­ные свойства энтропии источника независимых сообщений (6.10):

 

2. Энтропия источника зависимых сообщений

 

Рассмотренные выше источники независимых сообщений являются простейшим типом источников. В реальных усло­виях картина значительно усложняется из-за наличия ста­тистических связей между сообщениями. Примером может быть обычный текст, где появление той или иной буквы зави­сит от предыдущих буквенных сочетаний. Так, например, после сочетания ЧТ вероятность следования гласных букв О, Е, И больше, чем согласных.

Статистическая связь ожидаемого сообщения с предыду­щим сообщением количественно оценивается совместной ве­роятностью Р(аkI)или условной вероятностью P(aL/ak), которая выражает вероятность появления сообщения ak при условии, что известно предыдущее сообщение аk. Количество информации, содержащейся в сообщении при условии, что известно предыдущее сообщение аk согласно (6.1), будет равно:

Среднее количество информации при этом определяется условной энтропией

H(aL /ak), которая вычисляется как ма­тематическое ожидание информации J(aL/ak)no всем воз­можным сообщениям аk и aL.

Важным свойством условной энтропии источника зави­симых сообщений является то, что при неизменном количе­стве сообщений в ансамбле источника его энтропия уменьша­ется с увеличением числа сообщений, между которыми су­ществует статистическая взаимосвязь. В сооответствии с этим свойством, а также свойством энтропии источника независи­мых сообщений можно записать неравенства:

Таким образом, наличие статистических связей между сообщениями всегда приводит к уменьшению количества информации, приходящейся в среднем на одно сообщение.

 

6.3. Избыточность источника сообщений

 

Уменьшение энтропии источника с увеличением статисти­ческой взаимосвязи (6.14) можно рассматривать как снижение информационной емкости сообщений. Одно и то же сооб­щение при наличии взаимосвязи содержит в среднем меньше информации, чем при ее отсутствии. Иначе говоря, если источник создает последовательность сообщений, обла­дающих статистической связью, и характер этой связи извес­тен, то часть сообщений, выдаваемая источником, является из­быточной, так как она может быть восстановлена по извест­ным статистическим связям. Появляется возможность переда­вать сообщения в сокращенном виде без потери информации, содержащейся в них. Например, при передаче телеграммы мы исключаем из текста союзы, предлоги, знаки препинания, так как они легко восстанавливаются при чтении телеграммы на основании известных правил построения фраз и слов.

Таким образом, любой источник зависимых сообщений, как принято говорить, обладает избыточностью. Количе­ственное определение избыточности может быть получено из следующих соображений. Для того чтобы передать количе-

называется коэффициентом сжатия. Он показывает, до ка­кой величины можно сжать передаваемые сообщения, если устранить избыточность. Источник, обладающий избыточнос­тью, передает излишнее количество сообщений. Это увеличи­вает продолжительность передачи и снижает эффективность использования канала связи. Сжатие сообщений можно осу­ществить посредством соответствующего кодирования. Информацию необходимо передавать такими сообщениями, ин­формационная емкость которых используется наиболее пол­но. Этому условию удовлетворяют равновероятные и незави­симые сообщения.

Вместе с тем избыточность источника не всегда является отрицательным свойством. Наличие взаимосвязи между бук­вами текста дает возможность восстанавливать его при искажении отдельных букв, т. е. использовать избыточность для повышения достоверности передачи информации.

 

6.4. Статистические свойства источников сообщений

 

Использование энтропии в качестве усредненной вели­чины, количественно характеризующей информационные свой­ства источника, выдающего последовательности дискретных сообщений, является целесообразным при условии, что веро­ятностные соотношения для этих последовательностей сохра­няются неизменными. Источник называют стационарным, когда распределение вероятностей сообщений не зависит от их ме­ста в последовательности сообщений, создаваемых этим ис­точником, т. е.:

По аналогии со стационарным случайным процессом ста­тистические характеристики последовательности сообщений стационарного источника не зависят от выбора начала от­счета.

Среди стационарных источников сообщений важное мес­то занимают эргодические источники, которые отличаются тем, что с вероятностью, близкой к единице, любая достаточ­но длинная последовательность сообщений такого источника полностью характеризует его статистические свойства. Важ­ной особенностью эргодических источников является то, что статистическая связь между сообщениями всегда распрост­раняется только на конечное число предыдущих сообщений.

Существуют стационарные источники, которые могут ра­ботать в различных режимах, отличающихся друг от друга своими статистическими характеристиками. В этом случае источник не является эргодическим, так как при работе в од­ном режиме даже продолжительная последовательность сообщений уже не может в целом характеризовать свойства ис­точника.

Подобного рода случайные последовательности (облада­ющие эргодическими свойствами) известны в математике как дискретные цепи А. А. Маркова (см. гл. 5).

В марковском эргодическом источнике вероятность пере­дачи того или иного сообщения однозначно определяется со­стоянием источника. После передачи сообщения источник пе­реходит в новое состояние, которое зависит от предыдущего состояния и переданного сообщения.

Достаточно длинные эргодические последовательности со­общений, с высокой степенью вероятности содержащие все све­дения о статистических характеристиках источника, называ­ются типичными. Чем длиннее последовательность, тем боль­ше вероятность того, что она является типичной. В типич­ных последовательностях частота появления отдельных сообщений сколь угодно мало отличается от их вероят­ности. Отсюда вытекает важное свойство типичных последо­вательностей, состоящее в том, что типичные последователь­ности одинаковой длины примерно равновероятны.

Что касается нетипичных последовательностей, то вслед­ствие их малой вероятности при большом числе сообщений они во многих случаях вообще не учитываются.

 

6.5. Скорость передачи информации и пропускная способность дискретного канала без помех

 

`Передача информации происходит во времени, поэтому можно ввести понятие скорости передачи как количество информации, передаваемой в среднем за единицу време­ни. Для эргодических последовательностей сообщений, где до­пускается усреднение во времени, скорость передачи равна:

Выданная источником информация в виде отдельных со­общений поступает в канал связи, где осуществляются коди­рование и ряд других преобразований, в результате которых информация переносится уже сигналами и, имеющими дру­гую природу и в общем случае обладающими другими статистическими характеристиками. Для сигналов также может быть найдена скорость передачи по каналу связи:

Высокая скорость передачи является одним из основных требований, предъявляемых к системам передачи информа­ции. Однако в реальных условиях существует ряд причин, ведущих к ее ограничению. Остановимся на некоторых из них.

В реальном канале число используемых сигналов все­гда конечно, поэтому энтропия в соответствии с (6.12) есть величина ограниченная:

С другой стороны, уменьшение длительности сигна­лов приводит, как известно, красширению спектра, что ограничивается полосой пропускания канала. Это в ко­нечном счете ставит предел уменьшению и средней длитель­ности τ. Таким образом, существуют, по крайней мере, две причины: конечное число сигналов и конечная длитель­ность сигналов, которые не позволяют беспредельно повы­шать скорость передачи информации по каналу связи.

Максимально возможная скорость передачи инфор­мации по каналу связи при фиксированных ограничени­ях называется пропускной способностью канала:

Пропускная способность канала характеризует его пре­дельные возможности в отношении передачи среднего коли­чества информации за единицу времени. Максимум скорос­ти R в выражении (6.25) ищется по всем возможным ансамб­лям сигналов и.

Определим пропускную способность канала, в котором су­ществуют два ограничения: число используемых сигналов не должно превышать т, а длительность их не может быть меньше τ сек. Так как Н(и) и τ независимы, то, согласно выра­жению (6.25), следует искать максимум Н(и) и минимум τ.

Тогда :

т. е. совпадает со скоростью телеграфирования в бодах. При передаче информации простейшими двоичными сигналами — телеграфными посылками — необходимая полоса пропуска­ния канала зависит от частоты манипуляции Fm =1/2 τ, ко­торая по определению равна частоте первой гармоники спек­тра сигнала, представляющего собой периодическую после­довательность посылок и пауз. Очевидно, минимальная поло­са пропускания канала, при которой еще возможна передача сигналов, F = Fm. Отсюда максимальная скорость передачи двоичных сигналов по каналу без помех равна:

Понятие пропускной способности применимо не только ко всему каналу в целом, но и к отдельным его звеньям. Суще­ственным здесь является то, что пропускная способность С' какого-нибудь звена не превышает пропускной способности С'' второго звена, если оно расположено внутри первого. Со­отношение С' С'' обусловлено возможностью дополнитель­ных ограничений, накладываемых на участок канала при его расширении и снижающих пропускную способность.

 

6.6. Оптимальное статистическое кодирование сообщений

 

Для дискретных каналов без помех Шенноном была до­казана следующая теорема: если производительность источника RИ =С— ε, где ε сколь угодно малая величина, то всегда существует способ кодирования, позволяющий передавать по каналу все сообщения источника. Переда­чу всех сообщений при RИ>C осуществить невозможно.

Смысл теоремы сводится к тому, что как бы ни была ве­лика избыточность источника, все его сообщения могут быть переданы по каналу, если RH C- ε. Обратное утверждение теоремы легко доказывается от противного. Допустим, R И, но для передачи всех сообщений источника по каналу необ­ходимо, чтобы скорость передачи информации R была не меньше RИ. Тогда имеем R RИ>C, что невозможно, так как, по определению, пропускная способность C = Rmax.

Для рационального использования пропускной способно­сти канала необходимо применять соответствующие способы кодирования сообщений. Статистическим, или оптималь­ным, называется кодирование, при котором наилучшим об­разом используется пропускная способность канала без по­мех. При оптимальном кодировании фактическая скорость пе­редачи информации по каналу R приближается к пропуск­ной способности С, что достигается путем согласования источника с каналом. Сообщения источника кодируются таким образом, чтобы они в наибольшей степени соответство­вали ограничениям, которые накладываются на сигналы, пе­редаваемые по каналу связи. Поэтому структура оптималь­ного кода зависит как от статистических характеристик ис­точника, так и от особенностей канала.

Рассмотрим основные принципы оптимального кодирова­ния на примере источника независимых сообщений, который необходимо согласовать с двоичным каналом без помех. При этих условиях процесс кодирования заключается в преобра­зовании сообщений источника в двоичные кодовые комбина­ции. Поскольку имеет место однозначное соответствие между сообщениями источника и комбинациями кода, то энтропия кодовых комбинаций равна энтропии источника:

Одним из кодов, удовлетворяющих условию (6.33), является код Шеннона-Фано. Для ознакомления с принципами его построения рассмотрим в качестве примера источник сообще­ний, вырабатывающий четыре сообщения а1 а2 , а3, и а4 с ве­роятностями .

Все сообщения выписываются в кодовую таблицу (табл. 6.1) в порядке убывания их вероятностей. Затем они разделя­ются на две группы так, чтобы суммы их вероятностей по возможности были одинаковыми. В данном примере в первую группу входит сообщение а; с вероятностью и во вторую Р(а1) = 0,5 — сообщения а2, и с суммарной вероятностью, также равной 0,5.

Комбинациям, которые соответствуют сообщениям пер­вой группы, присваивается в качестве первого символа ко­да 0 , а комбинациям второй группы 1. Каждая из двух групп опять делится на две группы с применением того же правила присвоения символов 0 и 1. В идеальном случае пос­ле первого деления вероятности каждой группы должны быть равны 0,5, после второго деления — 0,25 и т. д. Процесс деле­ния продолжается до тех пор, пока в группах не останется по одному сообщению.

При заданном распределении вероятностей сообщений код получается неравномерным, его комбинации имеют различ­ное число элементов ni. Причем, как нетрудно заметить, та­кой способ кодирования обеспечивает выполнение усло­вия (6.33) полностью для всех сообщений.

В неравномерных кодах при декодировании возникает трудность в определении границ между комбинациями. Для устранения возможных ошибок обычно применяются специ­альные разделительные знаки. Так, в коде Морзе между бук­вами передается разделительный знак в виде паузы длитель­ностью в одно тире. Передача разделительных знаков зани­мает дополнительное время, что снижает скорость передачи информации.

Важным свойством кода Шеннона-Фано является то, что, несмотря на его неравномерность, здесь не требу­ются разделительные знаки. Это обусловлено тем, что короткие комбинации не являются началом более длин­ных. Указанное свойство легко проверить на примере любой последовательности:

Таким образом, все элементы закодированного сообще­ния несут полезную информацию, что при выполнении усло­вия (6.33) позволяет получить максимальную скорость пере­дачи. Она может быть найдена путем непосредственного вы­числения по формуле (6.32):

Пропускная способность в этом случае используется толь­ко частично. Из выражения (6.33) вытекает основной принцип оптимального кодирования. Он сводится к тому, что наибо­лее вероятным сообщениям должны присваиваться бо­лее короткие комбинации, а сообщениям с малой веро­ятностью более длинные комбинации.

Одним из способов оптимального кодирования зависимых сообщений является применение так называемых "скользя­щих" кодов, основная идея которых состоит в том, что при­своение кодовых комбинаций по правилу Шеннона-Фано про­изводится с учетом условных, а не априорных вероятностей сообщений. Число элементов в кодовой комбинации выбира­ется как nS=—logP(asai,...,ir), т. е. текущему сообщению присваивается та или иная комбинация в зависимости от того, какие сообщения ему предшествовали.

Необходимо подчеркнуть, что при оптимальном спосо­бе кодирования в сигналах, передающих сообщения ис­точника, совершенно отсутствует какая-либо избыточ­ность. Устранение избыточности приводит к тому, что про­цесс декодирования становится весьма чувствительным к воз­действию помех. Это особенно сильно проявляется при опти­мальном кодировании зависимых сообщений. Например, в "скользящих" кодах одна-единственная ошибка может вызы­вать неправильное декодирование всех последующих сигна­лов. Поэтому оптимальные коды применимы только для кана­лов, в которых влияние помех незначительно.

 

6.7. Скорость передачи информации и пропускная способность дискретных каналов с помехами

 

Отличительной особенностью рассмотренных ра­нее каналов без помех является то, что при выполне­нии условия теоремы Шеннона количество принятой

информации на выходе канала всегда равно количеству информации, переданной от источника сообщений.

При этом, если на вход канала поступил сигнал ui, то на выходе возникает сигнал vi, вполне однозначно определяю­щий переданный сигнал ui. Количество информации, прошед­шее по каналу без помех в случае передачи ui. и приема vi., равно количеству информации, содержащейся в сигнале ui :

Здесь величина вероятности Р(иi) характеризует ту не­определенность в отношении сигнала ui, которая существо­вала до его передачи. После приема vi, в силу однозначного соответствия между ui и vi, неопределенность полностью ус­траняется.

Иное положение имеет место в каналах, где присутству­ют различного рода помехи. Воздействие помех на переда­ваемый сигнал приводит к разрушению и необратимой потере части информации, поступающей от источни­ка сообщения. Поскольку vi канале с помехами принятому сигналу u может соответствовать передача одного из несколь­ких сигналов и, то после приема vi. остается некоторая нео­пределенность в отношении переданного сигнала. Здесь соот­ветствие между u и v носит случайный характер, поэтому степень неопределенности характеризуется условной апосте­риорной вероятностью P(ui/vi), причем всегда P(ui/vi)<1. Количество информации, необходимое для устранения оставшейся неопределенностиочевидно, равно той части информации, которая разрушена вследствие действия помех. Тогда в соответствии с формулой (6.9) количество при­нятой информации определяется как разность:

Для оценки среднего качества принятой информации при передаче одного сообщения выражение (6.36) необходимо ус­реднить по всему ансамблю и и v:

Соотношение (6.38) показывают, что среднее количество принятой информации равно среднему количеству передан­ной информации Н(и) минус среднее количество информа­ции H(u/v), потерянное в канале вследствие воздействия по­мех.

Вторая форма записи средней взаимной информации мо­жет быть получена, если в (6.37) подставить выражение для условной вероятности. После соответствующих преобразова­ний получим:

здесь H(v) энтропия выхода канала, H(v/u)— условная энтропия, равная энтропии шума. Она определяет беспо­лезную часть информации, которая содержится в принятых сигналах за счет действия помех.

Понятия скорости передачи информации и пропускной способности, введенные для каналов без помех, могут быть использованы и в каналах с помехами. В этом случае ско­рость передачи информации по каналу определяется как

где иT и vT — соответственно последовательности передава­емых и принимаемых сигналов длительностью .

Необходимым условием применимости формулы (6.42) является соблюдение свойства эргодичности как для после­довательности иT, так и последовательности vT, Последнее означает, что помехи, действующие в канале, также должны быть эргодическими.

Выражение для скорости передачи можно представить в более удобных формах:

Пропускная способность канала с помехами определяет­ся как максимально возможная скорость передачи при задан­ных ограничениях, накладываемых на передаваемые сигналы:

где максимум ищется по всем возможным ансамблям сигна­лов и.

Рассмотрим двоичный канал с помехами, по которому пе­редаются дискретные сигналы, выбранные из ансамбля, со­держащего два независимых сигнала u и и2 с априорными вероятностями Р(и1) и Р(и2). На выходе канала образуются сигналы v1 и v2, при правильном приеме отражающие сигна­лы u1 и и2. В результате действия помех возможны ошибки, которые характеризуются при передаче u1 условной вероят­ностью P(v1/u1), при передачи u2 условной вероятностью P(v2/u2)

 

 

6.8. Теорема Шеннона для дискретного канала с помехами

 

Для дискретных каналов с помехами Шеннон доказал те­орему, имеющую фундаментальное значение в теории пере­дачи информации. Эта теорема может быть сформулирована следующим образом.

Если производительность источника RИCε, где ε сколь угодно малая величина, то существует способ кодирования, позволяющий передавать все сооб­щения источника со сколь угодно малой вероятностью ошибки. При RH>C такая передача невозможна.

Предположим, что на вход канала поступают сигналы и, которые вызывают на его выходе сигналы v. Предварительно будем полагать, что по каналу могут передаваться исключительно типичные последовательности, состоящие из и сигна­лов и: U1,U2,...,UM. Соответственно на выходе канала сигна­лы при достаточно большом — образуют типичные последо­вательности: V1,V2,...,VN, содержащие типичные последова­тельности ошибок. Общее число типичных последовательнос­тей и равно:

Действие помех проявляется в том, что нарушается од­нозначное соответствие между последовательностями U и V, т. е. при передаче некоторой последовательности Ui возмож­но появление на выходе канала одной из нескольких последо­вательностей у. Процесс передачи в этих условиях можно представить так, как показано на рис. 6.3, где стрелками от­мечены переходы от типичных последовательностей V к ти­пичным последовательностям V.

Так как последовательности ошибок типичные, то и пе­реходы от U к V также являются типичными. Каждой пос­ледовательности U соответствует группа типичных перехо­дов, которая характеризует неопределенность, возникающую при передаче U. Количественно указанная неопределенность описывается произведением n ·H(v/u), где H(v/u) —услов­ная энтропия (энтропия шума). Тогда количество типичных (переходов в каждой группе:

В общем случае переходы перекрещиваются, т. е. одна и та же последовательность Vj может образоваться в резуль­тате передачи одной из нескольких последовательностей U. Для того, чтобы иметь возможность с высокой точностью од­нозначно определить принадлежность принятой последова­тельности V переданной последовательности U (на рис. 6.3 этому условию удовлетворяет Uk), очевидно, необходимо меж­ду группами последовательностей V установить достаточный интервал. Поэтому из всего набора последовательностей U только часть может использоваться для передачи информа­ции.

Обозначим последовательности, выбранные для переноса информации, через Uи, а их число — буквой Ми. Выясним взаимосвязь Ми с вероятностью ошибки при декодировании принятых сигналов. Вероятности всех типичных переходов от Uи к V одинаковы, поэтому полная вероятность ошибки рав­на вероятности перекрещивания переходов Рпер. Для вычис­ления Pпер необходимо знать ансамбль последовательностей Uи Иными словами, нужно знать конкретный способ кодиро­вания. Решение вопроса об оптимальном выборе последова­тельностей Uи в общем случае представляет собой чрезвы­чайно сложную задачу, требующую отдельного рассмотрения. С целью ее упрощения будем полагать, что последовательно­сти Uи выбираются из последовательностей и случайным образом. При этом условии вероятность того, что случайный переход от Uи к V будет перекрещиваться с другими переходами, приближенно равна отношению общего числа пере­ходов ко всему количеству типичных последовательностей у. Следовательно, вероятность ошибки декодирования:

Эта оценка вероятности ошибки является грубым при­ближением, однако она правильно указывает на характер за­висимости Род от Ми.

При согласовании канала с источником каждой типичной последовательности источника присваивается одна из после­довательностей Uи, поэтому их число Мн выбирается рав­ным количеству типичных последовательностей источника. Если энтропия источника равна Ни, то можно записать:

 

Из выражения (6.56) следует, что вероятность ошибки де­кодирования Рoд может быть сколь угодно малой при неогра­ниченном уменьшении g. Для того чтобы при этих условиях сохранить достаточно малой величину g, необходимо увели­чивать количество сообщений п в типичных последователь­ностях. Что касается всех остальных нетипичных последова­тельностей из n-сообщений, которые до сих пор не рассматривались, то их можно закодировать весьма сложными сигна­лами, обладающими высокой помехоустойчивостью, не забо­тясь о длительности таких сигналов, поскольку суммарная ве­роятность нетипичных последовательностей весьма мала, и они не вызовут существенного уменьшения скорости переда­чи информации.

Таким образом, возможность одновременного установле­ния сколь угодно малой вероятности ошибки декодирования Род и малой величины ε доказывает справедливость теоре­мы Шеннона.

 Обратное утверждение теоремы о том, что при RИ декодирование со сколь угодно малой ошибкой невозможно, следует из того факта, что в этих условиях МиМг > N и, следовательно, всегда будут иметь место перекрещивания пере­водов от U к V, создающие неопределенность в установле­нии принадлежности V.

      На первый взгляд может показаться, что, поскольку вероятность ошибки в канале Ро монотонно уменьшается с уве­личением длительности сигналов, то сколь угодно высокая до­стоверность при декодировании достигается только при нео­граниченном уменьшении скорости передачи. Теорема Шен­нона доказывает, что наличие помех и ошибок в канале само по себе не препятствует передаче сообщений со сколь угодно малой вероятностью ошибок декодирова­ния  Род, а лишь ограничивает максимальную скорость передачи информации С.Высокая достоверность деко­дирования и конечная скорость передачи не исключают друг друга. В этом состоит чрезвычайно важное значение теоремы для теории и техники передачи информации. Вместе с тем следует подчеркнуть, что из теоремы не вытекает конкретный способ наилучшего коди­рования.

Применение на практике рассмотренного в теореме Шен­нона общего метода, основанного на укрупнении кодируемых (Последовательностей, сильно усложняет кодирующие устрой­ства и увеличивает задержку сигналов. Поэтому с инженерной точки зрения такой метод неэффективен. Однако теорема не утверждает, что укрупнение кодируемых со­общений является единственным способом. Поэтому в настоящее время продолжаются интенсивные поиски спосо­бов кодирования, которые бы позволяли с аппаратурой при­емлемой сложности достигать предельных возможностей, ука­занных теоремой Шеннона.

Для обеспечения высокой достоверности передачи сооб­щений необходимо применять коды с избыточностью. Если R = С, то в соответствии с (6.43) средняя взаимная информа­ция:

Иными словами, теорема утверждает, что для передачи сообщений со сколь угодно малой вероятностью ошибки деко­дирования  Pод могут быть найдены коды с минимальной из­быточностью, равной æ . При передаче бинарных сигналов ми­нимальная избыточность равна:

6.9. Энтропия непрерывных сообщений

 

При передаче непрерывных сообщений переданные сиг­налы  s(t) являются функциями времени, принадлежащими некоторому множеству, а принятые сигналы будут x(t) их искаженными вариантами. Все реальные сигналы имеют спек­тры, основная энергия которых сосредоточена в ограничен­ной полосе F. Согласно теореме Котельникова такие сигналы определяются своими значениями в точках отсчета, выбираемых через интервалы

В канале на сигнал накладываются помехи, вследствие чего количество различных уровней сигнала в точках отсчета будет конечным. Следовательно, совокупность значений не­прерывного сигнала эквивалентна некоторой дискретной ко­нечной совокупности. Это позволяет нам определить необхо­димое количество информации и пропускную способность ка­нала при передаче непрерывных сообщений на основании ре­зультатов, полученных для дискретных сообщений.

Определим количество информации, которое содержится в одном отсчете сигнала хi, относительно переданного сигнала si. Это можно сделать на основании соотношения (6.36), если в последней вероятности выразить через соответствующие плотности вероятности и взять предел при Δs0 :

Величина Н( s ) характеризует информационные свойства сигналов и по форме записи аналогична энтропии дискрет­ных сообщений. Так как в выражение (6.64) входит диффе­ренциальное распределение вероятностей p(s), то Н(х) на­зывают дифференциальной энтропией сигнала s.

Выражение H(s/x) представляет собой условную диф­ференциальную энтропию сигнала s:

H(x,s) — условная дифференциальная энтропия сигна­ла х, называемая также энтропией шума.

Многие свойства энтропии непрерывного распределения аналогичны свойствам энтропии дискретного распределения. Если непрерывный сигнал s ограничен интервалом s1 s s2, то энтропия H(s) максимальна и равна log(s2s1), когда сигнал имеет равномерное распределение:

Необходимо отметить, что, в отличие от энтропии диск­ретных сигналов, величина дифференциальной энтропии за­висит от размерности непрерывного сигнала. По этой при­чине она не является мерой количества информации, хотя и характеризует степень неопределенности, при­сущую источнику.

Только разность дифференциальных энтропии (6.66) ко­личественно определяет среднюю информацию J(s,x).

 

6.10. Скорость передачи и пропускная способность непрерывного канала.

Формула Шеннона

 

 Для того чтобы найти среднее количество информации JT(s,x), передаваемое сигналом на интервале Т, необходимо рассмотреть п = 2FT отсчетов непрерывного сигнала на вхо­де канала: s1,s2,...,sn и на выходе канала: x1,x2,...,xn. В этом случае по аналогии с выражениями (6.63) и (6.69) можно запи­сать:

 

Энтропия HT(s) и HT(s/x) описывается аналогичными выражениями, только всюду необходимо поменять местами переменные s и х. Скорость передачи информации по не­прерывному каналу находится как предел:

 

где максимум определяется по всем возможным ансамблям входных сигналов s.

Вычислим пропускную способность непрерывного кана­ла, в котором помехой является аддитивный глум w(t), пред­ставляющий собой случайный эргодический процесс с нор­мальным и равномерным спектром.

Средние мощности сигнала и шума ограничены величи­нами Рс и Рш, а ширина их спектра равна F.

Согласно выражениям (6.70) и (6.72) имеем:

Прежде всего найдем величину HT(x/s). С этой целью рассмотрим энтропию шума для одного отсчета, которая, с учетом соотношения p(s,x) = p(s) ·p(x/s), может быть пред­ставлена в виде:

Значения шума с равномерным спектром некоррелированы между собой в моменты отсчетов, разделенные интер­валом . Отсутствие статистической взаимосвязи между отсчетами шума позволяет представить энтропию суммы отсчетов шума (6.76) как сумму п энтропии отдельных отсче­тов, которые вследствие стационарности шума равны между собой. С учетом этих соображений можно записать:

где вместо σ подставлено Pш .

       При данной величине HT(x/s) = HT(w) пропускная способность (6.73) отыскивается путем максимизации   Нт(х). I Максимум Нт(х), очевидно, имеет место, когда сигнал х, так же, как и шум, характеризуется нормальным распределени­ем и равномерным спектром.

Отсюда:

Здесь предполагается, что сигнал s и помеха w незави­симы, поэтому мощность сигнала х равна сумме мощностей Рсш. Подставляя (6.78) в (6.73), окончательно получаем:

Так как х и w имеют нормальное распределение, то сигнал s = x-w также должен иметь нормальное рас­пределение. Отсюда следует важный вывод: для того чтобы получить максимальную скорость передачи ин­формации, необходимо применять сигналы с нормаль­ным распределением и равномерным спектром.

Формула (6.79), впервые выведенная Шенноном, играет важную роль в теории и технике передачи информации. Она показывает те предельные возможности, к которым следует стремиться при разработке современных систем передачи информации.

Так как при равномерном спектре мощность шума опре­деляется произведением Pш = N0F, то формулу (6.79) можно записать в другом виде:

С увеличением F пропускная способность монотонно воз­растает и стремится к величине:

Формулу (6.80) можно рассматривать и таким образом, что при фиксированных значениях пропускной способности С и энергетического спектра шума No существует обратная зависимость Рс и F . Иными словами, допускается уменьше­ние мощности сигнала за счет расширения его спектра.

Формулу (6.79), выведенную для равномерных спектров сигнала и шума, можно распространить и на случай неравномерных спектров. Можно показать, что при заданных спект­рах шума Gш(f) и сигнала Gc(f) максимум пропускной спо­собности С имеет место в случае выполнения условия:

т. е. мощность сигнала должна возрастать на тех частотах, где уменьшается мощность шума, и наоборот. Можно также поста­вить вопрос: если выполняется условие (6.82), то при каком спек­тре шума получается минимальная пропускная способность? Оказывается, что этому условию удовлетворяет равномерный спектр, т. е. спектр "белого шума". Таким образом, белый шум, уменьшающий в наибольшей степени пропускную способ­ность, является самым опасным видом помех.

Рассмотрим теперь вопрос о производительности источ­ника непрерывных сообщений и о влиянии на качество их передачи помех, действующих в канале связи. При отсутствии каких-либо ограничений, накладываемых на непрерывные сообщения, количество содержащейся в них информации со­гласно (6.1) равно бесконечности:

Поэтому источник таких сообщений обладает бесконеч­ной производительностью. Для того чтобы количество инфор­мации и производительность источника приобрели определен­ный смысл и стали конечными величинами, необходимо рас­сматривать непрерывное сообщение u(t) с учетом точности его оценки. Последняя, в частности, определяется погрешнос­тью приборов, с помощью которых измеряется или регистри­руется непрерывное сообщение. Обычно погрешность количе­ственно оценивается среднеквадратическим отклонением при­ближенного непрерывного сообщения u*(t) от его точного зна­чения u(t):

Нетрудно понять, что чем меньше ε20 , тем большее коли­чество информации в среднем содержится в u*(t) относи­тельно u(t) и тем выше производительность источника.

Для непрерывного канала с пропускной способностью С , на вход которого подключается источник, обладающий про­изводительностью Rи, Шенноном была доказана следующая теорема.

Если при заданной погрешности оценки сообщений источника ε2в его производительность Rи<C, то суще­ствует способ кодирования, позволяющий передавать все непрерывные сообщения источника с ошибкой в воспро­изведении на_выходе канала, сколь угодно мало отлича­ющейся от ε20

Иначе говоря, дополнительная неточность в воспроизве­дении сообщения v(t) на выходе канала, обусловленная воз­действием помех, может быть сделана весьма незначитель­ной.

Скорость передачи информации по каналу в конечном счете определяется скоростью потока информации на выходе приемника. Если считать, что сообщение v(t) и помеха w* (t) на выходе приемника имеют нормальное распределение и рав­номерный спектр, то:

Здесь Fm — ширина спектра частот принимаемого сооб­щения, обычно равная полосе пропускания приемника по низ­кой частоте; Р* с средняя мощность принятого сообщения v(t); Р*ш— средняя мощность шума на выходе приемника.

 

6.11. Эффективность систем передачи информации

 

Пропускная способность канала связи С определяет мак­симальную скорость передачи информации, т. е. является тем пределом, которого можно достигнуть при идеальном кодиро­вании. Естественно, что в реальных каналах скорость переда­чи всегда будет меньше С. Степень отличия R от С зависит от того, насколько рационально выбрана и эффективно ис­пользуется та или иная система передачи информации. Наи­более общей оценкой эффективности системы передачи ин­формации является коэффициент использования канала:

В ряде практических случаев удобными оценками эффек­тивности системы является  коэффициент использования мощности сигнала:

Согласно выражению (6.87) для коэффициента использо­вания канала эффективность системы полностью определя­ется величиной ее избыточности, т. е. задача повышения эф­фективности системы передачи информации сводится

Согласно выражению (6.87) для коэффициента использо­вания канала эффективность системы полностью определя­ется величиной ее избыточности, т. е. задача повышения эф­фективности системы передачи информации сводится к задаче уменьшения избыточности сообщения и сиг­нала.

Избыточность сообщения обусловлена тем, что элемен­ты сообщения не являются равновероятными, и между ними имеется статистическая связь. При кодировании можно пере­распределить вероятности исходного сообщения так, чтобы распределение вероятностей символов кода приближалось к оптимальному (к равномерному в дискретном случае или к нормальному при передаче непрерывных сообщений). Такое перераспределение позволяет устранить избыточность, зави­сящую от распределения вероятностей элементов сообщения. Примером подобного кодирования является код Шеннона-Фано. Если перейти от кодирования отдельных символов сооб­щения к кодированию целых групп символов, то можно уст­ранить взаимосвязь между ними и тем самым еще уменьшить избыточность. Общая идея такого кодирования, который на­зывают методом укрупнения, состоит в следующем. Исходное сообщение разбивается на отрезки по k символов в каждом. Такие отрезки могут рассматриваться как укрупненные эле­менты сообщения. Можно показать, что вероятностные связи между такими укрупненными элементами слабее, чем между элементами исходного сообщения. Очевидно, чем больше   k (крупнее отрезки), тем слабее будет связь между ними. Далее укрупненные элементы кодируются с учетом их распределе­ния вероятностей.

Следует заметить, что при укрупнении элементов проис­ходит преобразование, состоящее в переходе к коду с более высоким основанием т1k, где т — первоначальное осно­вание.

Своеобразным примером метода укрупнения сообщений является стенографический текст. Каждый стенографический знак в этом тексте выражает целое слово или даже группу слов.

Что касается сигнала, то его избыточность зависит от спо­соба модуляции и от вида переносчика. Процесс модуляции обычно сопровождается расширением полосы частот сигнала по сравнению с полосой частот передаваемого сообщения. Это расширение полосы и является избыточным. Частотная из­быточность также увеличивается при переходе от синусои­дального переносчика к переносчику импульсному или шумо-подобному. С точки зрения повышения эффективности пере­дачи следовало бы выбирать такие способы модуляции, кото­рые имеют малую избыточность. К таким системам, в частно­сти, относится однополосная передача, в которой передаваемые сигналы не содержат частотной избыточности, — они явля­ются просто копиями передаваемых сообщений.

Однако, говоря об эффективности системы передачи ин­формации, нельзя забывать об ее помехоустойчивости. Уст­ранение избыточности повышает эффективность передачи, но снижает при этом достоверность (помехоустойчивость), и, на­оборот, сохранение или введение избыточности позволяет обес­печить высокую достоверность передачи. Например, при те­леграфной передаче текста устранение избыточности приво­дит к тому, что становится труднее исправлять ошибки в со­общении, и в конечном счете снижается помехоустойчивость. При сохранении избыточности в тексте помехоустойчивость будет выше.

При кодировании в ряде случаев избыточность специально вводится с целью повышения достоверности передачи. При­мером такого кодирования являются корректирующие коды, которые будут рассмотрены ниже.

Аналогичная ситуация имеет место и в отношении избы­точности сигнала. Частотная избыточность при различных видах модуляции используется по-разному. При частотной модуляции, например, мы можем получить больший выигрыш в помехоустойчивости, чем при амплитудной модуляции, а при кодовой импульсной модуляции этот выигрыш будет еще боль­ше. Частотная избыточность шумового переносчика позволя­ет снизить влияние замираний и сосредоточенных помех.

Следовательно, при оценке систем передачи информации необходимо учитывать по крайней мере два показателя: эф­фективность и помехоустойчивость; совокупность этих двухпоказателей составляет достаточно полную характеристику системы.

Наиболее совершенной системой передачи информа­ции считается такая, которая обеспечивает наиболь­шую эффективность при заданной помехоустойчивос­ти или, наоборот, обеспечивает наибольшую помехоус­тойчивость при заданной эффективности.

 

Контрольные вопросы и задания

 

1.  Как вводится логарифмическая мера информации и какими свойствами она обладает?

2. Дайте определение понятию ансамбля сообщений.

3.  Что называется энтропией и как она определяется для ис­точников независимых и зависимых сообщений?

4. Каковы причины появления избыточности в сообщении?

5.  Какие источники сообщения называются стационарными и эргодическими?

6.  Что называется пропускной способностью канала? Чему она равна для двоичного канала без помех?                                            ,

7.  Поясните принцип оптимального статистического кодировав ния.

8.  Как определяется скорость передачи и пропускная способ­ность канала с помехами?

9. Какие выводы следуют из теоремы Шеннона для дискретно­го канала с помехами?

10.  Как определяется количество передаваемой информации в непрерывных каналах?

11.  Проанализируйте формулу Шеннона для пропускной спо­собности непрерывного канала.

12. Сформулируйте теорему Шеннона для непрерывного кана­ла и поясните ее смысл.

13. Что называется эффективностью системы передачи инфор­мации и как она определяется количественно?

14.  Поясните зависимость между помехоустойчивостью и эф­фективностью системы передачи информации.

 

ГЛАВА  7

ПОМЕХОУСТОЙЧИВОЕ КОДИРОВАНИЕ

 

7.1. Классификация корректирующих Кодов

 

В каналах с помехами эффективным средством повыше­ния достоверности передачи сообщений является помехоус­тойчивое кодирование. Оно основано на применении специ­альных кодов, которые корректируют ошибки, вызванные дей­ствием помех. Код называется корректирующим, если он позволяет обнаруживать и исправлять ошибки при приеме сообщений. Код, посредством которого только обнаруживают­ся ошибки, носит название обнаруживающего кода. Исправ­ление ошибки при таком кодировании обычно производится путем повторения искаженных сообщений. Запрос о повторе­нии передается по каналу обратной связи. Код, исправляю­щий обнаруженные ошибки, называется исправляющим ко­дом. В этом случае фиксируется не только сам факт наличия ошибок, но и устанавливается, какие кодовые символы при­няты ошибочно, что позволяет их исправить без повторной передачи. Известны такие коды, в которых исправляется толь­ко часть обнаруженных ошибок, а остальные ошибочные ком­бинации передаются повторно.

Для того чтобы код обладал корректирующими способно­стями, в кодовой последовательности должны содержаться до­полнительные (избыточные) символы, предназначенные для корректирования ошибок. Чем больше избыточность кода, тем выше его корректирующая способность.

Помехоустойчивые коды могут быть построены с любым основанием. Ниже рассматриваются только двоичные коды, теория которых разработана наиболее полно.

В настоящее время известно большое количество коррек­тирующих кодов, отличающихся как принципами построения, так и основными характеристиками. Рассмотрим их простей­шую классификацию, дающую представление об основных группах, к которым принадлежит большая часть известных кодов.

Все известные в настоящее время коды могут быть раз­делены на две большие группы: блочные и непрерывные. Блочные коды характеризуются тем, что последовательность передаваемых символов разделена на блоки. Операции коди­рования и декодирования в каждом блоке производятся от­дельно. Отличительной особенностью непрерывных кодов яв­ляется то, что первичная последовательность символов, несу­щих информацию, непрерывно преобразуется по определен­ному закону в другую последовательность, содержащую из­быточное число символов. Здесь процессы кодирования и декодирования не требуют деления кодовых символов на блоки.

Разновидностями как блочных, так и непрерывных кодов являются разделимые и неразделимые коды. В раздели­мых кодах всегда можно выделить информационные сим­волы, содержащие передаваемую информацию, и контроль­ные (проверочные) символы, которые являются избыточны­ми и служат исключительно для коррекции ошибок. В нераз­делимых кодах такое разделение провести невозможно.

Наиболее многочисленный класс разделимых кодов со­ставляют линейные коды. Основная их особенность состоит в том, что контрольные символы образуются как линейные комбинации информационных символов.

В свою очередь, линейные коды могут быть разбиты на два подкласса: систематические и несистематические. Все двоичные систематические коды являются групповыми. Последние характеризуются принадлежностью кодовых комби­наций к группе, обладающей тем свойством, что сумма по мо­дулю два любой пары комбинаций снова дает комбинацию, принадлежащую к этой группе. Линейные коды, которые не могут быть отнесены к подклассу систематических, называ­ются несистематическими.

 

7.2. Принципы помехоустойчивого кодирования

 

В теории помехоустойчивого кодирования важным явля­ется вопрос об использовании избыточности .для корректиро­вания возникающих при передаче ошибок. Здесь удобно рас­смотреть блочные коды, в которых всегда имеется возмож­ность выделить отдельные кодовые комбинации. Для равно­мерных кодов, которые в дальнейшем только и будут изу­чаться, число возможных комбинаций равно М = 2n , где п - значность кода.

В обычном некорректирующем коде без избыточности, на­пример, в коде Бодо, число комбинаций М выбирается рав­ным числу сообщений алфавита источника Мо, и все комби­нации используются для передачи информации. Корректиру­ющие коды строятся так, чтобы число комбинаций М превы­шало число комбинаций источника М0. Однако в этом случае лишь Мо комбинаций из общего числа используются для пе­редачи информации. Эти комбинации называются разрешен­ными, а остальные М — Мо комбинации носят название зап­рещенных. На приемном конце в декодирующем устройстве известно, какие комбинации являются разрешенными и ка­кие — запрещенными. Поэтому если переданная разрешен­ная комбинация в результате ошибки преобразуется в неко­торую запрещенную комбинацию, то такая ошибка будет об­наружена, а при определенных условиях — исправлена. Ес­тественно, что ошибки, приводящие к образованию другой раз­решенной комбинации, не обнаруживаются.

Различие между комбинациями равномерного кода при­нято характеризовать расстоянием, равным числу симво­лов, которыми отличаются комбинации одна от другой. Рас­стояние dtj между двумя комбинациями Ai и Aj определяет­ся количеством единиц в сумме этих комбинаций по модулю два.

 Например:

Для любого кода dij n. Минимальное различие между разрешенными комбинациями в данном коде называется ко­довым расстоянием d.

Расстояние между комбинациями Ai и Aj условно обо­значено на рис. 7.1а, где показаны промежуточные комбина­ции, отличающиеся друг от друга одним символом. В общем случае некоторая пара разрешенных комбинаций Ар1 и Ар2, разделенных кодовым расстоянием d, изображается на пря­мой рис. 7.16, где точками указаны запрещенные комбинации. Для того чтобы в результате ошибки комбинация Ар1 преоб­разовалась в другую разрешенную комбинацию Ар2, должно исказиться d символов. При искажении меньшего числа сим­волов комбинация Ар1 перейдет в запрещенную комбинацию, и ошибка будет обнаружена. Отсюда следует, что ошибка все­гда обнаруживается, если ее кратность, т. е. число искажен­ных символов в кодовой комбинации:

Если g <d, то некоторые ошибки также обнаруживают­ся. Однако полной гарантии обнаружения ошибок здесь нет, так как ошибочная комбинация в этом случае может совпасть с какой-либо разрешенной комбинацией. Минимальное кодо­вое расстояние, при котором обнаруживаются любые одиноч­ные ошибки, d = 2.

Процедура исправления ошибок в процессе декодирова­ния сводится к определению переданной комбинации по из­вестной принятой. Расстояние между переданной разрешен­ной комбинацией и принятой запрещенной комбинацией d0 равно кратности ошибок g. Если ошибки в символах комби­нации происходят независимо относительно друг друга, то ве­роятность искажения некоторых g -символов в п -значной ком­бинации будет равна:

где Ро — вероятность искажения одного символа. Так как обыч­но Ро<<1, то вероятность многократных ошибок уменьшает­ся с увеличением их кратности, при этом более вероятны мень­шие расстояния d0. В этих условиях исправление ошибок мо­жет производиться по следующему правилу. Если принята запрещенная комбинация, то считается переданной ближай­шая разрешенная комбинация. Например, пусть образовалась запрещенная комбинация Ао (см. рис. 7.16), тогда принимает­ся решение, что была принята комбинация А1. Это правило декодирования для указанного распределения ошибок явля­ется оптимальным, так как оно обеспечивает исправление мак­симального количества ошибок. (В общем случае оптимальное правило декодирования зависит от распределения ошибок.)

Аналогичное правило используется в теории потенциальной помехоустойчивости при оптимальном приеме дискретных сиг­налов, когда решение сводится к выбору того переданного сиг­нала, который в наименьшей степени отличается от принято­го. Нетрудно определить, что при таком правиле декодирова­ния будут исправлены все ошибки кратности:

Минимальное значение d , при котором еще возможно ис­правление любых одиночных ошибок, равно 3.

Возможно также построение таких кодов, в которых часть ошибок исправляется, а часть только обнаруживается. Так, в соответствии с рис. 7.1в ошибки кратности gdи исправля­ются, а ошибки, кратность которых лежит в пределах dи gddи, только обнаруживаются. Что касается оши­бок, кратность которых сосредоточена в пределах d -d gd ,то они обнаруживаются, однако при их исправ­лении принимается ошибочное решение — считается пере­данной комбинация Ар2 вместо Ар1, или наоборот.

Существуют двоичные системы передачи информации, в которых решающее устройство выдает, кроме обычных сим­волов 0 и 1, еще и так называемый символ стирания θ. Этот символ соответствует приему сомнительных сигналов, когда затруднительно принять определенное решение в отношении того, какой из символов 0 или 1 был передан. Принятый сим­вол в этом случае стирается. Однако при использовании кор­ректирующего кода возможно восстановление стертых символов. Если в кодовой комбинации число символов θ оказалось равным gc, причем                                                         

а остальные символы приняты без ошибок, то такая комбинация полностью восстанавливается. Действительно, для восстановления всех символов θ необходимо перебрать всевозмож­ные сочетания из gc символов типа 0 и 1. Естественно, что

все эти сочетания, за исключением одного, будут неверными. Но так как в неправильных сочетаниях кратность ошибок g gc d — 1, то согласно неравенству (7.1) такие ошибки об­наруживаются. Другими словами, в этом случае неправильно восстановленные сочетания из gc -символов совместно с пра­вильно принятыми символами образуют запрещенные комби­нации, и только одно сочетание стертых символов дает раз­решенную комбинацию, которую и следует считать как пра­вильно восстановленную.

Если gc > d — 1, то при восстановлении окажется несколь­ко разрешенных комбинаций, что не позволит принять одно­значное решение.

Таким образом, при фиксированном кодовом расстоянии максимально возможная кратность корректируемых ошибок достигается в кодах, которые обнаруживают ошибки или вос­станавливают стертые символы. Исправление ошибок пред­ставляет собой более трудную задачу, практическое решение которой сопряжено с усложнением кодирующих и декодиру­ющих устройств. Поэтому исправляющие коды обычно исполь­зуются для корректирования ошибок малой кратности.

Корректирующая способность кода возрастает с увели­чением d . При фиксированном числе разрешенных комбина­ций Мо увеличение d возможно лишь за счет роста количе­ства запрещенных комбинаций:

что, в свою очередь, требует избыточного числа символов r = п —k, где k — количество символов в комбинации кода без избыточности. Можно ввести понятие избыточности кода и количественно определить, как:

При независимых ошибках вероятность определенного со­четания g ошибочных символов в п -значной кодовой комби­нации выражается формулой (7.2), а количество всевозможных сочетаний ошибочных g-символов в комбинации зави­сит от ее длины и определяется известной формулой числа сочетаний:

 

Анализ формулы (7.8) показывает, что при малой величине Р0 и сравнительно небольших значениях п наиболее вероятны ошибки малой кратности, которые и необходимо кор­ректировать в первую очередь.

Вероятность Рош, избыточность æ и число символов n являются основными характеристиками корректирующего кода, определяющими, насколько удается повысить помехоу­стойчивость передачи дискретной информации и какой ценой это достигается.

Общая задача, которая ставится при создании кода, зак­лючается в достижении наименьших значений Рош и æ. Це­лесообразность применения того или иного кода зависит так­же от сложности кодирующих и декодирующих устройств, которая, в свою очередь, зависит от п. Во многих практичес­ких случаях эта сторона вопроса является решающей. Часто, например, используются коды с большой избыточностью, но обладающие простыми правилами кодирования и декодиро­вания.

В соответствии с общими принципами корректирования ошибок, основанных на использовании разрешенных и запре­щенных комбинаций, необходимо сравнивать принятую ком­бинацию со всеми комбинациями данного кода. В результате М сопоставлений и принимается решение о переданной ком­бинации. Этот способ декодирования логически является наи­более простым, однако он требует сложных устройств, так как в них должны запоминаться М комбинаций кода. Поэто­му на практике чаще всего используются коды, которые по­зволяют с помощью ограниченного числа преобразований при­нятых кодовых символов извлечь из них всю информацию о корректируемых ошибках.

 

7.3. Систематические коды

 

 

Систематические коды относятся к блочным раздели­мым кодам, т. е. к кодам, где операция кодирования осуще­ствляется независимо в пределах каждой комбинации, состо­ящей из информационных и контрольных символов.

Остановимся кратко на общих принципах построения си­стематических кодов. Если обозначить информационные сим­волы буквами с, контрольные — буквами е, то любую кодо­вую комбинацию, содержащую k  информационных и r конт­рольных символов, можно представить последовательностью:

Полученное число X называется контрольным числом или синдромом. С его помощью можно обнаружить или ис­править часть ошибок. Если ошибки в принятой комбинации отсутствуют, то все суммы xj = éе''j, а следовательно, и контрольное число X будет равным нулю. При появлении ошибок некоторые значения x могут оказаться равными 1. В этом случае X ≠ 0, что и позволяет обнаруживать ошибки. Таким образом, контрольное число X определяется пу­тем г проверок на четность.

Для исправления ошибок знание одного факта их воз­никновения является недостаточным, необходимо указать но­мер ошибочно принятых символов. С этой целью каждому со­четанию исправляемых ошибок в комбинации присваивается одно из контрольных чисел, что позволяет по известному кон­трольному числу определить местоположение ошибок и ис­править их.

Контрольное число X записывается в двоичной системе, поэтому общее количество различных контрольных чисел, от­личающихся от нуля, равно 2' —1. Очевидно, это количество должно быть не меньше числа различных сочетаний ошибоч­ных символов, подлежащих исправлению. Например, если код предназначен для исправления одиночных ошибок, то число различных вариантов таких ошибок равно k + r. В этом слу­чае должно выполняться условие:

Формула (7.11) позволяет при заданном количестве ин­формационных символов к определить необходимое число кон­трольных символов г , с помощью которых исправляются все одиночные ошибки.

 

7.4. Код с четным числом единиц. Инверсный код

 

Рассмотрим некоторые простейшие систематические коды, применяемые только для обнаружения ошибок. Одним из ко­дов подобного типа является код с четным числом единиц. Каждая комбинация этого кода содержит помимо информа­ционных символов один контрольный символ, выбираемый равным 0 или 1 так, чтобы сумма единиц в комбинации все­гда была четной. Примером могут служить пятизначные ком­бинации кода Бодо, к которым добавляется шестой конт­рольный символ: 10101,1 и 01100,0. Правило вычисления контрольного символа можно выразить на основании (7.9) в следующей форме:

Это позволяет в декодирующем устройстве сравнительно просто производить обнаружение ошибок путем проверки на четность. Нарушение четности имеет место при появлении однократных, трехкратных и, в общем случае, ошибок нечет­ной кратности, что и дает возможность их обнаружить. Появ­ление четных ошибок не изменяет четности суммы (7.12), по­этому такие ошибки не обнаруживаются.

На основании (7.8) вероятность необнаруженной ошибки равна:

К достоинствам кода следует отнести простоту кодирующих и декодирующих устройств, а также ма­лую избыточность æ =1/(1 +k), однако последнее опре­деляет и его основной недостаток сравнительно низ­кую корректирующую способность.

Значительно лучшими корректирующими способностями обладает инверсный код, который также применяется только для обнаружения ошибок. С принципом построе­ния такого кода удобно ознакомиться на примере двух комби­наций: 11000,11000 и 01101,10010. В каждой комбина­ции символы до запятой являются информационными, а пос­ледующие — контрольными. Если количество единиц в ин­формационных символах четное, т. е. сумма этих символов:

равна нулю, то контрольные символы представляют собой про­стое повторение информационных. В противном случае, когда число единиц нечетное и сумма (7.13) равна 1, контрольный символы получаются из информационных посредством инвер­тирования, т. е. путем замены всех 0 на 1, а 1 на 0. Матема­тическая форма записи образования контрольных символов имеет вид:

При декодировании происходит сравнение принятых ин­формационных и контрольных символов. Если сумма единиц в принятых информационных символах четная, т. е.:

то соответствующие друг другу информационные и конт­рольные символы суммируются по модулю два. В противном случае, когда с' = 1, происходит такое же суммирование, но с инвертированными контрольными символами. Другими сло­вами, в соответствии с (7.10) производится r проверок на чет­ность:

Ошибка обнаруживается, если хотя бы одна проверка на четность дает 1.

Анализ показывает, что при k5 наименьшая кратность не обнаруживаемой ошибки g = 4. Причем не обнаруживают­ся только те ошибки четвертой кратности, которые искажают одинаковые номера информационных и контрольных симво­лов. Например, если передана комбинация 10100,10100, а принята 10111,10111, то такая четырехкратная ошибка об­наружена не будет, так как здесь все значения xj равны 0. Вероятность необнаружения ошибок четвертой кратности оп­ределяется выражением:

Для g > 4 вероятность необнаруженных ошибок еще мень­ше. Поэтому при достаточно малых вероятностях ошибочных символов Ро можно полагать, что полная вероятность необна­руженных ошибок Рош Рош4.

Инверсный код обладает высокой обнаруживающей способностью, однако она достигается ценой сравни­тельно большой избыточности, которая, как нетрудно определить, составляет величину æ= 0,5 .