Министерство образования Российской Федерации Государственное образовательное учреждение высшего профессионального образ...
53 downloads
176 Views
943KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Министерство образования Российской Федерации Государственное образовательное учреждение высшего профессионального образования Таганрогский государственный радиотехнический университет
В.И.ФИНАЕВ ОБРАБОТКА И ПЕРЕДАЧА СИГНАЛОВ В СИСТЕМАХ ДИСТАНЦИОННОГО УПРАВЛЕНИЯ Допущено Учебно-методическим объединением вузов по образованию в области автоматизированного машиностроения (УМО АМ) в качестве учебного пособия для студентов высших учебных заведений, обучающихся по направлению подготовки дипломированных специалистов – «Автоматизированные технологии и производства» (специальность 210200 – «Автоматизация технологических процессов и производств (в энергетике))».
Таганрог 2003
2 УДК 681.3 В.И. Финаев. Обработка и передача сигналов в системах дистанционного управления: Учебное пособие. Таганрог: Изд-во ТРТУ, 2003. 123 с.
В учебном пособии изучаются принципы построения каналов передачи дискретной информации, изложены основы теории сигналов, изучаются методы дискретизации и квантования сигналов, спектры сигналов. Изложены основы кодирования и декодирования информации и основы построения кодирующих и декодирующих устройств циклических кодов. Уделено внимание основам построения систем передачи дискретной информации с решающей и информационной обратными связями. Пособие предназначено для студентов высших учебных заведений, обучающихся решению задач автоматизации технологических процессов. Табл. 10. Ил. 82. Библиогр.: 12 назв.
Рецензенты: Кафедра «Автоматики и телемеханики» ЮРГТУ, зав. кафедрой Лачин В.И.; А.Н. Гуда, зав. кафедрой «Информатика» РГУПС; В.М.Курейчик, директор регионального (областного) центра новых информационных технологий, проректор по научной работе ТРТУ.
©
Таганрогский государственный радиотехнический университет, 2003
3 Содержание Введение ГЛАВА 1. КАНАЛЫ ПЕРЕДАЧИ ИНФОРМАЦИИ 1. ОСНОВНЫЕ ПОНЯТИЯ 1.1 Определение системы передачи информации 1.2. Классификация каналов связи 1.3. Описание непрерывного канала 1.4. Помехи в каналах связи 1.5. Описание дискретного канала 1.5.1. Описание приема сигналов 1.5.2. Описание источника ошибок 2. ОСНОВЫ ОПИСАНИЯ ДИСКРЕТНЫХ КАНАЛОВ 2.1. Состояния дискретного канала 2.2. Пакеты ошибок 2.3. Критерии описания реальных дискретных каналов 3. ОСНОВНЫЕ МОДЕЛИ ИСТОЧНИКОВ ОШИБОК 3.1. Описание источника ошибок на основе цепей Маркова 3.2. Описание источника ошибок на основе процессов восстановления 3.3. Описание источника ошибок на основе процессов накопления
6 7 7 7 8 10 11 12 12 13 14 14 16 17 17 17
3.4. Сопоставление основных моделей 4. ЧАСТНЫЕ МОДЕЛИ ИСТОЧНИКОВ ОШИБОК 4.1. Модель Гилберта 4.2. Модель Эллиота-Гилберта 4.3 Модель Элиота 4.4. Модель Беннета – Фройлиха 4.5. Модель Попова – Турина ГЛАВА 2. ОСНОВЫ ТЕОРИИ СИГНАЛОВ 1. МАТЕМАТИЧЕСКОЕ ПРЕДСТАВЛЕНИЕ СИГНАЛОВ 1.1 Сообщения, сигналы и помехи, как случайные процессы 1.2. Система базисных функций 2. ДИСКРЕТИЗАЦИЯ И КВАНТОВАНИЕ СИГНАЛОВ 2.1. Общие положения 2.2. Регулярность отсчетов 2.3. Критерий оценки точности 2.4. Способы воспроизведения сигнала 2.4.1. Выбор шага дискретизации по временным характеристикам сигнала 2.4.2. Выбор шага дискретизации по производным сигнала 2.4.3. Выбор шага дискретизации по вероятностным
21 21 21 22 22 23 23 24 24 24 27 29 29 29 30 30
18
19
32 34
4 характеристикам сигнала 38 2.5. Квантование сигнала ГЛАВА 3. СПЕКТРЫ СИГНАЛОВ 1. ЧАСТОТНАЯ ОБЛАСТЬ ПРЕДСТАВЛЕНИЯ СИГНАЛОВ 1.1. Разложение периодической функции в ряд Фурье 1.2. Представление произвольной периодической функции рядом Фурье 1. 3. Комплексный спектр сигнала 1.4. Представление произвольной функции на бесконечном интервале 2. СПЕКТР ПЛОТНОСТИ ЭНЕРГИИ 3. СПЕКТР ПЛОТНОСТИ МОЩНОСТИ ГЛАВА 4. ПРИНЦИПЫ ПОСТРОЕНИЯ МОДЕМОВ 1. ВИДЫ МОДУЛЯЦИИ 2. СПЕКТРЫ МОДУЛИРОВАННЫХ СИГНАЛОВ 2.1. Спектры сигналов, модулированных по амплитуде 2.2. Спектры сигналов, модулированных по частоте 2.3. Спектры сигналов, модулированных по фазе 2.4. Одновременная модуляция по амплитуде и частоте 2.5. Спектры манипулированных сигналов 2.5.1. Амплитудная манипуляция
39 42 42 42 43 44 45 48 48 50 50 52 52 54 57 57 58
58 2.5.2. Частотная манипуляция 59 2.5.3. Фазовая манипуляция 3. ПРИНЦИП ДЕЙСТВИЯ ДИСКРЕТНЫХ КАНАЛОВ 3.1. Принципы построения многоканальных систем 3.2. Принцип действия канала с амплитудной манипуляцией 3.3. Принцип действия канала с частотной манипуляцией 3.4. Принцип действия канала с относительной фазовой модуляцией ГЛАВА 5. КОДИРОВАНИЕ ИНФОРМАЦИИ 1. ПЕРВИЧНЫЕ КОДЫ 1.1. Простой, безизбыточный код 1.2. Коды по законам комбинаторики 1.2.1. Коды по закону размещений 1.2.2. Коды по закону сочетаний 1.2.3. Коды по закону перестановок 1.2.4. Сменно–качественные коды 2. ПОМЕХОУСТОЙЧИВЫЕ КОДЫ 2.1. Основные понятия 2.2. Оценка корректирующих свойств кода
59 61 61 63 64 67 70 70 70 71 71 71 71 72 72 72 74
5 2.3. Коды для обнаружения одиночных ошибок 74 2.3.1. Код с контролем на четность (нечетность) 2.3.2. Код с постоянным весом 2.3.3. Корреляционный код 2.3.4. Код с инверсным дополнением 3. ГРУППОВЫЕ КОДЫ 3.1. Определение групповых кодов 3.2. Проверочная матрица 3.3. Условия обнаружения и исправления ошибок 4. ЦИКЛИЧЕСКИЕ КОДЫ 4.1. Сведения из алгебры полиномов 4.2. Построение циклических кодов 4.3.Методы обнаружения и исправления ошибок 5. КОДИРУЮЩИЕ УСТРОЙСТВА 5.1. Линейные переключательные схемы 5.1.1. Устройство умножения 5.1.2. Устройство деления 5.1.3. Устройство одновременного умножения и деления 5.2. Методы кодирования циклических кодов 5.2.1. Модель 1 5.2.2. Модель 2 5.2.3. Модель 3 6. ДЕКОДИРОВАНИЕ ЦИКЛИЧЕСКИХ КОДОВ 6.1. Устройство декодирования для режима обнаружения ошибок 6.2. Устройство декодирования для режима исправления ошибок 6.2.1. Параллельный метод определения ошибок 6.2.2. Последовательный метод определения ошибок ГЛАВА 6. ПРИНЦИПЫ ПОСТРОЕНИЯ СИСТЕМ ПЕРЕДАЧИ ИНФОРМАЦИИ 1. СИНХРОНИЗАЦИЯ И ФАЗИРОВАНИЕ 1.1. Общее понятия 1.2. Метод приема сигналов с неопределенной фазой 1.3. Классификация устройств синхронизации 1.4. Требования к устройствам фазирования по циклам 2. МЕТОДЫ ПОВЫШЕНИЯ ВЕРНОСТИ 2.1. Требования к системам передачи дискретной информации 2.2. Системы без обратной связи 2.3. Системы с обратной связью 3.СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ С РЕШАЮЩЕЙ ОБРАТНОЙ СВЯЗЬЮ 3.1. Система с РОС и ожиданием 3.2. Система с РОС и непрерывной передачей информации
74 75 75 75 75 75 78 80 81 81 82 84 87 87 87 88 90 90 90 90 92 94 94 96 96 98 102 102 102 103 105 107 109 109 110 111 113 113 117
6 4.СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ С ИНФОРМАЦИОННОЙ ОБРАТНОЙ СВЯЗЬЮ БИБЛИОГРАФИЧЕСКИЙ СПИСОК
119 122
7
Введение Специалисты по автоматизации технологических процессов должны знать и понимать процессы преобразования сигналов при передаче информации от датчиков, оконечного оборудования данных к управляющей ЭВМ, контроллерам или другим устройствам обработки информации. При проектировании информационно-управляющих систем, автоматизированных систем управления технологическими процессами (АСУ ТП) необходимо понимать процессы передачи и преобразования сигналов, обрабатывать сигналы, находить их модели, решать задачи, связанные с проектированием систем передачи дискретной информации для АСУ ТП. Студент должен знать и уметь использовать: фундаментальные положения теории информации; методы построения избыточных кодов; передачи непрерывной информации с оценкой ошибок дискретизации по времени и по амплитуде; принципы согласования производительности источника с пропускной способностью канала связи, принципы построения систем передачи информации; возможности информационного подхода к оценке качества функционирования систем. Данное пособие содержит шесть глав. В первой главе изучаются принципы построения каналов передачи дискретной информации, модели дискретного канала и ошибок в канале связи. Во второй главе изучаются математические модели сигналов, изложены принципы дискретизации и квантования сигналов. В третьей главе изучаются спектры сигналов. В четвертой главе пособия излагаются принципы построения модуляторов и демодуляторов. Рассматриваются спектры модулированных и манипулированных сигналов, а также некоторые типовые функциональные схемы для амплитудной, частотной и фазовой манипуляций. В пятой главе изложены основы кодирования и декодирования информации. Рассмотрены первичные коды, коды, обнаруживающие и исправляющие ошибки на примере групповых кодов. Изложены основы построения кодирующих и декодирующих устройств циклических кодов. В шестой главе изложены принципы построения систем передачи дискретной информации. Уделено внимание принципам построения систем передачи дискретной информации с решающей и информационной обратными связями.
8
ГЛАВА 1 КАНАЛЫ ПЕРЕДАЧИ ИНФОРМАЦИИ 1. ОСНОВНЫЕ ПОНЯТИЯ 1.1 Определение системы передачи информации Система передачи дискретной информации (СПДИ) - основной элемент автоматизированных систем управления технологическими процессами (АСУ ТП), информационно-управляющих систем (ИУС) и любых других систем, в которых существуют процессы передачи и преобразования информации. На рис.1.1 приведена обобщенная структурная схема СПДИ. ИС
Пер 1
Прямой КС
Пр 1
ПИ
ИО
Пр 2
Обр. КС
Пер 2
ИС – источник сообщений; ПИ – получатель информации; ИО – источник ошибок; Пер.1, Пер.2 – передатчики сообщений; Пр.1, Пр.2 – приемники сообщений; КС – канал связи Рис.1.1 СПДИ - совокупность передатчиков, приемников и каналов, обеспечивающих обмен сообщениями между двумя пунктами или передачу сообщения от одного пункта к другому. Сообщения в прямом канале и в обратном канале искажаются под воздействием помех. Искажения рассматриваются как внесение ошибок в передаваемую информацию. Одной из основных задач является построение модели источника ошибок. Поток сообщения от ИС следует рассматривать как случайный поток. Каналом передачи информации называют совокупность устройств, обеспечивающих передачу сигналов от одного пункта к другому. При построении СПДИ канал является заданным звеном, ИС и ПС согласуются с КС посредством передатчика и приемника. ИО вызывает искажения информации. Чтобы восстановить искаженную информацию, необходимо применение кодирования.
9 КС – это линия связи, на концах которой находится оборудование, производящее оконечную обработку данных преобразователем сообщений (модемы, фильтры и усилители). Передатчик – это устройство, которое преобразует сообщение X(t) в сигнал S(t). Приемник – это устройство, которое преобразует сообщение S*(t) в сообщение X*(t). На рис.1.2 приведена структурная схема однонаправленного КС. ЛС ИС
ПИ
Ш
К
ДШ
М
ДК
ЛУ
ДМ
ЛУ
Ш – шифратор, К – кодер, М – модем, ЛУ – линейное устройство, ЛС – линия связи, ДМ – демодулятор, ДК – декодер, ДШ - дешифратор Рис.1.2 Шифратор преобразует сообщение в безызбыточный код. Кодер преобразует безызбыточный код в помехозащищенный код, добавляет контрольные символы. Модулятор преобразует сигналы в форму, удобную для передачи по КС. На выходе модулятора будет аналоговый сигнал. Демодулятор преобразует аналоговый сигнал в дискретный. Декодер декодирует код и корректирует ошибки. На выходе дешифратор преобразует код в сообщение. Кодер образует устройство защиты ошибок (УЗО) передатчика, а декодер – УЗО приемника. Модулятор и ЛУ образуют устройство преобразования сигналов (УПС) передатчика, а ЛУ и демодулятор – УПС приемника. Отождествление принимаемого элементарного сигнала с определенным кодовым символом выполняется в первой решающей схеме (выход демодулятора). Преобразование кодовых символов в сообщение осуществляется с помощью второй решающей схемы (выход дешифратора).
1.2. Классификация каналов связи Если КС обеспечивает передачу только в одном направлении, то он называется симплексным. Если КС обеспечивает передачу информации в двух противоположных направлениях в разные интервалы времени, то он называется полудуплексным. Если КС обеспечивает передачу информации в
10 двух противоположных направлениях в одно и то же время, то он называется дуплексным. Классифицируют КС по различным признакам [3]: - по используемым линиям связи (кабельные, проводные, радиорелейные, тропосферные и прочее); - по полосе частот сигнала в ЛС (тональные, высокочастотные, коротковолновые, ультракоротковолновые, световые и т.д.); - по техническому характеру сигналов и назначению систем связи (телефонные, телеграфные, телевизионные, звукового вещания, фототелеграфные, передачи цифровой информации, телеметрии, телекомандные и т.д.); - по математическому описанию (непрерывные и дискретные каналы, непрерывного и дискретного времени). Типичными непрерывными каналами непрерывного времени (непрерывный канал) являются: - непосредственно ЛС с усилительным или ретрансляционным оборудованием; - ЛС с модуляционным или демодуляционным оборудованием. Непрерывный канал дискретного времени состоит из непрерывного канала непрерывного времени и подключенных к нему на обоих концах синхронизирующих стробирующих устройств, отсчитывающих передаваемые и принимаемые сигналы. На рис.1.3 приведено пояснение классификации непрерывных и дискретных каналов. Дискретный канал обычно дискретен во времени (дискретный канал). Он состоит из непрерывного канала и подключенных к нему формирователя сигнала (дискретного демодулятора) и решающего устройства. b(t)
Формирователь сигналов
u(t)
Непрерывный канал
u*(t)
Решающее устройство
b*(t)
Дискретно – непрерывный канал Непрерывно-дискретный канал Дискретный канал
Рис.1.3 В зависимости от скорости передачи по КС информацию делят на три группы: - информация, передаваемая по стандартным телеграфным каналам со скоростью, достигающей 200 бод (бит/с) (низкоскоростные); - информация, передаваемая по стандартным телеграфным каналам тональной частоты со скоростями 200 - 1000 бод (среднескоростные);
11 - информация, передаваемая по широкополосным каналам со скоростями, превышающими 10000 бод (высокоскоростные). Исходя из выделяемой полосы частот, КС делятся следующим образом: - каналы тональной частоты (0,3 - 3,4 кГц); - каналы предгрупповых трактов (12 - 24 кГц); - каналы групповых трактов (60-108 кГц); - каналы вторичных групповых трактов (312-552 кГц); - каналы третичных групповых трактов (812-2044 кГц); - каналы групповых трактов более высоких порядков; - широкополосные каналы на базе вышеперечисленных групповых трактов; - каналы вещания; - каналы телевидения. По назначению каналы делятся на кабельные, радиолинейные, тропосферные, оптоволоконные и т.д. Современные высокочастотные системы передачи информации по коаксиальному кабелю имеют 2700, 3600 и даже 10800 каналов.
1.3. Описание непрерывного канала Пропускная способность С определяется наибольшей возможной скоростью передачи информации. Скоростью передачи информацию называется отнесенное к единице времени количество взаимной информации между передаваемым сигналом S(t) и принимаемым сигналом S*(t) I’(S,S*)=I(S,S*)=H’(S) - H’(S/S*)=H’(S*) - H’(S*/S), ’ где H (S) и H’(S*) – энтропии входного и выходного сигналов, H’(S/S*) и H’(S*/S) – условные энтропии. Если входной сигнал u(t) узкополосный, то его можно представить в квазигармонической форме u(t)=A(t)cos(w0t+Ф(t)), где A(t) и Ф(t) - медленно меняющиеся функции. При достаточно малом времени задержки τ в КС сигнал на выходе канала определится формулой u*(t)=kA(t-τ)cos[w0(t-τ)+Ф(t-τ)]≈kA(t)cos[w0t+Ф(t)+ϕk], где ϕk=w0τ - фазовый сдвиг в КС. Если u(t) - случайный процесс, а ЛС как линейная цепь с постоянными параметрами характеризуется своей импульсной реакцией g(t),то процесс на выходе непрерывного КС определится формулой ∞
U * (t ) =
∫ g(τ)u(t − τ)dτ .
−∞
12 – сигнал на выходе Пусть u(t) – сигнал на входе, а u*(t) непрерывного КС. Ограничения на входной сигнал задают указанием допустимой пиковой мощности и средней мощности передаваемых сигналов, а также указанием полосы передаваемых частот от fН до fВ. Величина F=fВ-fН называется шириной полосы пропускания канала. Преобразование u(t)→u*(t) сводится к четырем факторам: - изменение масштаба (усиление или ослабление); - смещение во времени (задержка); - искажения формы; - воздействие помех. Эквивалентная схема замещения непрерывного КС представлена на рис.1.4 [3]. u(t)
Перемножитель
u(t)η(t)
Сумматор
u(t)η(t)+ε(t)
Идеальный фильтр
u*(t)
η(t) Источник мультипликативной помехи
Источник аддитивной помехи
Рис.1.4
1.4. Помехи в каналах связи Помеха – мешающий передаче сигналов фактор. Совокупность мешающих факторов классифицируют в зависимости от характера воздействия на сигнал, причины и места возникновения, спектрального состава и методики оценки. По характеру воздействия различают аддитивную и мультипликативную помехи. При аддитивных помехах некоторая электрическая величина uп(t) суммируется с сигналом u*(t)=uс(t)+uп(t). Степень воздействия определяется соотношением мощностей сигнала и помехи. Аддитивная помеха обуславливается возникновением в КС случайных ЭДС. Основными причинами аддитивных помех являются различного рода флуктуации, конструктивные недостатки аппаратуры, помехи за счет попутных сигналов и нелинейных переходов.
13 Мультипликативная помеха рассматривается как электрическая величина, воздействие которой определяется - u*(t)=uс(t)× uп(t). Мультипликативные помехи обуславливаются случайными изменениями коэффициентов передачи КС. Основные причины мультипликативных помех: неточная компенсация изменений амплитудно-частотной характеристики (АХЧ) линейного тракта системами автоматического регулирования уровня (АРУ) сигнала; - неисправность в устройствах АРУ; - ошибочные действия технического персонала; - нарушения контактов в местах соединений; - переключения генераторного оборудования; - переключения дистанционного и станционного питания. Наиболее распространенной моделью непрерывного КС с аддитивной помехой является гауссовый канал. Помеха в нем аддитивна (η(t)=1) и представляет собой нормальный эргодический процесс с нулевым математическим ожиданием. Одномерная плотность вероятности этого процесса имеет вид
1
ω(ε ) =
2πσ
exp(−
ε2 ). σ2
Дисперсия σ2 есть средняя мощность помехи, рассеиваемая на сопротивлении R=1 Ом. Такая помеха называется белым шумом. Если в канале присутствует только мультипликативная помеха, то он называется каналом с релеевскими замираниями. Плотность величин η(t)∈H(t) определяется релеевским распределением: ω(η) =
2η 2
η ω(η) = 0 ,
exp(
η2 η
2
),
η ≥ 0; η < 0.
1.5. Описание дискретного канала 1.5.1. Описание приема сигналов. Обозначим дискретный сигнал через B(t). Элементарные сигналы bi назовем передаваемыми или входными символами, которые определим цифрами m–ичной системы счисления (0,1,2,…,m-1). Сигнал на входе представим последовательностью {Bi}, где i=…,-1,0+1,… - номер позиции, Bi – случайная дискретная величина. *
Последовательность на выходе канала обозначим { B i }. Будем считать, что синхронизация в канале идеальна. Для каждой i-й позиции возможно различить три события:
14 - правильный прием символа (bi*=bi) с вероятностью ρbi; - ошибка (bi*≠bi, bi*≠Θ) с вероятностью ρei; - стирание символа (bi*=Θ) с вероятностью ρΘi. Если канал не стационарен, не симметричен и с неограниченной памятью, то вероятность изменения символа на данной позиции зависит от номера позиции, от значения данного и всех ранее переданных символов, от изменений всех ранее переданных символов. Полное описание таких каналов задается системой условных вероятностей
P(b *i −n +1 ,..., b *i / b i −n +1 ,...., b i ), i=…,-1,0+1,…, bi∈(0,1,2,…,m-1), bi*∈(0,1,2,…,m-1, Θ). Если рассматривать стационарные каналы, то переходные вероятности не зависят от i. Тогда P(b i / b i ) = P(b 0 / b 0 ) = P(b / b ) . *
*
*
Вероятность правильного приема ρb, вероятность приема сигнала с ошибкой ρe и вероятность стирания ρΘ определятся соответственно по формулам:
(
m −1
)
ρ b = ∑ P(b )P b * / b , b =0
(
m −1
)
ρ e = ∑ P(b ) ∑ P b * / b i , b =0
b* ≠ b i b* = Θ
m −1
ρ Θ = ∑ P (b )P(b = Θ / b ) . b=0
Если канал без памяти (n=0), то он описывается матрицей переходных вероятностей P(b*/b)=Pbb размером m×(m+1) P00 P01 ... P0m −1 P0 Θ
P = Pbb =
P10
P11
...
...
...
...
P1m −1
P1Θ
... ...
Pm −10 Pm −11 ... Pm −1m −1 Pm −1Θ 0 Для канала без стирания отсутствует последний столбец. 1.5.2. Описание источника ошибок. Дискретный канал описывается методами , применимыми к случайным процессам. Для канала с идеальной синхронизацией задается условный источник ошибок (ошибок со стиранием). Он выдает дискретный случайный процесс {Ei}, который называется последовательностью ошибок. При приеме каждая позиция {Ei} складывается с соответствующей позицией последовательности {Bi}. Эквивалентная схема замещения приведена на рис.1.5. Символы последовательности {Ei} могут принимать значения e=0,1,…,m1 для канала без стирания и значения e=0,1,…,m-1,Θ для канала со стиранием.
15 Суммирование символов ошибок с символами передаваемых сигналов осуществляется по modm при e≠Θ и по правилу b⊕Θ=Θ при e=Θ. Символ е=0 называется правильным символом, е=Θ - стертым символом, а e=1,2,…,m-1 - неправильными символами. Линия задержки
bi
bi *=bi⊕ei
Сумматор
Источник ошибок
Рис.1.5 Поскольку P(b*/b)=P(b⊕e/b)=P(e/b), то символов для каждого е имеет вид
ρe =
m −1
m −1
b=0
b=0
одномерное
∑ P (b )P (e / b ) = ∑ P (b )P (b
*
распределение
= b ⊕ e / b) .
Канал, в котором статистика последовательности ошибок {Ei} не зависит от статистики входного процесса {Вi}, называется симметричным. Этот канал определяется заданием статистики {Ei}, причем последняя зависит лишь от помех в непрерывном канале и от построения дискретного канала. Для этого канала P(b *−n −1 ,..., b *0 / b −n −1 ,..., b 0 ) = P(e −n −1 ,..., e 0 / b − n −1 ,..., b 0 ) = P(e −n +1 ,..., e 0 ) . Вероятности правильного приема, стирания и ошибки не зависят от статистики передаваемых сигналов: ρb=ρ(Е=0), ρΘ=ρ(Е=Θ), ρe=ρ(e=1)+ρ(e=2)+…+ρ(e=m-1). Для двоичного симметричного канала без памяти:
ρ bb* =
ρ 00 ρ 10
ρ 01 . ρ 11
2. ОПИСАНИЕ ДИСКРЕТНЫХ КАНАЛОВ 2.1. Состояния дискретного канала В зависимости от того, поражен или нет передаваемый выходной символ на позиции в передаваемой последовательности, будем различать два элементарных состояния канала – поражения (1) и не поражения (0).
16 Схема замещения канала приведена на рис.1.6 Состояния принимают значения si={0,1}. Обозначим последовательность состояний {Si}. Последовательность пораженных символов обозначим - {Zi}, zi=0,1,…,m-1,Θ. bi
Перемно -житель
s i =si ⊕1
bi s i
Сумматор
bi s i ⊕zisi
Линия задержки
bi*
zisi
Инвертор Перемножитель si zi Источник состояний
Источник пораженных символов
Рис.1.6 Задача источника состояний символа – вызывать отключение выхода канала от его входа. В этом случае срабатывает источник пораженных символов, т.е. si=0 →, bi*=bi, si=1 → bi*≠bi. Вероятность поражения сигнала – ps=P(s=1), а вероятность не поражения сигнала - 1-ps=Р(s=0). Сигналы zi определяются только помехой. Между последовательностями {Si}, {Zi} и {Ei} установим связь на результатах следующего примера: {Bi} 0 1 0 0 1 1 0 1 … {Si} 0 0 1 0 1 0 1 1 … {Zi} 0 0 0 1 0 1 1 1 … {Bi*} 0 1 0 0 0 1 1 1 … {Ei} 0 0 0 0 1 0 1 0 … Статистики {Si} и {Zi} определяются только каналом и не зависят от статистики входного процесса {Bi}. Статистики {Si} и {Zi} – полностью вероятностные преобразования {Bi}→{Bi*}. Если рассматривать симметричный двоичный канал без стирания, то условная вероятность ошибки на пораженных позициях определяется ε=0,5, а результирующая вероятность ошибки ρе=0,5ρs. Для моделей симметричных двоичных каналов без стирания вводят последовательности {Di} двоичных состояний, d=0,1, в которых ошибки независимы, но имеют произвольные условные вероятности εd. Пусть ε0<ε1 и тогда состояние d=0 называют хорошим, а d=1 - плохим. Пусть P(D=0)=1-ρd,
17 P(D=1)=ρd. Тогда вероятность ошибки определится: ρе=(1ρd)ε0+ρdε1. При ε0=0 и ε1=0,5 последовательности {Di} и {Еi} совпадают. Задание статистики {Di} и условных вероятностей ε0, ε1 полностью определяют вероятностные характеристики преобразования входного символа в выходной в симметричных двоичных каналах без стирания.
2.2. Пакеты ошибок На каждой позиции {Вi} состояния определяются как случайные величины, т.е. в {Di} могут быть серии единичных и нулевых состояний, точно так же, как и в {Еi}. В {Еi} эти серии представлены сериями ошибок и правильных символов. Серии плохих символов в последовательности {Di} соответствует пакет ошибок последовательности {Еi}. Пусть в пределах пакета ошибки независимы и определены вероятностью ε1. Пакет ошибок состоит из правильных и неправильных символов. Число позиций в пакете ошибок l называется длиной пакета, а число позиций в промежутке между пакетами λ называется длиной интервала между пакетами. Рассмотрим посимвольное и интервальное представление двоичных последовательностей ошибок в виде 0 и 1. Способ А. Двоичная последовательность разбивается на отрезки, каждый из которых содержит одну единицу либо в начале отрезка (1, 10, 100,…), либо в конце его (1, 01, 001,…). Число нулей в этих отрезках λ0 называют длинами интервалов между единицами. Тогда {Di} может быть представлена длинами интервалов между единицами, т.е. …0101001110001… → …12003… . Способ Б. Двоичная последовательность разбивается на отрезки, каждый из которых содержит один нуль либо в начале, либо в конце отрезка, т.е. (0, 01, 011…) или (0, 10, 110, …). Число единиц обозначим l0 и назовем длинами интервалов между нулями. Тогда {Di} может быть представлена длинами интервалов между нулями, т.е. …0101001110001… → …1120300… . Способ В. Двоичная последовательность разбивается на отрезки, каждый из которых содержит только нули или только единицы. Числа нулей и единиц обозначим λ и l и назовем длинами серий нулей и единиц (хороших и плохих символов). Тогда …0101001110001… → …1,(1),1(1),2(3),3,(1),… . Если известны средние длины λср, lср, то появление плохого символа определится ρd =
l ср l ср + λ ср
=
1 . λ ср + 1
Вероятность того, что с данной позиции начинаются хорошие или плохие символы, определится формулой
18
ρп =
l ср
1 . + λ ср
2.3. Критерии описания реальных дискретных каналов Реальные дискретные каналы неидеально синхронизированы, нестационарны, несимметричны и имеют память. Ошибки синхронизации связаны с нестабильностью оборудования. Нестационарность обусловлена наличием детерминированных составляющих в процессах, которые влияют на закономерности возникновения ошибок. Несимметричность обеспечивается инерционностью решающих устройств, наличием прерываний в канале (η(t)=0 – мультипликативная помеха), длительным воздействием помехи одного знака. Память в канале выражается в группировании ошибок (одно воздействие порождает группу символов). Под моделью канала понимают статистическое описание стационарной двоичной последовательности ошибок {Еi} через статистики {Si} или {Di} при известных вероятностях ε0 и ε1. Модель должна обеспечивать возможность подсчета основных характеристик, знание которых может потребоваться при оценке различных систем. Это следующие характеристики: - вероятность ошибки (неправильного приема символа) ρе; - распределение длин интервалов между соседними ошибками Р(λ0) и правильными символами Р(l0), а также распределение длин серий правильных символов Р(λ’) и Р(l’) ошибок; - распределение вероятностей Р(е0,…,еn-1) различных сочетаний ошибок в блоке длиной n символов; - распределение вероятностей Pn(t) появления t ошибок в блоке длиной n символов; - пропускная способность канала C=R(1-H(E)), где R - скорость передачи по каналу, Н(Е) – энтропия источника ошибок. Известно три способа построения модели: простая цепь Маркова, процесс восстановления с конечным временем, процесс накопления.
3. ОСНОВНЫЕ МОДЕЛИ ИСТОЧНИКОВ ОШИБОК 3.1. Описание источника ошибок на основе цепей Маркова Схема М. Рассмотрим представление последовательности {Еi}.
19 Пусть k-ичный процесс состояний {Сi}, сi=0,1,…,k-1 есть простая цепь Маркова. Вероятность того или иного из двух возможных значений ei на данной (i-й) позиции определится значением состояния ci на этой позиции, т.е. P(e0/c0)=P(e/c)=εce, где εce=1-εe для e=0 и εce=εe для e=1. Таким образом, статистика полностью определяется матрицей переходных вероятностей Pc-1c0 порядка k P00 P01 ... P0k −1 P = Pc c = ... ... ... ... . −1 0
Pk −10
Pk −11
... Pk −1k −1
Если εс - вероятность ошибки в с-м состоянии, то вероятность ошибки в канале Pе =
k −1
∑P ε c=0
c c
, где Рс - финальная вероятность с-го состояния, k −1
определяемая по формуле Pc = ∑ Pj Pjc , j= 0
∑P
c
= 1.
c
Обычно состояния канала могут быть разделены на две группы, в одной из которых вероятности ошибок значительно ниже, чем во второй группе. Состояния первой группы называют хорошими, а состояния второй группы – плохими состояниями. Хорошие состояния имеют номера с=0,1,…,r-1, а плохие состояния – с=r,…, k-1. Матрица переходных вероятностей примет вид
P=
Pxx Pnx
P00 Pxn , Pхх = Pr −10 Pnn
Pпх =
Pr 0
Prr −1
Pk −10
Pk −1r −1
,
P0r −1 Pr −1r −1
Pпп =
,
Pхп =
Prr Pk −1r
P0r −1
P0k −1
Pr −1r
Pr −1k −1
Prk −1 Pk −1k −1
,
.
3.2. Описание источника ошибок на основе процессов восстановления Схема В. Последовательность ошибок {Еi} разбивается на отрезки (серии символов) двух видов, пакеты ошибок и промежутки между ними. В каждом из отрезков возникают независимые ошибки с вероятностями ε1 и ε0, причем ε1≥ε0. Длины промежутков λ (λ=1,2,…) и длины пакетов l независимы в совокупности. Поэтому статистика {Еi} полностью определяется одномерным распределением Р(λ) и Р(l), а также вероятностями ε1 и ε0. Таким образом, канал имеет два состояния – хорошее и плохое (k=2), последовательность состояний {Ci}={Di} является процессом восстановления
20 с конечным временем. Если ε1=0,5, ε0=0, то {Ci} совпадает с последовательностью элементарных состояний {Si}. Если ε1=1, ε0=0 – с последовательностью ошибок {Еi}. Если ε1=ε0, то имеем канал с независимыми ошибками. Вероятность попадания символа в пакет ошибок определится формулой l ср . ρd = l ср + λ ср Вероятность того, что данная позиция является началом пакета ошибок и равная ей вероятность того, что данный символ является началом промежутка между пакетами, равна 1 , ρп = l ср + λ ср поэтому вероятность ошибки определится формулой ε 0 λ ср + ε 1 l ср ρ e = ε 0 (1 − ρ d ) + ε 1 ρ d = = ρ п ( ε 0 λ ср + ε 1 l ср ) . l ср + λ ср Вероятность Pn(t) того, что блок символов длины n содержит t ошибок, при условии независимости ошибок в пакете и в промежутке между ними, определится формулой n
t
Pn (t ) = ∑ ∑ Pn (i )C ij ε 1j (1 − ε 1 ) i − j C nt −−ji ε t0− j (1 − ε 0 ) n −i − t − j . i = o j= 0
Если ошибки возможны только в пакетах (ε0=0, ε1=ε), то n
Pn ( t ) = ∑ Pn ( i )C ti ε t (1 − ε ) n − t . i=t
3.3. Описание источника ошибок на основе процессов накопления Схема Н. В данной схеме модель источника ошибок отличается от ранее рассмотренных схем допустимостью перекрытия пакетов. Любая позиция последовательности {Еi} может стать началом пакета ошибок, причем длины интервалов между началами пакетов λН (λН=0,1,…) являются случайными независимыми величинами. Поэтому процесс {Di}, где Di=1 для позиций, являющихся началами пакетов, и Di=0 для позиций, не являющихся началами пакетов, представляет собой процесс с мгновенным восстановлением. Статистика этого процесса полностью определяется распределением вероятностей Р(λН) длин между пакетами. Длины пакетов lН (lН=1,2,…) являются значениями независимых случайных величин и определяются распределениями Р(lН). В пределах каждого отдельного пакета (не перекрывающегося с другими пакетами)
21 ошибки независимы и имеют вероятность возникновения ошибки ε. Таким образом, статистика {Еi} по схеме Н полностью определяется двумя одномерными распределениями вероятностей – длин пакетов Р(lН) и интервалов между началами пакетов Р(λН), т.е. статистикой последовательности пар независимых чисел {λН, lН} и вероятностью ошибки в пакете ε. На рис..1.7 приведен пример построения последовательности {2,3},{3,4},{1,5},{6,8},{0,2} для схемы Н. 3
2
4
3
1
5
2
8
6
Рис.1.7 Для данной модели, в отличие от схемы В, независимы не промежутки между пакетами, а интервалы между пакетами. Это обуславливает возможность перекрытия и примыкания пакетов (возможно перекрытие нескольких пакетов). Последовательность ошибок {Еi} для данной модели может быть представлена последовательностью состояний {Сi}, в пределах которых ошибки независимы и имеют одинаковые вероятности. Число состояний – более двух и может быть сколь угодно большим, т.к. на участке наложения пакетов вероятность ошибки может превышать вероятность ошибки ε в каждом отдельном пакете. Действительно, в пределах каждого пакета позиции поражаются с вероятностью 2ε (см. рис. 1.7), следовательно, вероятность поражения позиции на участке наложения n пакетов равна (1-(12ε)n), а вероятность ошибки равна 0,5[1-(1-2ε)n]. С ростом числа наложений пакетов вероятность поражения стремится к единице, а вероятность ошибки к 0,5. При ε=0,5 последовательность {Еi} может быть представлена двоичной последовательностью элементарных состояний {Ci}={Si}, не являющейся процессом восстановления. Перекрытие пакетов усложняет подсчеты. Просто определить вероятность того, что данная случайная величина является началом пакета: 1 . ρ = П
λ Нср + 1
Сложность определяется тем, что сумма длин пакетов на некотором участке не дает возможность непосредственно найти распределение вероятностей числа пораженных символов и ошибок.
22 Если взять пакеты длиной в один символ, т.е. Р(lН=1)=1 и Р(lН>1)=0, то процесс состояний {Ci} вырождается в процессе с мгновенным восстановлением (перекрытие пакетов невозможно). Если распределение Р(lН) геометрично, то канал не будет обладать памятью, а вероятность ошибки определится формулой ε . ρ= λ Нср + 1
3.4. Сопоставление основных моделей Указать, какая из схем моделирования наиболее эффективно аппроксимирует реальную статистику ошибок и удобна для расчетов, затруднительно. Многое зависит от критериев аппроксимации. Схемой М можно с любой степенью точности аппроксимировать статистику ошибок в любом стационарном канале. Схема В удобна для использования при имитационном моделировании. Многие существующие модели являются ее частным случаем. Эта схема позволяет с достаточной точностью отразить закономерности возникновения ошибок. Схема Н позволяет учесть возможность перекрытия различных мешающих воздействий и поэтому более наглядна физически. Она мало удобна для аналитических расчетов, но удобна при имитационном моделировании.
4. ЧАСТНЫЕ МОДЕЛИ ИСТОЧНИКОВ ОШИБОК 4.1. Модель Гилберта Канал может быть в двух состояниях – хорошем и плохом [4]. В хорошем состоянии ошибки быть не может, а в плохом состоянии ошибки возникают с вероятностью ε. Последовательность состояний {Ci} образует простую цепь Маркова. Модель Гилберта соответствует схеме М. Если k=2, ε0=0, ε1=ε, то статистика {Еi} полностью определяется матрицей переходных вероятностей
P=
ρ 00
ρ 01
ρ 10
ρ 11
и величиной ε. Чтобы возможно было отобразить группирование ошибок в пакеты, вероятности изменения состояний должны быть значительно меньше
23 вероятностей их сохранения, т.е. ошибки в канале
ρ e = εP1 =
ρ01<<ρ00,
ρ10<<ρ11.
Вероятность
ερ 01 ρ 01 + ρ 10
обычно меньше условной вероятности ошибки в пакете ε (ρе<<ε). Вероятность возникновения пакета ошибок с данного символа
ρП =
ρ 01ρ10 (ρП=Р0ρ01) ρ 01 + ρ 10
при группировании больше ρе, поэтому ρ10<ε. При ρ10=ρ10, ρ01=ρ11 получим канал без памяти. Последовательность состояний {Ci} по модели Гилберта может также рассматриваться как процесс восстановления с конечным временем, для которого Р(λ)=ρ01ρ00λ-1, Р(l)=ρ10ρ11l-1, или как процесс с мгновенным восстановлением, для которого Р(λ=0)=ρ11 Р(λ)=ρ10ρ01ρ00λ-1, или как процесс с мгновенным отказом, для которого Р(l=0)=ρ00, Р(l)=ρ01ρ10ρ11l-1, (l>0).
4.2. Модель Эллиота-Гилберта Эта модель есть обобщение модели Гилберта при допущении ошибок в хорошем состоянии канала [5]. Модель Эллиота-Гилберта получается из общей схемы М, если k=2 и определена четырьмя параметрами – двумя вероятностями из матрицы М и условными вероятностями ε0 и ε1. Матрица переходных вероятностей такая же, как и модели Гилберта. Вероятность ошибки определится по формуле ε ρ + ε 1ρ 01 . ρ e = ε 0 P0 + ε 1 P1 = 0 10 ρ 10 + ρ 01
4.3. Модель Элиота Согласно модели Эллиота [6], последовательность {Еi} является процессом с мгновенным восстановлением и определяется одномерным распределением длин интервалов между ошибками 1 1 (1 − ) l −1 . P( l ) = l ср l ср
24
4.4. Модель Беннета-
Фройлиха
В данной модели допускается перекрытие пакетов [3]. Каждая позиция последовательности {Еi} может стать началом пакета ошибки с постоянной вероятностью ρП, которая не зависит от длин пакетов. Распределение длин пакетов определяется вероятностью P(l), которая также не зависит от длин пакетов. В пределах пакета ошибки независимы и имеют постоянную вероятность ε. Вне пакетов ошибки не возможны. Модель Беннета–Фройлиха задается вероятностями ρП, ε и распределением P(l). Данная модель является частным случаем схемы Н. Действительно, длины интервалов λ (λН) между началами пакетов независимы. Длины пакетов l (lН) также независимы и не зависят от λ по определению. Распределение длин между началами пакетов геометрично: P(λ)=ρП(1ρП)λ, а распределение длин пакетов – произвольно. Таким образом, модель Беннета – Фройлиха определяется распределениями P(λ), P(l) и вероятностью ε. При предположении независимости возникновения пакетов, вероятности Pn(m) того, что в блоке длины n возникает m ошибок, определяются по биноминальному закону
Pn (m ) = C mn (ρ П ) m (1 − ρ П ) ( n −m ) ≈
( nρ П ) m − nρ П . e m!
4.5. Модель Попова - Турина Предполагается существование в канале независимо возникающих групп ошибок, внутренняя структура групп не сводится к независимым ошибкам [7]. Каждая позиция последовательности ошибок может стать началом цепочки пакетов ошибок с вероятностью, не зависящей от того, на каких других позициях возникли цепочки. Распределение длин цепочек предполагается геометрическим. Внутри цепочек независимо появляются пакеты ошибок, длины которых распределены по геометрическому закону. Внутри пакетов задается условная вероятность появления ошибок. Таким образом, в канале возможны два состояния – безошибочное и состояние цепочки пакетов ошибок.
25
ГЛАВА 2 ОСНОВЫ ТЕОРИИ СИГНАЛОВ 1. МАТЕМАТИЧЕСКОЕ ПРЕДСТАВЛЕНИЕ СИГНАЛОВ 1.1 Сообщения, сигналы и помехи как случайные процессы Детерминированное сообщение не содержит никакой информации. Источник информации рассматривается как устройство, осуществляющее выбор из некоторого множества возможных сообщений. Сообщение возникает с определенной вероятностью. Множество, на котором задана вероятностная мера, называется ансамблем. Ансамбль {x(t)} функций времени есть случайный процесс. Входящая в него функция x(t) называется выборочной функцией или реализацией случайного процесса [8]. Для переноса информации необходимо установить соответствие между каждым сообщением из ансамбля и определенной реализацией сигнала. Помехи воздействуют на сигнал и по сигналу о сообщении можно судить с определенной вероятностью. Сообщение, сигнал, помеха являются случайными процессами, которые задаются на конечном отрезке времени. Скалярный случайный процесс может быть задан вероятностью того, что x(t) в моменты времени t1,t2,…tn, не превышает значений x1,x2,…,xn (см. рис.2.1.) [9]: F( x 1 x 2 ..x n , t 1 t 2 ..t n ) = P x(t 1 ) < x 1 ,..., x(t n ) < x n . Случайная величина x(tk) - есть сечение случайного процесса.
{
}
X(t)
x2 х2
t1
t2
t
Рис.2.1 Если существуют частные производные функции распределения вероятностей по xi, i=1,2,…,n, то можно определить n–мерную плотность распределения вероятностей
26
w( x 1 x 2 ...x n , t 1 t 2 ...t n ) =
∂ n F( x 1 x 2 ..x n , t 1 t 2 ...t n ) . ∂x 1 ∂x 2 ...∂x n
Например, достаточно распространенным сигналом является сигнал, плотность которого имеет вид ⎧ n n ⎫ w( x 1 x 2 ...x n , t 1 t 2 ...t ) = A п exp⎨− ∑∑ c ij ( x i − a i )(x j − a j )⎬ , ⎩ i = 1 j= 1 ⎭ где An, cij, ai, aj - некоторые постоянные. При n=1 одномерная плотность распределения имеет вид (нормальное распределение)
1
w ( x, t ) =
2π ⋅ δ
e
−(
x −a 2σ
)2
.
Среднее значение процесса по ансамблю (математическое ожидание) определится формулой
x( t ) = M{x( t )} =
∞
∫ xw( x, t )dx ,.
−∞
где w(x,t) - одномерная плотность распределения для сечения t. Разность между случайным процессом и его математическим ожиданием o
называют центрированным процессом и обозначают x( t ) = x( t ) − x( t ) . Математическое ожидание квадрата центрированного процесса называется дисперсией и определяется формулой o
[ x( t )]2 = D{x( t )} =
∞
∫ ( x(t ) − x(t ))
2
w ( x, t )dx .
−∞
называется Функцией корреляции (автокорреляции) Bx(t1,t2) математическое ожидание произведения двух сечений центрированного случайного процесса в точках t1 и t2 o
∞ ∞
o
x(t 1 ) x(t 2 ) = Bx (t 1 , t 2 ) =
∫ ∫ (x(t ) − x(t ))(x(t 1
1
2
) − x(t 2 )w(x1 , x2 , t 1 ,t 2 )dx1dx2 ,
−∞−∞
где w(x1,x2,t1,t2) - двумерная плотность распределения сечения по t1 и t2. Функция взаимной корреляции двух случайных процессов определится формулой ∞ ∞ o o , x( t ) y ( t ) = B ( t , t ) = ( x( t ) − x( t ))(( y ( t ) − y ( t )))ϖ ( x , y , t , t )dx dy 1
2
xy
1
2
∫∫
1
1
2
2
1
2
1
2
1
2
− ∞− ∞
где w(x1,y2,t1,t2) - двумерная плотность распределения сечения по t1 процесса X и сечения по t2 процесса Y.
27 Случайный процесс, у которого математическое ожидание и дисперсия не зависят от t, а функция корреляции зависит от τ=t2-t1 и не зависит от t1 и t2, называется стационарным. Помимо средних значений по ансамблю, можно определить средние значения случайного процесса по времени. Для финитного случайного процесса, заданного на (t1,t2), постоянная составляющая определится по формуле [10] t2 ~x (t ) = 1 x(t )dt . t 2 − t 1 t∫1 Если случайный процесс задан на (t,∞), то в этом случае
~x ( t ) = lim
T→ ∞
x ~ (t ) = x(t ) − ~ x (t )
T/2
∫ x(t )dt .
−T / 2
называется переменной составляющей. Процесс Среднее по времени значение квадрата переменной составляющей ⎧ 1 t2 2 ⎪ ∫ x ~ (t )dt ⎪ t 2 − t 1 −t1 2 ~ ( x (t )) = ⎨ T/2 ⎪ lim x 2 ( t )dt ⎪T→ ∞ ∫ ~ − T / 21 ⎩ также является случайной величиной, не зависящей от t, и называется мощностью переменной составляющей. Стационарные процессы называют эргодическими, если для них усреднение во времени приводит к тем же результатам, что и статистическое усреднение. Математическое ожидание для этих процессов равно постоянной составляющей, а дисперсия равна мощности переменной составляющей. Грубо говоря, эргодичность процесса состоит в том, что все его реализации похожи друг на друга. Функция коррекции эргодического процесса вычисляется по одной реализации усреднением во времени: o
T/ 2
1 x(t )x( t + τ)dt . T→∞ T ∫ −T / 2
o
B x ( τ ) = x(t ) x(t + τ ) = lim
Функция корреляции стационарного случайного процесса имеет обозначение Bx(τ), где τ - разность между двумя сечениями. Функция симметрична, т.к. o
o
o
o
B x ( τ) = x(t ) x(t + τ) = x(t + τ) x(t ) = B x ( − τ) . При τ=0 значение функции автокорреляции равно дисперсии o
B x ( τ) = [x(t )]2 = D x {x(t )} .
28 При любом τ Bx(τ)≤D{x(t)}, т.е. Bx(τ) максимальна при τ=0. Нормированная функцией корреляции или коэффициент корреляции случайного процесса x(t) определится B x (t 1 , t 2 ) . R x (t 1 , t 2 ) = D[ x( t 1 )]D[ x( t 2 )] Для случайного стационарного процесса Rx(τ)=Bx(τ)/D{x(t)}, Rx(τ)=Rx(τ),Rx(0)=1, |Rx(τ)|≤1. Величина Rx(τ) является в известной степени мерой статистической зависимости между сечениями процесса, отстоящими на интервале τ.
1.2. Система базисных функций Сущность задач анализа реальных сигналов состоит в том, чтобы эти сигналы представить в виде совокупности простых элементарных сигналов, удобных для анализа. Реальный сигнал может быть представлен в виде суммы ортогональных составляющих (элементарных сигналов) [10] ∞
s( t ) = ∑ a k ψ k ( t )
(1.1)
k =0
при t принадлежащем отрезку ортогональности [t1,t2]. Формула (1.1) называется разложением сигнала по системе базисных функций ψk(t). Коэффициенты ak называются спектром разложения сигнала в ряд базисных функций. К системе базисных функций предъявляются следующие требования: - для любого сигнала ряд (1.1) должен сходиться; - ψk(t) должно иметь простую аналитическую форму; - ak должны вычисляться аналитически просто. Условие ортогональности базисных функций имеет вид ∞ ⎧ 0 i ≠ j⎫ (1.2) ∫−∞ψ i (t )ψ j (t )dt = ⎨⎩c i i = j⎬⎭ , где число ci называют нормой базисной функции ψi(t). Каждую базисную функцию можно нормировать по ее норме, причем нормированная функция имеет вид
ψ i (t ) = ψ i (t ) / c i . Система (1.2.) примет вид ∞
⎧1
∫ ψ (t )ψ (t )dt = ⎨⎩0 i
−∞
где δij - символ Кронекера.
j
i
i= i≠
j⎫ ⎬ = δ ij j⎭
(1.3.)
29 Для определения ak умножим правую и левую части уравнения (1.1) на ψk(t) и проинтегрируем обе части на отрезке ортогональности: t2
∫ s ( t )ψ
i
( t )dt =
t2
∞
∑a ∫ψ k
k =0
t1
k
( t ) ψ i ( t )dt .
t1
При k=i правый интеграл равен единице, тогда t2
ak = ∫ S(t )ψ k (t )dt .
(1.4)
t1
Ортогональное разложение (1.1) называется обобщенным рядом Фурье, а коэффициенты ak - обобщенными коэффициентами Фурье. Набор чисел {ak} называется спектрами сигнала. Пример ортонормированных базисных функций – базис тригонометрического ряда Фурье на отрезке [-π,π] 1 1 1 ; cos kx; sin kx; k = 1,2,3,.... .. . 2π π π Аппроксимируем произвольную функцию x(t) линейной комбинацией n ортогональных функций n
x( t ) ≈ a 1 ψ 1 (t ) + a 2 ψ 2 ( t ) + ... + a n ψ n ( t ) = ∑ a k ψ k ( t ) . k =0
Определим постоянные ai, при которых среднеквадратическая величина σ функции xl(t)→min, где t2
2
n ⎡ ⎤ (1.5) − x ( t ) a k ψ k ( t )⎥ dt . ∑ ⎢ ∫ i =1 k =0 ⎦ t1 ⎣ Из (1.5) следует, что σ есть функция от ai и для ее минимизации необходимо принять ∂σ = 0 i = 1, n . Так как t2-t1≡const, из (1.5) получим ∂a i n
x l (t ) = x(t ) − ∑ a i ψ i (t ) или δ =
1 t 2 + t1
2 n ⎡t 2 ⎡ ⎤ ⎤ (1.6) ⎢ ∫ ⎢ x(t ) − ∑ a k ψ k (t )⎥ dt ⎥ = 0 k =0 ⎦ ⎥⎦ ⎢⎣ t1 ⎣ Если возвести в квадрат выражение в квадратных скобках под знаком интеграла, то в силу ортогональности все слагаемые вида
∂ ∂a i
t2
∫ ψ (t )ψ (t )dt = 0 , i
j
t1
т.е. производная всех слагаемых, не содержащих ai, равна нулю, и тогда t2 ⎡t 2 ⎤ ∂ 2 , ∂ a 2 ψ 2 ( t )dt = 0 , ∂ ⎢ [a ψ (t )ψ (t )]dt ⎥ = 0 . x ( t ) dt = 0 j j i i j ∫ ∫ ∫ ∂a i ∂a i t 1 ∂a i ⎢⎣ t1 ⎥⎦ В формуле (1.6) останется два слагаемых
30
t ⎤ ∂ ⎡2 2 2 ⎢ ∫ [−2a i ψ i (t )x(t ) + a i ψ i (t )x(t )]dt ⎥ = 0 . ∂a i ⎣⎢ t1 ⎦⎥
Изменив порядок интегрирования и дифференцирования, получим t2
t2
t1
t1
2 ∫ x( t )Ψi ( t )dt = 2a i ∫ Ψi2 ( t )dt →
ai =
1 ci
t2
∫ x(t )Ψ (t )dt . i
(1.7)
t1
Если ai выбирать по формуле (1.7), то 2 n 1 t2 ⎡ ⎤ dt = δ= x ( t ) − a ψ ( t ) ∑ ∫ i i ⎥⎦ i =0 t 2 + t 1 t1 ⎢⎣
=
t2 t2 n n ⎤ 1 ⎡t 2 2 2 2 ∫ x (t )dt + ∑ a i ∫ ψ i (t )dt − 2 ∑ a i ∫ x(t )ψ i (t )dt ⎥ , ⎢ i 0 i 0 = = t 2 + t 1 ⎣ t1 t1 t1 ⎦
Из формулы (1.7) следует, что
t2
t2
t1
t1
2 ∫ x(t )Ψi (t )dt = a i ∫ Ψi (t )dt = a i c i , тогда
определим σ
δ=
1 t 2 + t1
t n n n ⎤ ⎤ ⎡t 2 2 1 ⎡2 2 2 2 2 ⎢ ∫ x (t )dt − ∑ a i c i ⎥ . ⎢ ∫ x ( t ) + ∑ a i c i − 2∑ a i c i ⎥ = i =0 i=0 i=0 ⎥⎦ ⎥⎦ t 2 + t 1 ⎢⎣ t1 ⎢⎣ t1
2. ДИСКРЕТИЗАЦИЯ И КВАНТОВАНИЕ СИГНАЛОВ 2.1. Общие положения Дискретизация сигнала x(t) связана с заменой промежутков изменения независимой переменной некоторым множеством точек, т.е. x(t)→xi(t). При дискретизации x(t) заменяется совокупностью отдельных значений x(ti). По xi(t) можно восстановить x(t) с определенной погрешностью. Функцию, полученную в результате восстановления (интерполяции) по значениям xi(t), называют воспроизводящей функцией x*(t), причем [11]
x ∗ (t ) = ∑ a i x(t − t i ) . i
Величина ai зависит от отсчетов x(ti).
2.2. Регулярность отсчетов
31 Интервал [t1,t2] в процессе дискретизации разбивается на непересекающиеся отрезки Δti. По признаку регулярности отсчетов дискретизация подразделяется на равномерную и неравномерную. Дискретизация называется равномерной, если Δti.=ti – ti-1 ≡ const на всем интервале [t1,t2]. Дискретизация называется неравномерной, если Δti. ≡ var. Неравномерная дискретизация делится на адаптивную и программируемую. При адаптивных методах Δti изменяется в зависимости от текущего изменения параметров сигнала. При программируемых методах изменение Δti производится либо оператором на основе анализа поступающей информации, либо в соответствии с заранее установленной программой работы. Неравномерная дискретизация может быть с интервалами: а) Δti =zδ, где δ≡const, z=1,2,3,… (дискретизация с кратными интервалами); б) Δtmin≤Δti≤=tmax, где Δti – непрерывная величина (дискретизация с некратными интервалами).
2.3. Критерий оценки точности Текущая погрешность дискретизации определится так: δ(t)=x(t)-x*(t). Выбор критерия оценки δ(t) осуществляется получателем информации и зависит от назначения сигнала x(t). Известны следующие критерии [11] . Критерий наибольшего отклонения имеет вид * . Критерий применим, если известны априорные δ Д ≤ max δ(t ) = x(t ) − x (t ) t∈Δt
сведения о сигнале в форме условия Липшица: x( t ) − x( t ' ) ≤ l( t − t ' ) , где l некоторая константа. Среднеквадратичный критерий приближения определяется по формуле t t 2 1 1 2 σ2 = δ 2 ( t )dt = ∫ x(t ) − x ∗ (t ) dt =σ д . ∫ Δt 0 Δt 0
(
)
Среднеквадратичный критерий применим для функций, интегрируемых в квадрате. Использование среднеквадратичного критерия связано с усложнением аппаратуры по сравнению с критерием наибольшего отклонения. Интегральный критерий как мера отклонения x(t) от x*(t) имеет вид Δt 1 μ= δ(t ) dt = ≤ μ Д . Δt ∫0 Вероятностный критерий определяется соотношением P{δ(t)<δ0}=P0, где δ0 – допустимое значение погрешности, P0 - вероятность того, что погрешность не превысит значение δ0 [12].
32
2.4. Способы воспроизведения сигнала Способы воспроизведения сигнала характеризуются [8, 11]: видом базисных функций и формой дискретного представления сигнала (видом координат), определяющими тип аппроксимирующего полинома и характер аппроксимации; числом отсчетов аппроксимирующего ряда. При ортогональном представлении сигнала выбирается критерий среднеквадратичного приближения. Координаты разложения ak определяются по формуле n
x ∗ (t ) = ∑ a k ϕ k (t ) .
(2.1)
k =0
Представление сигнала в виде ряда (2.1) является оптимальным, т.к. он минимизирует число координат при заданной степени полинома и величине допустимой среднеквадратичной ошибки. Для ортогонального представления сигнала процесс временной дискретизации сводится к вычислению коэффициентов ряда Фурье. Однако это имеет недостаток, обусловленный ограниченной точностью вычисления коэффициентов Фурье и сложностью устройства временной дискретизации. В технике распространены неортогональные представления сигналов в виде линейно независимых базисных функции вида
{t }
k n k =0
или
{(t − t ) } 0
k n . k =0
Тогда ряд (2.1) принимает вид n
x ∗ (t ) = ∑ a k t k
(2.2.)
k =0
или n
x ∗ (t ) = ∑ a k (t − t 0 ) k .
(2.3)
k =0
Из теории приближений известно, что если разложение x(t) функции в степенной ряд (2.2) сходится при n→∞, то оно является разложением в ряд Тейлора
x ( k ) (t 0 ) (t − t 0 ) k , k ! k =1 n
x(t ) ≈ x ∗ (t ) = x(t 0 ) + ∑
где xk(t0) - k-я производная x(t) в точке t0. Таким образом, для нахождения координат a0=x(t0) и ak=xk(t0)/k! необходимо знать x(t0) и xk(t0). Приближение с помощью полиномов Тейлора основано на представлении (экстраполяции) возможного поведения сигнала x(t) на интервале аппроксимации по коэффициентам ai, i=0,1,…,n, соответствующим начальному моменту времени t0. Сигнал воспроизводится без задержки.
33 Выбор в качестве координат значений сигнала x(tk) при условии совпадения значений аппроксимирующего полинома (2.3) с функцией x(tk) в точках tk, называемых узлами интерполяции, приводит к интерполирующему полиному Лагранжа n
n
k =0 i≠k
i =0 i ≠k
x(t ) ≈ x ∗ (t ) = ∑ x(t k )∏
(t − t i ) . (t k − t i )
2.4.1. Выбор шага дискретизации по временным характеристикам сигнала. В.А. Котельниковым доказана теорема для функции с ограниченным спектром, согласно которой функция полностью определяется дискретным множеством своих значений (отсчетов), взятых с частотой счета F0=2fm, где fm - максимальная частота в спектре S(jω) сигнала x(t). Сигнал x(t) может быть восстановлен без погрешностей по точным значениям выборок x(tk) в виде k =∞ sin ωm (t − kΔt ) . (2.4) x(t ) = ∑ x(kΔt ) ωm (t − kΔt ) k = −∞ Интерполяционный ряд (2.4) называется рядом Котельникова. Сигнал x(t) - непрерывная функция и имеет ограниченный спектр, т.е. ∞
S ( jω ) =
∫ x(t )e
− jωt
dt ,
−∞
удовлетворяющий условию S(jω)=0 при |ω|>ωm, т.е. в представлении сигнала рядом Фурье ω
x(t ) =
1 m S( jω)e jωt dω . ∫ 2πj − ωm
(2.5)
Рассматривая S(jω) как функцию частоты, период которой равен величине 2ωm, можно разложить эту функцию в ряд Фурье на интервале [ωm,ωm]:
S ( jω ) =
∞
∑c
k = −∞
k
e jπkω / ωm , где c k = 1
2ω m
ωm
∫ S( jω)e
− jπω / ωm
dω
(2.6)
− ωm
Сравнивая формулы (2.5) и (2.6), видим, что они совпадают с точностью до постоянного множества Δt=π/ωm, если принять t=-kΔt, т.е.
ck =
∞ π π x( −kΔt ) , тогда S( jω) = ∑ x( −kΔt )e jπkω / ω . ωm k = −∞ ω m m
Подставим это выражение в (2.5), изменив при этом знак с учетом того, что суммирование производится по всем отрицательным и положительным
34 значениям k. Учитывая сходимость ряда и интеграла Фурье, изменим порядок операций интегрирования и суммирования ω
x(t ) =
∞ 1 m jωt π e dω ∑ x( −kΔt )e jπkω / ωm = ∫ 2π − ωm k = −∞ ω m
1 = 2ω m причем
ωm
∫e
∞
ωm
k = −∞
− ωm
∑ x(kΔt ) ∫ e
jω( t −kΔt )
dω =
− ωm
jω ( t − kΔt )
dω ,
2 sin ωm (t − kΔt ) . (t − kΔt )
(2.7) (2.8)
Подставив (2.8) в формулу (2.7), получим формулу (2.4). Таким образом, непрерывная функция x(t) с ограниченным спектром может быть точно представлена отсчетами x(kΔt), взятыми через равные интервалы Δt=1/2Fm=π/ωm. Функцию ϕ(t ) = sin ω m (t − kΔt ) называют функцией отсчетов. ω m (t − kΔt ) Теорема Котельникова сохраняет свой смысл применительно к случайным процессам с ограниченным спектром. Если известна автокорреляционная функция Rx(τ), то шаг дискретизации выбирается равным интервалу корреляции ω
m 1 τ0 = R x ( τ )dτ . R x (0) − ω∫m
Реальные сигналы ограничены и спектр их бесконечен. Тогда ряд Котельникова дает приближенное математическое описание сигнала с неограниченным спектром. Энергетический критерий имеет вид tm
ΔE = ∫ [x(t ) − x * (t )]2 dt , 0
где ΔЕ – энергия ошибки δ(t) (погрешность аппроксимации) На практике вводят ограничение fm и рассматривают конечный спектр. Функция может быть представлена числом отсчетов N=tm/Δt. Исходный сигнал восстанавливается полиномом Котельникова с некоторой погрешностью, т.е. полином следует рассматривать как аппроксимирующую функцию x*(t): k =∞ sin ω m ( t − t k ) . x( t ) ≈ x * (t ) = ∑ x(t k ) ωm (t − t k ) k = −∞ При крутом спаде спектра оценка относительной среднеквадратичной погрешности определится
35
t
σ отн =
1 m [ x( t ) − x * ( t )]2 dt t m ∫0 1 tm
tm
∫ x( t )
2
dt
=
σ2 , P
0
где Р – мощность сигнала, причем ΔE 3ΔE , ≤ σ отн ≤ E E где Е – полная энергия сигнала определится по формуле ∞
E = ∫ x( t ) 2 dt . 0
2.4.2. Выбор шага дискретизации по производным сигнала. Рассматривается функция x(t), непрерывная на интервале наблюдения и имеющая ограниченное число конечных и непрерывных производных. Опишем x(t) аппроксимирующим полиномом ∞
n
∞
k =0
k =0
k = n +1
x( t ) = ∑ a k ϕ k ( t ) = ∑ a k ϕ k + ∑ a k ϕ k ( t ) =x ∗ ( t ) + R n +1 ( t ) , где Rn+1(t) – остаточный член, определяющий функцию погрешности аппроксимации δ(t)=x(t)-x*(t)= Rn+1(t). На практике в качестве аппроксимирующей функции обычно используют экстраполирующий полином Тейлора или интерполирующий полином Лагранжа. Критерий приближения – равномерный и максимальная погрешность воспроизведения определится по формуле max|δ(t)|=max|Rn+1(t)|=|δm|≤A(Δt,Mn+1), где A(Δt,Mn+1) - оценка сверху, зависящая от шага Δt и Mn+1 - модулямаксимума (n+1)-й производной сигнала. Решение уравнения A(Δt,Mn+1)=δД, где δД – допустимая погрешность воспроизведения, относительно Δt дает формулу для расчета шага дискретизации. Погрешность воспроизведения оценивается первым отброшенным членом полинома, т.е. δ(t)≈an+1ϕn+1(t). Рассмотрим экстраполяцию сигнала полиномом Тейлора нулевой степени (ступенчатая экстраполяция), n=0, x*(t)≈x(t0).
36 На рис.2.2 приведена иллюстрация выбора шага дискретизации. Погрешность оценим первым отброшенным членом ряда - δ(t)≈x(1)(t0)(tt0). Очевидно, что это уравнение прямой (см. рис.2.2). Тогда x(t)≈x(t0)x(1)(t0)(t-t0). Так как t-t0 максимально при t=t1,то
max δ(t ) = x (1) (t 0 ) (t 1 − t 0 ) = x (1) (t 0 ) Δt . t∈Δt
x(t) x*(t)
x(t) δ(t) x(t0)
x*(t) Δt
t0
t1
t
Рис.2.2 Погрешность будет принимать наибольшее значение при максимуме первой производной x(1), тогда
max x (1) (t ) Δt ≤ δ Д , t∈Δt
Δt ≤ δ Д / M 1 ,
где М1 – модуль-максимум первой производной. На рис.2.3 приведена иллюстрация экстраполяции сигнала полиномом Тейлора при n=0.
x(t)
x(t)
x*(t)
x* (t)
t Рис.2.3 Рассмотрим экстраполяцию сигнала полиномом Тейлора первой степени (линейная экстраполяция): n=1, x*(t)≈x(t0)+x(1)(t0)(t-t0).
37 Сигнал будет представлен в виде
ряда
(t − t 0 ) 2 . 2! На рис.2.4 приведена иллюстрация выбора шага дискретизации. x(t ) ≈ x(t 0 ) + x (1) (t 0 )(t − t 0 ) + x ( 2 ) (t 0 )
x*(t)
x(t) x* (t)
δ (t)
x(t) t0
t
t1
Рис.2.4 Погрешность воспроизведения сигнала определится по формуле
max δ(t ) = x ( 2 ) (t 0 ) t∈Δt
Δt 2 ≤ δ Д . Тогда Δt ≤ 2
2δ Д M2
, где М2 - модуль-
максимум второй производной. На рис.2.5 приведена экстраполяции сигнала полиномом Тейлора при n=1.
иллюстрация
x(t) x*(t)
t0
t1
t2
t
Рис.2.5 Рассмотрим интерполяцию сигнала полиномом Лагранжа нулевой степени: n=0, x*(t)≈x(t*). Отсчет берется в любой точке t* интервала Δt. Отсчет лучше брать в середине интервала, тогда x*(t)=x(t*), На рис.2.6 приведена иллюстрация выбора шага дискретизации. Ориентируясь на наихудший случай, т.е. на наибольшее значение x(1) на интервале наблюдения, получим
max x (1) (t ) Δt ≤ 2δ Д . Тогда Δt ≤ t∈Δt
2δ Д . M1
38 Задержка воспроизведения сигнала составит половину шага дискретизации. На рис.2.7 приведена иллюстрация интерполяции сигнала полиномом Лагранжа при n=0. Данная интерполяция называется ступенчатой интерполяцией. x(t) x(t) x*(t)
δ(t)
x*(t)
t0
t*
t1
t
Рис.2.6
x(t) x* (t)
x(t)
x*(t)
t
Рис.2.7 Рассмотрим интерполяцию сигнала полиномом Лагранжа первой степени: n=1, x * (t ) = x(t ) t − t 1 + x(t ) t − t 0 . На рис.2.8 приведена иллюстрация 0 1 t1 − t 0 t0 − t1 выбора шага дискретизации. Данная интерполяция называется линейной, а сигнал описывается с требуемой точностью полиномом Лагранжа второй степени: (t − t 0 )(t − t * ) . ( t − t 0 )(t − t 1 ) ( t − t * )(t − t 1 ) + x( t 1 ) + x( t * ) x( t ) = x( t 0 ) (t 1 − t 0 )(t 1 − t * ) (t * − t 0 )(t * − t 1 ) ( t 0 − t * )(t 0 − t 1 ) Полагая t0=0 и вводя t’=t-t0, оценим погрешность воспроизведения: δ(t’)=x(t’)-x*(t’)=Bt’(t’-t1), t’∈Δt, где
39
⎡ x( t 1 ) − x( t * ) x( t * ) − x( t 0 ) ⎤ − ⎥ x ( 2) (t * ) . ⎢ Δt / 2 Δt / 2 B = 0,5 ⎢ ⎥= 2 Δt / 2 ⎥ ⎢ ⎦⎥ ⎣⎢
x(t) x*(t)
δ (t) x(t) x*(t)
t0
t*
t1
t
Рис.2.8 Погрешность δ(t’) примет наибольшее значение при t’=t*’=Δt/2, тогда 8δ g . Δt 2 max δ( t ' ) = x ( 2 ) (t * ) ≤ δ Д . Следовательно, Δt ≤ 8 M2 На рис.2.9 приведена иллюстрация интерполяции сигнала полиномом Лагранжа при n=1. 2.4.3. Выбор шага дискретизации по вероятностным характеристикам сигнала. Рассматривается сигнал - случайная стационарная функция. Принята равномерная временная дискретизация, ступенчатая экстраполяция и среднеквадратичный критерий приближения. На рис.2.10 приведена иллюстрация выбора шага дискретизации.
40
x(t) x* (t)
x(t)
x(t) x(t1 )
x(t) x*(t)
x*(t)
x* (t) t
t
ti
t
Рис.2.9 Рис.2.10 Среднеквадратичная ошибка воспроизведения в конце участков аппроксимации ti, 1=1,2,3,… , определится σ2=M{[x(ti)-x*(t)]2}=M{[x(ti)-x(ti-Δt)]2}. При ступенчатой экстраполяции x*(t)=x(ti-Δt)=x(ti). Учтем, что M{x2(ti)}=M{x2(ti-Δt)}=Dx+mx2; M{x(ti)x(ti-Δt)}=Bx(Δt)+mx2, тогда σ2=2[Dx - Bx(Δt)]. Шаг дискретизации определится решением уравнения σ2≥2[Dx - Bx(Δt)]. Рассмотрим линейную интерполяцию. Воспроизводящая функция имеет вид
x * (t ) = x(t 0 )
t − t0 t − t1 . + x(t 1 ) t0 − t1 t1 − t 0
Выполним следующие преобразования: t − t0 − x(t 0 )(t − t 1 ) x * (t ) = + x(t 1 ) = t1 − t0 t1 − t0 − x(t 0 )t + x(t 0 )t 1 + x( t 1 )t − x( t 1 )t 0 + x(t 0 )t 0 − x(t 0 )t 0 = = t1 − t0 = x(t 0 ) + [x(t 1 ) − x(t 0 )]
t − t0 . t1 − t 0
41 Пусть χ = t − t 0 , тогда x*(t)=(1t1 − t 0
χ)x(t0)+χx(t1).
Среднеквадратичная ошибка воспроизведения определится σ2=M{[x(t)-x*(t)]2}=M{[x(t)-(1-χ)x(t0)-χx(t1)]}. Учитывая, что M{x2(t)}=Dx+mx2=М{x2(t0)}=М{x2(t1)}; M{x(t)x(t0)}=Bx(tt0)+mx2, M{x(t)x(t1)}=Bx(t-t1)+mx2, M{x(t0)x(t1)}=Bx(t1-t0)+mx2, t1-t0=Δt, получим σ2=Dx[1-(1-χ)2+χ2]-2(1-χ)Bx(t-t0)-2χBx(t-t1)+2χ(1-χ)Bx(Δt). Среднеквадратичная ошибка воспроизведения будет наибольшей в середине участка аппроксимации, т.е. при χ=0,5, t-t0=Δt/2, t-t1=Δt/2. Тогда Δt 2 σ max = 1,5B x ( 0) − 2B x ( ) + 0,5B x ( Δt ) . 2 Для заданного значения средней погрешности σД величина щага дискретизации должна выбираться из условия Δt σ 2д 2 ≤ 1,5B x (0) − 2B x ( ) + 0,5B x ( Δt ) . 2
2.5. Квантование сигнала При квантовании сигналов на дискретные значения разбивается Х область изменения сигнала [11]. На рис.2.11 приведена иллюстрация квантования сигнала x(t). Интервал квантования Δx=xi-xi-1, i=1,2,…,n, n – число квантов. Наименьшее значение сигнала xmin соответствует нижней границе x0 первого уровня квантования, а наибольшее значение сигнала xmax соответствует верхней границе xn n-го уровня квантования.
42
xn
х4 х3 х2 х1 х0
t
Рис.2.11 Мгновенное значение сигнала x(t)∈(xi-1,xi) заменяется величиной x i ∈ ( x i −1 , x i ) , которая называется уровнем квантования. При равномерном квантовании x − x min . Δx i = Δx = max n При замене истинных значений сигнала уровнями квантования существует ошибка (шум):
δ кв = x − x КВ , x(t)∈(xi-1,xi).
43 При равномерном квантовании δКВ минимальная, если уровни выбираются в середине интервала квантования, т.е. x + x i −1 . xi = i 2 Тогда δКВmax=0,5Δx, диапазон изменения ошибок - 0,5Δx≤δКВ≤0,5Δx. Сигнал x(t) случаен, поэтому ошибка квантования также случайная величина. Математическое ожидание и дисперсия ошибок зависят от закона распределения сигнала, числа уровней квантования, размера интервала квантования. Пусть сигнал описывается законом распределения плотности вероятностей ω(t). Тогда, если квантуемая величина и процесс квантования независимы, M[δ квi ( x)] =
xi
∫ (x − x i )ω(x)dx ,
2 M[δ квi ( x )] =
xi
∫ (x − x ) i
2
ω( x )dx .
xi −1
xi −1
Если Δt→0, то ω( x ) ≅ ω( x i ) , тогда xi
M[δ квi ( x )] = ω( x i ) ∫ ( x − x i )dx = x i −1
M[δ 2 квi ( x )] =
ω( x i ) [( x i − x i ) 2 − ( x i −1 − x i ) 2 ] , 2
ω( x i ) [( x i − x i ) 3 − ( x i −1 − x i ) 3 ] . 3
Если x i ∈ ( x i −1 , x i ) находится в середине интервала квантования, то ошибка имеет нормальное распределение, для которого
M[δ квi ( x )] = 0,
D квi =
1 ω( x i )Δx i3 . 12
Дисперсия δКВ с учетом изменений сигнала по всем диапазонам значений от xmin до xmax определится по формуле
D кв = При Δxi≡const, i=1,2,…,n поэтому
D кв =
Δx 2 . 12
1 n ∑ ω(x i )Δx i3 . 12 i =1 D кв =
Δx 2 12
Следовательно,
n
∑ ω(x )Δx , i
i =1
но
n
∑ ω( x )Δx = 1 , i
i =1
среднеквадратичная
ошибка
квантования определится по формуле σ кв = Δx , т.е. среднеквадратичная 2 3 ошибка квантования в √3 раз меньше, чем δКВmax.
44 Если σКВ задана, то при равномерном квантовании требуемое число уровней квантования определится по формуле
n=
x max − x min σ кв 2 3
.
45
ГЛАВА 3 СПЕКТРЫ СИГНАЛОВ 1. ЧАСТОТНАЯ ОБЛАСТЬ ПРЕДСТАВЛЕНИЯ СИГНАЛОВ 1.1. Разложение периодической функции в ряд Фурье Множество, включающее функции cosnω0t и sinnω0t (n=0,1,2,…), является полным и ортогональным на интервале (t0,t0+2π/ω0). Любую периодическую функцию можно представить в виде разложения на интервале (t0,t0+2π/ω0) в виде ряда Фурье [10, 12] f(t)=a0+a1cosω0t +a2cos2ω0t +….+ancosnω0t +… (1.1) +b1sinω0t +b2sin2ω0t +…bnsinnω0t +…. где ω0 - частота первой гармоники, а T=2π/ω0 - длительность интервала разложения (период первой гармоники). Коэффициенты спектра разложения определяются по формулам (см. формулу (1.4) разд1.2)
a0 =
1 T
t0 +T
∫ f (t )dt ,
(1.2)
t0
t0 +T
an =
∫ f (t ) cos ω0 tdt 0
t0 +T
=
2 t0 +T , ∫ f (t ) cos nω0 tdt T t0
(1.3)
=
2 t0 +T , ∫ f (t ) sin nω0 tdt T t0
(1.4)
2 ∫ cos ω0 tdt
t0
t0 +T
bn =
∫ f (t ) sin ω0 tdt
0
t0 +T
2 ∫ sin ω0 tdt
t0
Множество
комплексных
экспоненциальных
функций
{e jnω0t }
(n=0,1,2,…) ортогонально на интервале (t0,t0+2π/ω0). Тогда функцию f(t) можно представить на интервале (t0,t0+2π/ω0) в виде разложения в экспоненциальный ряд Фурье
f (t ) = F0 + F1e jω0t + F2e j2ω0t + ... + Fn e jnω0t + ... + + F−1e − jω0t + F− 2 e − j2 ω0t + ... + F−n e − jnω0t + ... =
∞
∑F e
n = −∞
n
jnω 0 t
.
(1.5)
Коэффициенты формулам F0 =
F0,
Fn
t0 +T
; ∫ f (t )dt
46 F-n спектра разложения определяются по
и
Fn =
t0 +T
− jnω t ∫ f (t )e 0 dt ;
F− n =
t0
t0
t0 +T
∫ f (t )e
jnω 0 t
dt .
(1.6)
t0
jnω0t
− jnω0t
Учитывая, что e =cosnω0t+jsinnω0t, e =cosnω0t-jsinnω0t, подставив выражения экспонент, выраженных через тригонометрические функции, в ряд (1.5), получим формулы, устанавливающие связи между коэффициентами an, bn и Fn: а0=F0, an=Fn+F-n, bn=j(Fn+F-n), Fn=0,5(an-jbn), F-n=0,5(an+jbn). Для формулы (4.1) определим коэффициенты ak=ckcosϕk, bk=cksinϕk, тогда, учитывая, что c k2 cos 2 ϕ k + c k2 sin 2 ϕ k = a k2 + b k2 = c k2 , получим c k = a k2 + b k2
, tgϕk=bk/ak.
Ряд (1.1) можно записать в вещественной форме (обобщенный ряд Фурье): ∞ (1.7) f ( t ) = c + c cos(kω t − ϕ ) , 0
∑ k =1
k
0
k
где ck, ϕk, kω0 - соответственно амплитуда, фаза и частота k–ой гармоники. Угловая частота основной гармоники равна ω0=2π/T. Рассмотрим пример разложения f(t)=At , (0
bn =
2 A A . At sin 2πntdt = 2 2 [sin 2πnt − 2πn cos 2πnt ] 10 = − 1 ∫0 πn 2π n
Разложение f(t) в ряд Фурье примет вид f (t ) =
A A A A ∞ A − sin 2πt − sin 4πt − ... = − ∑ sin n 2πt . 2 π 2π 2 n =1 πn
Разложение этой же функции f(t) в экспоненциальный ряд Фурье будет иметь вид A jA ∞ 1 j2 πnt . F0=А/2, Fn = jA , f ( t ) = e + 2 πn 2 2π − ∞ n
∑
1.2. Представление произвольной периодической функции рядом Фурье
47 Пусть функция f(t) существует на бесконечном интервале времени (-∞
f (t ) =
∞
∑F e
n = −∞
n
jnω0 t
,
(1.8)
а вне интервала правая и левая части равенства (1.8) могут не совпадать. Однако правая часть этого равенства является периодической функцией с периодом
e jnω0t = e jnω0 ( t + T ) . Поэтому если f(t) - периодическая функция с периодом T=2π/ω0, то равенство (1.8) справедливо для всего интервала (-∞,∞). Выбор величины t0 не является существенным фактором.
1. 3. Комплексный спектр сигнала Разложение периодической функции f(t) с периодом Т показывает, что она имеет частотные составляющие с угловыми частотами ω0, 2ω0, 3ω0, …, nω0, … . Периодическая функция обладает своим спектром частот. Если известна f(t), то можно определить спектр и наоборот, по спектру найти f(t). Следовательно, возможно временное и частотное представление функции f(t). При частотном представлении сигнала применяют спектр амплитуд и спектр фаз гармоник. Это дискретные (линейчатые) спектры, которые изображаются графически. Применение разложения в экспоненциальный ряд является более предпочтительным. Периодическая функция выражается суммой экспоненциальных функций с частотами 0, ±ω0, ±2ω0 и т.д. Значение отрицательных частот имеет следующее объяснение. Сигналы ejωt и e-jωt изменяются с одинаковой частотой ω. Их можно представить двумя векторами, вращающимися в противоположных направлениях. Эти вектора при сложении дают действительную функцию времени ejωt + e-jωt =2cosωt. Коэффициент Fn является комплексным и характеризуется величиной и фазой, поэтому для частотного представления необходимы два спектра – спектр амплитуд и спектр фаз. Рассмотрим пример. Пусть f(t)=|Asinπt|. Разложение f(t) в комплексный ряд имеет вид
f (t ) =
∞
1
n = −∞
0
∑ Fn e jnω0t , ω0=2π, Т=1, Fn = A ∫ sin Pte − j2πnt dt =
− 2A , π(4n 2 − 1)
48
2A 2A j2 πt 2A j4 πt 2A j6 πt − − e − e − ... − e π 3π 15π 35π 2A ∞ e j2 πnt 2A − j2 πt 2A − j4 πt − − − ... = − e e . ∑ 3π 15π π n = 0 (4n 2 − 1)
f (t ) =
Спектр функции f(t) представлен на рис.3.1. 2А/π
-6π
-4π
2π
-2π
4π
6π
0 -2А/35π
2А/35π -2А/15π
ω
2А/15π -2А/3π
2А/3π
Рис.3.1 Амплитуды всех гармоник – действительные величины, поэтому необходим график одного спектра. Спектр амплитуд любой периодической функции симметричен относительно оси 0y. Действительно, из формул (1.6) следует, что Fn и F-n – комплексно сопряженные величины, т.е. Fn=F-n*, |Fn|=|F-n|. Следовательно, спектр амплитуд представляет собой четную функцию от ω. Если Fn - действительная величина, то и F-n тоже действительная величина и
Fn=F-n.
Если
F−n = Fn e − jΘn ,
Fn
–
комплексная
следовательно,
спектр
величина, фаз
–
то
Fn = Fn e jΘ n ,
нечетная
функция
относительно оси 0y.
1.4. Представление произвольной функции на бесконечном интервале Непериодический сигнал можно выразить непрерывной суммой (интегралом) экспоненциальных функций. Существует два способа представления. 1. Функция f(t) выражается через экспоненциальные функции на конечном интервале (-T/2
49 2. Способ сводится к созданию периодической функции с периодом T, которая совпадает с f(t) только в пределах одного периода. При T→∞ оказывается, что периодическая функция имеет один единственный период на интервале (-∞
t
Рис.3.2 Построим новую периодическую функцию, в которой fТ(t) повторяется через Т секунд. Вид функции fТ(t) показан на рис.3.3. f(t)
t
Т
Рис.1.3 При T→∞ будет выполняться условие lim f T ( t ) = f ( t ) . Таким образом, T→ ∞
ряд Фурье, представляющий функцию f(t) на бесконечном интервале, будет также представлять f(t) при T=∞. Для функции fТ(t) разложение в ряд имеет вид
f T (t ) =
∞
∑ Fn e jnω0t
n = −∞
∞
1 , где Fn = f (t )e − jnω0t dt . ∫ T −∞
Пусть T→∞, тогда ω0→0 и спектр становится плотнее (чаще). При T→∞ амплитуды Fn→0, но они существуют на любой частоте, т.е спектр из дискретной функции превращается в непрерывную. Введем новые обозначения nω0=ωn. Так как Fn функции от аргумента ωn, то заменим Fn на Fn(ωn). Обозначим TFn(nω0)= TFn(ωn)=Fn(ωn).
50 Тогда
f T (t ) =
∞
∑ F(ωn )e jωnt
T/2
F(ω n ) = TFn =
,
n = −∞
∫f
T
(t )e − jωn t dt . (1.9)
−T / 2
Так как T=2π/ω0, то
1 ∞ f T (t ) = F( ω n )e jωnt ω 0 . ∑ 2π n = −∞
(1.10)
Равенство (1.10) говорит о том, что fТ(t) можно выразить суммой экспоненциальных функций с частотами ωi, i=1,2,..,n. Амплитуда составляющей на частоте ωn равна F(ωn)ω0/2π, т.е. пропорциональна F(ωn). Графическая иллюстрация формулы (1.10) представлена на рис.3.4. ω0 Fω n )e jω nt
ω n-1
ω n ω n+1
ω
Рис.3.4 Если F(ωn)ejωnt - действительные величины, то формула (1.10) есть сумма площадей прямоугольников. Чем меньше ω0, тем лучше точность аппроксимации. При T→∞ ω0→0 обозначим через dω. Сумма в уравнении (1.10) переходит в интеграл. Кривая оказывается непрерывной функцией частоты и записывается через F(ω)ejωt. При T→∞ fТ(t) → f(t) и формулы (1.9) и (1.10) имеют вид ∞
f (t ) =
1 F(ω)e jωt dω , 2π −∫∞ ∞
F(ω) =
∫ f (t )e
− jωt
dt .
(1.11)
(1.12)
−∞
Функция F(ω) является частотным спектром функции f(t) и называется функцией спектральной плотности. Уравнение (1.12) – прямое преобразование Фурье, а уравнение (1.11) – обратное преобразование Фурье.
51
2. СПЕКТР ПЛОТНОСТИ ЭНЕРГИИ Энергия E определяется сопротивлении в 1 Ом, т.е.
рассеиваемым
напряжением
f(t)
на
∞
E=
∫f
2
(t )dt .
(2.1)
−∞
Понятие «энергия» имеет смысл для того случая, когда интеграл (2.1) конечен. Сигналы с конечной энергией называются энергетическими или импульсными сигналами. Если сигнал периодический, то понятие энергии не имеет смысла. Тогда рассматривают среднюю по времени энергию, т.е. среднюю мощность. Такие сигналы называют мощностными. Если F(ω)↔f(t), то ∞ ∞ ⎡ 1 ∞ ⎤ E = ∫ f 2 ( t )dt = ∫ f ( t ) ⎢ F (ω)e jωt dω⎥ dt . ∫ −∞ −∞ ⎣ 2π − ∞ ⎦ Изменим порядок интегрирования в правой части, получим ∞ ∞ ∞ ⎡∞ ⎤ 1 jωt . Так как f ( t )e jωt dt = F( − ω) , то E = ∫ f 2 ( t )dt = F ( ω ) f ( t ) e dt d ω ⎢ ⎥ ∫ ∫ 2π −∫∞ −∞ −∞ ⎣ −∞ ⎦ ∞
2 ∫ f (t )dt =
−∞
∞
или
∞
1 2 F( ω)F( − ω)dω = F( ω)F( − ω) = F( ω) , ∫ 2π − ∞
2 ∫ f (t )dt =
−∞
∞
∞
1 2 2 F(ω) dω = ∫ F(ω) df . ∫ 2π − ∞ −∞
Получено равенство Парсеваля
∞
∞
−∞
−∞
2 ∫ f (t )dt =
∫ F( w )
2
df , согласно
которому энергия сигнала равна площади под кривой |F(ω)|2. Выражением |F(ω)|2 определяется спектр плотности энергии. Спектр плотности энергии показывает, какая доля мощности приходится на каждую частоту.
3. СПЕКТР ПЛОТНОСТИ МОЩНОСТИ Периодический сигнал имеет неопределенную энергию (равную бесконечности). Определяющим параметром мощностного сигнала f(t) является средняя мощность.
52 Средняя мощность сигнала f(t) есть мощность, рассеиваемая напряжением f(t) на сопротивлении в 1 Ом. Средняя мощность определяется по формуле T/2
1 P = lim f 2 (t )dt T→∞ T ∫ −T / 2
(3.1)
Мощность, определяемая по формуле (3.1), есть среднее значение 2
квадрата от функции f(t), обозначаемое f ( t ) , причем T/2
1 f 2 (t )dt . T→∞ T ∫ −T / 2
P = f 2 (t ) = lim
Образуем новую функцию fТ(t),ограничив f(t) интервалом |t| t / 2 При конечном значении Т функция fТ(t) имеет ограниченную энергию. Пусть fТ(t)↔FТ(ω) ,тогда ∞
T/2
2 ∫ f (t )dt =
ET =
−T / 2
∫F
T
2 ( ω) df .
−∞
Следовательно, ∞
T/2
P = lim
T→ ∞
∫f
2
(t )dt =
−T / 2
∫ lim
FT (ω) T
T→ ∞ −∞
2
df .
С увеличением Т энергия сигнала fТ(t) и величина |FТ(ω)|2 возрастают, но FТ(ω)|2/Т может стремиться к пределу. Пусть этот предел существует. Определим спектр плотности мощности Sf(ω) сигнала f(t): 2
S f (ω) = lim FT (ω) / T ,
(3.2)
T→∞
T
∞
∞
1 2 1 1 P = f (t ) = lim ∫ f 2 (t )dt = S f (ω)dω = S f (f )df . ∫ ∫ T→∞ T 2 π 2 π −T −∞ −∞ 2
2
Из формулы (3.2) следует, что спектр плотности мощности является четной функцией от ω, поэтому ∞
P = f 2 ( t ) = 2 ∫ S f ( ω)df = 0
∞
1 S f ( ω)dω . π −∫∞
Спектр плотности мощности сигнала сохраняет информацию только об амплитудах спектральных составляющих FТ(ω), информация о фазе теряется. Следовательно, все сигналы с одинаковыми спектрами амплитуд и
53 различными спектрами фаз будут плотности мощности.
иметь
одинаковые
спектры
54
ГЛАВА 4 ПРИНЦИПЫ ПОСТРОЕНИЯ МОДЕМОВ 1. ВИДЫ МОДУЛЯЦИИ Нанесение информации на материальный носитель достигается определенным изменением некоторых параметров физических процессов, состояний, соединений, комбинаций элементов [13]. Чаще применяют изменение параметров физических процессов – колебаний или импульсных последовательностей. Подобные операции называют модуляцией. В качестве носителей информации могут быть применены: а) фиксированный уровень (напряжение), б) колебания, в) импульсы любой природы. На рис.4.1 приведена иллюстрация видов носителей.
Uм (t) а)
б)
в) Рис.4.1 Модуляция заключается в изменении одного или нескольких параметров носителя. Эти параметры называются информационными. Фиксированный уровень напряжения (а) имеет один информационный носитель. Модуляция сводится к изменению напряжения и носит название прямой модуляции. На рис.4.2 приведен пример прямой модуляции. Колебание (б), как носитель, содержит три информационных параметра – амплитуду, фазу и частоту. Соответствующие виды модуляций получили названия – амплитудная модуляция (АМ), фазовая модуляция (ФМ) и частотная модуляция (ЧМ).
55
U(t)
t
Рис.4.2 Последовательность импульсов (в) предоставляет при модуляции большие возможности. Параметрами модуляции могут быть: - амплитуда (амплитудно-импульсная манипуляция (АИМ)) (см. рис.4.3); - частота (частотно-импульсная манипуляция (ЧИМ)) (см. рис.4.4); - фаза (фазоимпульсная манипуляция (ФИМ)) (см. рис.4.5); -длительность импульсов или пауз (время-импульсная манипуляция (ВИМ)) (см. рис.4.6); -число импульсов (счетно-импульсная модуляция (СИМ)) (см. рис.4.7); -комбинации импульсов и пауз (кодоимпульсная манипуляция (КИМ)) (см. рис.4.8).
Рис.4.3
Т
Т
Т
Рис.4.4
Т
Рис.4.5
Т
Т
Рис.4.6
56
Т
Т
Т
Рис.4.7
00001101
Т
Т
Т
Рис.4.8
2. СПЕКТРЫ МОДУЛИРОВАННЫХ СИГНАЛОВ 2.1. Спектры сигналов, модулированных по амплитуде Спектры дискретных сигналов бесконечны и содержат постоянные составляющие. Поэтому дискретные сигналы не могут эффективно быть переданы по непрерывному каналу без применения модуляции. Спектр сигнала должен быть ограничен и перенесен в диапазон более высоких частот. Для этого применяется модуляция [14]. Переносчик сигнала описывается формулой: U=UМcos(ω0t+ϕ0), где UМ амплитуда гармоники сигнала-переносчика; ω0 - круговая (опорная) частота; ϕ0 - начальная фаза. При амплитудной модуляции (АМ) амплитуда модулированного сигнала изменяется по закону
57
⎡ ⎤ ΔU U 1 = U М ⎢1 + f (t )⎥ = U М [1 + mf (t )], UМ ⎣ ⎦ где m - индекс амплитудной модуляции, который выбирается таким образом, что максимальное и минимальное значения ΔU/UM должны быть равны +1 и –1. Модулированный сигнал определится формулой (2.1) U АМ = U 1 cos(ω0 t + ϕ 0 ) = U М [1 + mf (t )]cos(ω0 t + ϕ 0 ) . Пусть f(t)=cosΩ1t. На рис.4.9 приведены графики информационного сигнала f(t), сигнала переносчика и модулированного сигнала. f(t
Uм
Uм (1+m) Uм
Uм (1-m)
-Uм
Рис.4.9 Наибольшее значение модулированного сигнала – U1=UМ(1+m) при cosΩ1t=1, а наименьшее - U1=UМ(1-m). Огибающая модулированного сигнала повторяет форму информационного (первичного) сигнала. При m>1 возможна “перемодуляция”.
58 Для разложения напряжения по формуле (2.1) на гармонические составляющие применим правило cosxcosy=0,5cos(x-y)+0,5cos(x+y), получим U m U m U АМ = U М cos ω 0 t + М cos(ω 0 − Ω 1 )t + М cos(ω 0 − Ω 1 )t . 2 2 Спектр сигнала, модулированного по амплитуде, состоит из трех гармонических составляющих: несущей с частотой ω0 и двух боковых – нижней с частотой (ω0-Ω1) и верхней с частотой (ω0+Ω1). На рис.4.10 приведен спектр модулированного сигнала. Если спектр первичного сигнала состоит из двух гармонических составляющих с частотами Ω1 и Ω2, то в спектре модулированного сигнала будет две нижних и две верхних боковых составляющих. Спектр любого модулированного сигнала содержит верхнюю и нижнюю составляющие.
UМ 0,5mUМ
ω-Ω 1
0,5mUМ
ω0
ω+Ω 1
ω
Рис.4.10 Чтобы построить спектр АМ сигнала, необходимо: - сместить спектр модулированного (первичного) сигнала на интервал частот, равный несущей ω0; - построить зеркальное отображение смещенного спектра относительно спектральной линии на несущей частоте ω0. Полоса частот АМ сигнала равна (ω0+Ωmax)-(ω0-Ωmax)=2Ωmax, т.е. увеличилась в два раза по сравнению с полосой частот модулирующего сигнала. Для уменьшения полосы частот модулированного сигнала, повышения помехоустойчивости и лучшего использования аппаратуры канала обычная модуляция заменяется передачей одной боковой полосы. Несущая и вторая боковая подавляются фильтрами. В этом случае полоса передаваемых частот сокращается более чем в два раза, при многоканальной передаче число каналов может быть удвоено.
2.2. Спектры сигналов, модулированных по частоте При частотной модуляции амплитуда модулированного напряжения остается постоянной, а частота изменяется в соответствии с законом изменения модулирующего сигнала [14]. Напряжение, модулированное по
59 частоте, изобразим в виде вектора U0≡const, который вращается с изменяющейся скоростью ω, как это показано на рис.4.11. Мгновенное значение напряжения U(t) определится по формуле U=U0cosΘ. Так как ω=dΘ/dt, то Θ = ∫ ω dt + const . Постоянная интегрирования определяет положение вектора в начальный момент отсчета t=0, т.е. ϕ0=const. Тогда мгновенное значение напряжения, модулированного по частоте, определится по формуле U = U 0 cos( ∫ ω dt + ϕ 0 ) . U0
Θ ω
U
Рис.4.11 Если Δω - наибольшее изменение частоты (девиация частоты), то информационный сигнал - ω=ω0 + Δωx(t). Мгновенное значение напряжения определится (2.2) U = U чм = U 0 cos( ω 0 t + Δω x( t )dt + ϕ 0 ) .
∫
При фазовой модуляции величины U0 и ω0 постоянны, а фаза изменяется по закону: Θ=ω0t+Δϕx(t)+ ϕ0, где Δϕ - девиация фазы (наибольшее отклонение вектора на временной диаграмме). Мгновенное значение напряжения, модулированного по фазе, определится по формуле U=UФМ=U0cosΘ=U0cos(ω0t+Δϕx(t)+ ϕ0). Пусть x(t)=cosΩ1t и ϕ0=0. Тогда мгновенное значение напряжения, модулированного по частоте, исходя из формулы (2.2) определим Δω (2.3) U U cos( ω t + Δ ω cosΩ tdt ) = U cos( ω t + sin Ω t ) . чм
0
0
∫
1
0
0
Ω1
1
Величина β=Δω/Ω1 называется индексом частотной модуляции. Частота модулированного сигнала изменяется по закону: dθ d[ω 0 t + β sin Ω 1 t ] ω= = = ω 0 + β cos Ω 1 t . dt dt Очевидно, что ωmax=ω0 + Δω, ωmin=ω0 - Δω. Для разложения сигнала по формуле (2.3) на гармонические составляющие применим разложение cos(x+y)=cos(x)cos(y)-sin(x)sin(y). Тогда
60 UЧМ=U0cos(ω0t+βsinΩ1t)= =U0cos(ω0t)cos(βsinΩ1t)-U0sin(ω0t)sin(βsinΩ1t); ∞ cos(β sin Ω t ) = J (β ) + 2 J (β ) cos 2kΩ t ; 1
∑
0
k =1
2k
(2.4)
1
∞
sin(β sin Ω 1 t ) = 2∑ J 2k +1 (β) sin( 2k + 1)Ω 1 t , k =1
где J2k и J2k+1 - функции Бесселя четного и нечетного порядков.Учитывая, что sin(x)sin(y)=0,5cos(x-y)–0,5cos(x+y), cos(x)cos(y)=0,5cos(x-y)+0,5cos(x+y), получим окончательное разложение в ряд формулы (2.3) UЧМ=U0(J0(β)cosω0t-J1(β)cos(ω0-Ω1)t+J1(β)cos(ω0+Ω1)t-J2(β)cos(ω02Ω1)t+J2(β)cos(ω0+2Ω1)t- J3(β)cos(ω0-3Ω1)t+ (2.5) +J3(β)cos(ω0+3Ω1)t - …) На рис.4.12 приведен спектр сигнала x(t)=cosΩ1t при частотной модуляции. U0J1(β)
U0J1(β)
U0J0(β)
ω0-3Ω 1 ω0-4Ω1
ω0-Ω1 ω0-2Ω 1
ω0 ω0+Ω1
ω0+3Ω1
ω
ω0+2Ω1
Рис.4.12 Возможная девиация частоты Δω зависит от требований к помехозащищенности передачи и ширины выделенной полосы частот. Чем больше Δω, тем больше уровень восстановления первичного сигнала в приемнике и тем большую полосу должен иметь канал. Исследуем, как зависит необходимая ширина спектра ЧМ-сигнала от индекса частотной модуляции β. Пусть β→0, тогда в формуле (2.4) cos(βsinΩ1t)≈1, sin(βsinΩ1t)≈βsinΩ1t, а UЧМ=U0cosω0t-U0sin(ω0t)(βsinΩ1t)= =U0cosω0t-0,5βU0cos(ω0+Ω1)t+0,5βU0cos(ω0-Ω1)t. Таким образом, при β→0 спектр ЧМ-сигнала, как и спектр АМ-сигнала, состоит из трех гармоник. Следовательно, наименьшая ширина спектра такая же, как и у АМ-сигнала. С ростом β учитывается все большее число составляющих. Происходит перераспределение энергии по гармоникам, т.к. число их возрастает. Частотная модуляция с небольшим β называется узкополосной. При данной модуляции выдвигаются повышенные требования к стабильности несущей частоты.
61 Обычно для практически неискаженной передачи срезают все боковые составляющие, амплитуды которых не превышают 10-12% от амплитуды U0 несущей частоты. При β<1 достаточно передать по одной верхней и одной нижней боковой частоте. Ширина спектра при этом не зависит от девиации и равна 2Ω1. При больших индексах модуляции β>1 частотную модуляцию называют широкополосной. Ширина спектра примерно равна 2Δω=(ωmax - ωmin) и не зависит от частоты модулирующего сигнала Ω1.
2.3. Спектры сигналов, модулированных по фазе При фазовой модуляции (ФМ) напряжение U0 и частота ω0 постоянны, а изображающий модулированное напряжение вектор в результате модуляции отклоняется от положения, которое он занимает на диаграмме. Если обозначить наибольшее отклонение вектора или девиацию фазы через Δϕ, то фаза Θ изменяется по закону Θ=ω0t+Δϕx(t)+ϕ0. Мгновенное напряжение, модулированное по фазе, определится по формуле U=UФМ=U0cosΘ=U0cos(ω0t+Δϕx(t)+ ϕ0). Отклонение вектора (качание) можно рассматривать и как вращение с изменяющейся скоростью. Следовательно, между ФМ и ЧМ имеется очень много общего. Спектр сигнала, модулированного по фазе гармоническим первичным сигналом x(t)=cosΩ1t, получается такой же, как и при ЧМ, т.е. U=U0cos(ω0t+Δϕsin(Ω1t)+ ϕ0), где наибольшее изменение фазы Δϕ - индекс ФМ. Спектр ФМ-сигнала по составу такой же, как и спектр сигнала, модулированного по частоте.
2.4. Одновременная модуляция по амплитуде и частоте Наиболее простой по составу спектр сигнала с двойной модуляцией получится при гармоническом законе изменений как частоты, так и амплитуды, т.е. ω=ω0+Δωcos(Ω1t), U=U0(1+mcos(Ω2t)). Из формулы (5.5) следует, что U=UФМ=U0(1+mcos(Ω2t))(J0(β)cosω0t-J1(β)cos(ω0-Ω1)t+J1(β)cos(ω0+Ω1)t -J2(β)cos(ω0-2Ω1)t+J2(β)cos(ω0+2Ω1)t- J3(β)cos(ω0-3Ω1)t+J3(β)cos(ω0+3Ω1)t …). По сравнению с напряжением, модулированным только по частоте, в этой формуле появляются дополнительные составляющие двух видов: mU0J0(β)cos(ω0t)cos(Ω2t)=0,5mU0J0(β)[cos(ω0-Ω1)t+cos(ω0+Ω1)t],
62
mU0Jk(β)cos((ω0±kΩ1)t)cos(Ω2t)=0,5mU0Jk(β)[cos(ω0±kΩ1Ω1)t+cos(ω0±kΩ1+Ω1)t].
Спектр сигнала, модулированного по амплитуде и частоте, приведен на рис.4.13.
ω0-Ω 1 ω0-Ω 1-Ω 2
ω0-Ω 2
ω0
ω0+Ω 2
ω0-Ω 1+Ω 2
ω0+Ω 1 ω0+Ω 1-Ω 2
ω0+Ω 1+Ω 2
ω0+2Ω 1 ω0+2Ω 1-Ω 2 ω0+2Ω 1+Ω 2
Рис.4.13
2.5. Спектры манипулированных сигналов 2.5.1. Амплитудная манипуляция. При амплитудной манипуляции (см. рис.4.14) огибающая повторяет форму первичного сигнала, т.е. получаются гармонические колебания, амплитуда которых имеет два значения: 2U0 и 0. Следовательно, Umax=U0(1+m) и Umin=U0(1-m). x(t)
2U0 U0
Рис.4.14
63 Если спектр модулирующего сигнала известен, то нетрудно построить спектр сигнала после амплитудной манипуляции по правилу [14]: - сместить спектр модулирующего сигнала на интервал частот, равный несущей частоте ; - спектр зеркально отобразить относительно спектральной линии на несущей частоте. 2.5.2. Частотная манипуляция. При частотной манипуляции (см. рис.4.15) сигнал можно представить как сумму двух сигналов U1 и U2 с амплитудной модуляцией. Спектр сигнала при частотной манипуляции состоит из спектров двух амплитудно-модулированных сигналов. U
U1
U2
Рис.4.15 2.5.3. Фазовая манипуляция. Если рассматривается манипулирование по фазе на 180°, то спектр данной фазовой манипуляции находится из спектра сигнала при амплитудной манипуляции последовательностью двоичных двуполярных импульсов (см. рис.4.16). Если к сигналу U0(t) (часть б рис.4.16) добавить немодулированное несущее колебание U0(t) той же амплитуды (часть в рис.4.16) и частоты, то получим амплитудно-модулированный сигнал с двойной амплитудой U0 (часть г рис.4.16). Следовательно, спектр сигнала при манипуляции по фазе можно получить из спектра АМ-сигнала (см. часть а рис.4.16), увеличив
64 вдвое амплитуды всех боковых составляющих и исключив колебания несущей частоты (см. часть б рис.4.16).
x(t) а)
U0 б)
U0 в)
2U0 г)
Рис.4.16 Однако на приемнике фаза принимаемого сигнала не известна и не может быть однозначно установлена. Поэтому применяется относительная фазовая манипуляция (ОФМ), при которой манипуляция фазы происходит относительно фазы предшествующей посылки. Т.е. скачок фазы имеет место тогда, когда в кодовой комбинации повторяются один за другим импульсы или паузы.
65 Получение спектра фазоманипулированного сигнала из спектра амплитудоманипулированного сигнала показано на рис. 4.17.
а) ω0
ω
ω0
ω
б)
Рис.4.17
3. ПРИНЦИП ДЕЙСТВИЯ ДИСКРЕТНЫХ КАНАЛОВ 3.1. Принципы построения многоканальных систем Передача информации с высокой достоверностью возможна тогда, когда пропускная способность С канала больше производительности Н источника (C>H). Если H<
66 Сущность образования группового сигнала состоит в том, что сообщения источников комбинируют, образуя один групповой сигнал, который передается с помощью одного комплекта группового линейного оборудования. В приемнике происходит обратное разделение группового сигнала на индивидуальные сообщения. При передачи дискретной информации применяется частотный, временной и частотно-временной способы разделения. В системах с частотным разделением (рис.4.18) каждый модулированный сигнал передается в своей частотной области и их спектры разделены с помощью соответствующих фильтров. Передача каждого сигнала по каналу осуществляется все время, а все сигналы смешиваются. В системах с временным разделением (рис.4.19) каждый сигнал имеет свой временной интервал, не занятый другими сигналами, но спектры разных сигналов находятся в одной частотной области. Сигнал 1
Сигнал 2
ω ω
Сигнал 2 Сигнал 1
t
t
Рис.4.18 Рис.4.19 Частотно-временной способ разделения представляет собой комбинацию способа с частотным разделением и способа с временным разделением. На рис.4.20 показано размещение сигналов при частотно-временном способе. ω
t
Рис.4.20 Преимущества частотного разделения состоят в обеспечении прозрачности канала (синхронный и асинхронный способы передачи информации), в простоте выделения или ответвления любого числа каналов в промежуточных пунктах. К недостаткам следует отнести: чувствительность к нелинейным искажениям в групповом тракте, что приводит к взаимному
67 влиянию каналов и потере части частотного диапазона на “расфильтровку” сигналов. Преимущества временного разделения определяются небольшой чувствительностью к нелинейным искажениям. Требования к нелинейности тракта такие же, как и в одноканальных СПИ. Оборудования не сложно в реализации (одна несущая, не надо канальных фильтров). Недостатки состоят в трудности сопряжения (несинхронное) с оконечной аппаратурой (передача синхронная), а также в сложности выделения части каналов в промежуточных пунктах. В комбинационных системах групповой сигнал определяется совокупностью сочетаний символов в индивидуальных каналах. Сообщение от всех источников совместно кодируются, так что каждый кодовый символ несет в одной полосе частот в одно и то же время информацию от очередных элементов всех передаваемых сообщений. Передачу от n дискретных двоичных источников можно рассматривать как передачу n–разрядной кодовой комбинации. Например, в СПИ с двойной частотной модуляцией (ДВЧ) элементарным сигналом служит отрезок синусоиды постоянной амплитуды с частотами f1, f2, f3, f4 в зависимости от сочетаний индивидуальных сигналов в двух независимых каналах (табл.4.1). Таблица 4.1 Символы первого канала 0 0 1 1 Символы второго канала 0 1 0 1 Частота ДВЧ f2 f3 f4 f1 Системы передачи информации делятся на синхронные и асинхронные. В синхронных СПИ информация от индивидуальных источников передается с кратными скоростями. Применяются элементы сигналов одинаковой длительности, которые следуют через строго определенные промежутки времени. В асинхронных СПИ индивидуальные источники могут работать с произвольной скоростью, не превышающей заданную.
3.2. Принцип действия канала с амплитудной манипуляцией Структурная схема дискретного канала одного направления передачи информации с АМ приведена на рис.4.21. На рис.3.4 приняты следующие обозначения: ИИ – источник информации; М – модулятор; Д – демодулятор; Г – генератор; Фпер – фильтр передатчика; Фпр – фильтр приемника; У – усилитель; АРУ – блок автоматического регулирования усиления; Фнч – фильтр низкой частоты; ВУ – выходное устройство; ПИ – получатель информации. Сигналы дискретной информации от ИИ в виде импульсов постоянного тока поступают на модулятор М. В зависимости от полярности импульсов М
68 или пропускает через себя ток генератора, или нет. Фильтр Фпер обеспечивает ограничение спектра сигнала, передаваемого в линии связи. От ИИ М
Фпер
Линия связи
Г
к ПИ Фпр
У
Д
Фнч
ВУ
Г АРУ
Рис.4.21 Из линии связи модулированный сигнал попадает в Фпр, назначение которого состоит в уменьшении помех, приходящих из линии связи. При многоканальной передаче с частотным разделением эти фильтры служат для выделения нужного сигнала из группового сигнала. Усилитель У служит для усиления и поддержания совместно с блоком АРУ постоянного уровня сигнала на входе демодулятора Д. В демодуляторе, который представляет собой обычный выпрямитель, АМ-сигнал превращается в импульсы постоянного тока. Фильтр Фнч подавляет в выпрямленном сигнале высшие гармоники и остатки несущей частоты. Выходное устройство ВУ обеспечивает форму и амплитуду сигнала на выходе СПИ. Достоинство данной СПИ состоит в простоте реализации. Недостатки - низкая помехоустойчивость, чувствительность к кратковременным колебаниям уровня сигнала, т.к. эти колебания не могут быть скомпенсированы блоком АРУ из-за его инерционности.
3.3. Принцип действия канала с частотной манипуляцией Структурная схема дискретного канала с ЧМ приведена на рис.4.22. На рис.4.22 дополнительно к ранее введенным обозначениям (см. рис.4.21) приняты следующие обозначения: ОА – ограничитель амплитуды, ЧД – частотный детектор, АД – амплитудный детектор, СС – схема сравнения. На рис.4.23 приведена функциональная схема частотного модулятора. В состав передатчика входит генератор несущей частоты, параметры которого определяются резонансным контуром из индуктивности L и емкости C. Частотная модуляция несущей осуществляется изменением одной
69 из реактивных составляющих контура в соответствии с законом изменения модулированного напряжения. Управление частотной модуляцией происходит следующим образом. От ИИ М
Фпер
Линия связи
Г
АД к ПИ Фпр
ЧД
СС
Фнч
АД У
ОА
Рис.4.22 -E
L2 L1
C1
к Фпер C2
Рис.4.23 При отсутствии сигнала от источника информации частота генератора определяется величинами индуктивности L1 и емкости C1. При поступлении на вход модулятора напряжения одной полярности последовательно с индуктивностью L1 включается индуктивность L2. Общая индуктивность контура возрастает, частота генератора уменьшается. При поступлении от источника информации на вход модулятора напряжения другой полярности последовательно с емкостью C1 включается емкость C2 и частота генератора возрастает. Такой способ модуляции называется «без разрыва фазы».
70 На рис.4.24 приведены временные диаграммы, особенности работы СПИ с частотной модуляцией. а)
б)
поясняющие
е)
ж) з)
в)
и)
к) г)
д)
Рис. 4.24 Генератор несущей частоты и М преобразуют сигналы ИИ в ЧМнапряжение (см. рис. 4.24,б). Нестационарные процессы в Фпер приводят к искажению формы сигналов (см. рис. 4.24,в). Усилитель усиливает приходящий сигнал для обеспечения правильной работы ограничителя амплитуды ОА (см. рис. 4.24,г). Ограничитель амплитуды позволяет: - устранить влияние изменений амплитуды сигнала в канале связи на длительность принимаемого сигнала; - уменьшить искажение элементарного сигнала в результате нестационарных процессов (см. рис. 4.24,д); - уменьшить действие импульсных помех. Частотный демодулятор ЧД называется частотным дискриминатором и преобразует ЧМ-сигнал в совокупность двух АМ-сигналов (см. рис. 4.24,е и рис. 4.24,ж). На рис.4.25 и рис.4.26 приведены варианты схем приемной части СПИ. Преобразование ЧМ-сигнала в совокупность двух АМ-сигналов осуществляется либо с помощью двух последовательно соединенных резонансных контуров (см. рис.4.25), либо двух параллельно включенных фильтров (см. рис.2.26).
71 При резонансе токов в одном из контуров (см. рис.4.25), вследствие большего сопротивления по частоте резонанса, в нем будет и большее падение напряжения. от АО
ЭДР
L1 C1
к ПИ
L2 C2
Рис.4.25 Ф1 к ПИ
от АО
СС
Фнч
Ф2
Рис.4.26 Если от ОА поступил сигнал с fВ, то увеличивается падение напряжения на первой обмотке трансформатора. Если от ОА поступил сигнал с fН, то увеличивается падение напряжения на второй обмотке трансформатора. Напряжения с первой и второй обмоток трансформатора выпрямляются (см. рис. 4.24,з и рис.4.24,и) и подаются на схему сравнения СС, в которой обычно используется электронное дифференциальное реле ЭДР, в зависимости от того, какое напряжение, на каком из входов больше ЭДР выдает сигнал соответствующей полярности (см. рис.4.24,к). Преимущества частотной модуляции определяются тем, что не надо оптимизировать порог для каждого отношения мощности сигнал/помеха. Производится сравнение огибающих частот fВ и fН с нулевым порогом, не зависимым от отношения сигнал/помеха. За счет этого обеспечивается выигрыш в достоверности передачи. Недостаток состоит в чувствительности к изменениям частоты в канале.
3.4. Принцип действия канала с относительной фазовой модуляцией Структурная схема дискретного канала с ОФМ приведена на рис.4.27. Сигнал от ИИ поступает на фазовый модулятор (ФМ), на выходе которого будет последовательность положительных и отрицательных импульсов,
72 умноженных на генератором (Г).
синусоидальное
несущее
колебание,
задаваемое
От ИИ ФМ
Линия связи
Фпер
Г
к ПИ Фпр
ОА
ФД
Фнч
ВУ
ГОЧ
Рис.4.27 Фазовый демодулятор (ФД) выполняет демодуляцию, которая производится путем сравнения фазы принятых колебаний с фазой когерентного опорного колебания от генератора опорной частоты (ГОЧ). На передающей стороне перед Ф имеется кодировщик, который обеспечивает изменение фазы несущей частоты только при передаче единичных элементов сигнала одной полярности, например положительной. Схема передатчика приведена на рис.4.28. В качестве кодировщика применен триггер со счетным входом. На рис.4.29 приведены временные диаграммы, поясняющие работу СПИ с ОФМ. Для осуществления модуляции необходимы тактовые импульсы (ТИ), скорость следования которых синхронизирована со скоростью передачи единичных элементов информации (см. рис. 4.29,а и рис. 4.29,б). Тактовые импульсы сдвинуты относительно единичных элементов информации на величину 0,5τ0, где τ0 - длительность элемента информации. Т
А ТИ L1
UМОД
Г
Выход Б
Рис.4.28
В
73 0,5τ0
τ0 а) UМОД
б) UТИ в)
UА
г)
UБВ
д)
UГ
е) UВЫХ
180°
180°
180°
180°
Рис.4.29 При подаче на базу транзистора положительного импульса сопротивление коллектора относительно земли возрастает, а при подаче отрицательного импульса – падает. Поэтому на вход триггера со счетным входом тактовые импульсы поступают только в моменты времени, соответствующие положительным модулируемым элементам сигнала UМОД (см. рис. 4.29,в). При этом каждый раз меняется знак напряжения между точками Б и В фазового модулятора (см. рис. 4.29,г). Несущая частота (см. рис. 4.29,д) от генератора подается на первичную обмотку трансформатора, а кодированное напряжение модулируемого сигнала – в средние точки трансформаторов. При напряжении сигналов, больших несущей, диоды являются электронными ключами, управляемыми этими сигналами. Изменение знака напряжения UБВ приводит к изменению фазы напряжения на выходе ФМ на 180° по сравнению с фазой напряжения генератора несущей частоты (см. рис. 4.29,е).
74
ГЛАВА 5 КОДИРОВАНИЕ ИНФОРМАЦИИ 1. ПЕРВИЧНЫЕ КОДЫ 1.1. Простой, безызбыточный код При передаче большого объема информации применяется комбинирование, т.е. передача сообщений не одним сигналом, а комбинацией из нескольких элементарных сигналов. Совокупность элементарных сигналов, используемая для передачи одного сообщения, называется кодовой комбинацией. Под кодом понимается набор кодовых комбинаций, поставленных в соответствие набору сообщений. Число возможных значений комбинаций информационного параметра элементарного сигнала называется основанием кода. При математическом описании процесса комбинирования значения информационного параметра записываются с помощью символов 0,1,...,К-1, которые называются кодовыми символами. Множество возможных кодовых символов 0,1,...,К-1, используемых при кодировании, называется кодовым алфавитом. Число К называется основанием кода [11, 15,16]. При К=1 получаем число–импульсный код, применяемый в телефонии. Необходимое число М комбинаций в данном коде получается за счет различного числа m элементов, входящих в каждую комбинацию. Код с данным признаком называется блочным, неравномерным числовым кодом. Если код представляет собой многоэлементный сигнал, с постоянным числом m единиц, то этот код называют блочным, равномерным кодом. Для данных кодов К ≥ 2 . Правило равномерного кодирования в алфавите К основано на представлении сообщения в К–ичной системе счисления. Слева к числам дописываются недостающие до числа m нули. Максимально возможное число кодовых комбинаций (мощность кода) N=Km, где m называют длиной кода. При выборе параметров кода определяют требуемое число М кодовых комбинаций по правилу М≤N= Km. Если К=2, то длина кода определяется из соотношения m=]log2M[, (1.1) где ].[ - операция округления до ближайшего целого числа, М – число сообщений, которое необходимо кодировать.
75 Код для числа М, построенный с параметрами, выбранными по правилу (1.1), называется простым (первичным), безызбыточным кодом. В телемеханике данный код называется кодом на все сочетания, т.к. m
N = 2 m = ∑ C mi =C m0 + C 1m + .. + C mm . i =0
1.2. Коды по законам комбинаторики Способы комбинирования позволяют строить комбинаторные коды. Различают коды, использующие все возможные комбинации с их частичным использованием [11]. 1.2.1. Коды по закону размещений. Закон соединений предусматривает, что кодовая комбинация включает n символов из их общего числа k. Длина кодовой комбинации может быть 2≤n≤k-1. Комбинации различаются либо составом символов, либо порядком их следования. Мощность кода определится по формуле k! . N = A nk = (k − n )! Пример. Пусть k=4, k={0,1,2,3}, N= A 4 = 12 . Построить код по закону размещений. Множество кодовых комбинаций {01, 02, 03, 12, 13, 23, 10, 20, 30, 21, 31, 32}. 1.2.2. Коды по закону сочетаний. Закон соединений определяет построение кодовых комбинаций с включением в них n символов из К в алфавите. Кодовые комбинации различается только составом символов. Мощность кода определится по формуле k! . N = C nk = (k − n)!n! 2
Пример. Пусть k=4, k={0,1,2,3}, n=2 N = С 4 = 6 . Множество кодовых комбинаций {01, 01, 03, 12, 13, 23} или {10, 20, 30, 21, 31, 32}. 1.2.3. Коды по закону перестановок. Закон перестановок характеризуется тем, что все k символов алфавита однократно входят в каждую кодовую комбинацию, т.е. n=k. Кодовые комбинации различаются порядком следования символов. Мощность кода определится по формуле N=PK=k!. Пример. Пусть k=3, k={0,1,2}, N=PK=3!=6. Множество кодовых комбинаций {012, 021, 102, 120, 201, 210}. Очевидно, что для данного кода с ростом N необходимо очень быстро увеличивать k. Это недостаток кода. 2
76 Уменьшить алфавит кода при заданном числе N можно за счет увеличения длины кодовой комбинации, т.е. r–кратного повторения одного или нескольких символов в кодовой комбинации. Пусть каждая кодовая комбинация содержит ri число символов i, тогда мощность кода определится по формуле
N=
n! . k 0 ! r0 ! r1 ! r2 !...rk −1 !
Данный код называется кодом по закону перестановок с повторением. Пример. Пусть k=3, k={0,1,2}, r0=2, r1=r1=1, N=12. Множество кодовых комбинаций {0012, 0021, 0102, 0120, 0201, 0210, 1002, 1020, 1200, 2001, 2010, 2100}. 1.2.4. Сменно–качественные коды. Это разновидность кодов на соединения. В данных кодах соседние символы не должны быть одинаковы. Основание должно быть k>2. Если k=2, то получим при n=4 только две кодовые комбинации 0101 и 1010. Мощность кода определится по формуле N=k(k-1)n-1. Пример. Пусть k=3, n=3, N=3x22=12. Множество кодовых комбинаций {010, 012, 020, 021, 101, 102, 120, 121, 201, 202, 212, 210}.
2. ПОМЕХОУСТОЙЧИВЫЕ КОДЫ 2.1. Основные понятия Ошибки в принятой кодовой комбинации можно обнаружить и исправить с помощью помехоустойчивого кода. Коды реализуются для режимов обнаружения ошибок, исправления ошибок и одновременного обнаружения и исправления ошибок. Корректирующие возможности кода определяются его избыточностью, понятие которой состоит в следующем [15,17]. Равномерный (простой) двоичный код имеет множество кодовых комбинаций B={bi}, мощность которых определяется как N=2n, где n разрядность (длина) кода. Для передачи сообщений из множества B выбирают по определенному закону подмножество A⊂B мощностью M кодовых комбинаций, причем M
77 Аналогично можно ошибки записать в виде кодовых комбинаций, причем множество возможных ошибок E={ei} будет иметь мощность |E|=N, т.е. E=B. Число ненулевых разрядов в кодовых комбинациях называется весом комбинации. Обозначим кодовую комбинацию через bi, а вес di этой кодовой комбинации – через ω(di). Если bi=0101101, то ω(di)=4. Кратность ошибки равна весу комбинации ошибок ei. Пусть передается кодовая комбинация ai∈A, а принимается кодовая комбинация bi∈B, причем bi может принадлежать и не принадлежать множеству A. Кодовая комбинация bi есть результат воздействия ошибки на кодовую комбинацию ai, т.е. bi=ai⊕ ei. Безошибочной будет передача в том случае, если bi=ai, т.е. ω(ei)=0. При ω(ei)≠0→bi≠ai и возможно, что bi∈A необнаруженная ошибка или bi∉A - обнаруженная ошибка в принятой кодовой комбинации. Идея обнаружения ошибок состоит в следующем. Принятая кодовая комбинация декодируется автоматическим устройством – декодером. В результате декодирования принимается решение, содержит или нет кодовая комбинация ошибки. При этом проверяются условия: а) bi∈A и bi∉В/A; б) bi∈В/A и bi∉A. При выполнении условия б) считается, что кодовая комбинация содержит ошибку. Очевидно, что возможно обнаружить те ошибки, которые переводят кодовую комбинацию ai в множество В/A, причем число этих комбинаций ошибок равно N-M. Остальные M комбинации ошибок не обнаруживаются, т.к. они переводят одну разрешенную кодовую комбинацию в другую кодовую комбинацию. Пример. Пусть n=4. Множество простого кода В={0000, 0001, 0010, 0011, 2
0100, …, 1111}. Выберем множество A по закону C 4 . Тогда множество A={0011, 0101, 0110, 1001, 1010, 1100}, а множество В/A содержит оставшиеся комбинации из множества простого кода. Множество E=В. Пусть e=0110, a=1000, тогда при поразрядном суммировании e и a по модулю два получим b=a⊕e=1110. Так как кодовая комбинация bi∈В/A, то ошибка обнаружена. Идея исправления ошибок состоит в следующем. Множество простого кода В разбивается на M=2m подмножеств Вi, причем |Вi|=2n-m. В каждое множество Вi входит одна разрешенная кодовая комбинация ai∈Вi и (2n-m-1) запрещенных кодовых комбинаций. При декодировании принятой кодовой комбинаций bi проверяется, какому из подмножеств Вj (j=1,1,…, 2n-m) принадлежит комбинация bi. Если bi∈Вj, то принимается решение, что передавалась кодовая комбинация aj. Исправляются все ошибки, в результате которых bi∈Вj, причем их
78 количество 2n-m-1. Все остальные ошибки, которые “выводят” bi из множества Вj (bi∉Вj), не исправляются. Пример. Множество простого кода В={0000, 0001, 0010, 0011, 0100, …, 1111}. M=21, |Вi|=23-1=22=4. Построим множества В1={101, 001, 111, 100} и В2={010, 110, 011, 000}. Разрешенные кодовые комбинации 101 и 010. Если ai=101 и e=111, то bj=ai⊕e=010. Следовательно, ошибка не обнаружена. Если ai=101 и e=001, то bj=ai⊕e=100, ошибка обнаружена. При построении кода решаются две задачи: 1) как выбрать множество А (задача кодирования); 2) как разбить множество В на подмножества Вi (задача декодирования).
2.2. Оценка корректирующих свойств кода Кодовое расстояние d по Хэммингу для любых двух кодовых комбинаций определяется как число несовпадающих разрядов в этих комбинациях [17]. Кодовое расстояние равно весу суммы по mod2 этих кодовых комбинаций, т.е.d(aiaj)=ω(ai⊕aj). k
Если обозначить k–й разряд i–й кодовой комбинации как a i , то кодовое расстояние в метрике Хэмминга определится по формуле n
d(a i , a j ) = ∑ a ki − b ki . k =1
Минимальное кодовое расстояние, взятое по всем кодовым комбинациям, называется минимальным кодовым расстоянием кода. С понятием веса кода связана корректирующая способность кода. Чтобы построить код, обнаруживающий r ошибок, необходимо, чтобы выполнялось условие d>r+1. (2.1) Чтобы построить код, исправляющий s ошибок, необходимо, чтобы выполнялось условие d>2s+1. (2.2) Чтобы построить код, обнаруживающий r и исправляющий s ошибок, необходимо, чтобы выполнялось условие d>r+s+1. (2.3)
2.3. Коды для обнаружения одиночных ошибок Если код обнаруживает одиночные ошибки, то для этого кода d=1. 2.3.1. Код с контролем на четность (нечетность). Мощность кода с контролем на четность (нечетность) определяется по формуле: M=2n-1.
79 Построение данного кода осуществляется путем добавления одного контрольного разряда (справа) к простому коду, поэтому длина кода n=m+1, где m - число информационных разрядов. Символы контрольного разряда выбираются так, чтобы число единиц в получаемой кодовой комбинации было четным (нечетным). Так как место в кодовой комбинации контрольного разряда известно, то данный код называется разделимым. Данный код обнаруживает ошибки нечетной кратности. 2.3.2. Код с постоянным весом. Код на одно сочетание, мощность 1
которого определяется по формуле M= С n , обнаруживает ошибки нечетной кратности. Так как место в кодовой комбинации контрольного разряда неизвестно, то данный код называется неразделимым. 1
Пример. Пусть n=4, M= С 4 =4. Множество кодовых комбинаций {0001, 0010, 0100, 1000}. Этот код еще называется распределительным в телемеханических устройствах. 2
3
Также можно построить и коды по законам сочетаний С n , С n и т.д. 2
Пример. Пусть n=5, M= С 5 =10. Множество кодовых комбинаций {00011, 00101, 00110, 01001, 01010, 01100, 10001, 10010, 10100, 11000}. 2.3.3. Корреляционный код. Корреляционный код строится по правилу замен 1 на 01 и 0 на 10. Например, комбинация простого кода 001 в корреляционном коде примет вид 101001. В данном коде не может быть больше трех рядом стоящих одинаковых символов. Код обнаруживает все одиночные ошибки, ошибки двойной кратности, не связанные с трансформацией элементов, т.е. 1→11 и 0→00. 2.3.4. Код с инверсным дополнением. Код с инверсным дополнением строится по правилу дополнения к исходной комбинации простого кода Код инверсной последовательности, например, 1001 → 10010110. обнаруживает одиночные ошибки, а также ошибки двойной кратности, не связанные с равнопозиционностью, т.е. 10010110.
3. ГРУППОВЫЕ КОДЫ 3.1. Определение групповых кодов Групповые коды принято обозначать в виде двойки (n,m), где n - длина кода, а m - число информационных символов [11]. Тогда число контрольных символов k=n-m.
80 Комбинацию β группового кода запишем в виде последовательности β=b1b2,…,bm,c1,c2,…,ck, где b1b2,…,bm - информационные разряды, а c1,c2,…,ck - контрольные разряды. По определению для групповых кодов βi⊕βj, также комбинация группового кода, т.е. результат поразрядного суммирования комбинации βi с комбинацией βj, даст другую комбинацию группового кода. Из этого следует, что кодовое расстояние группового кода определяется (d(βiβj)=ωβi⊕βj) весом кодовой комбинации с минимальным числом единиц. Это свойство замкнутости группового кода позволяет упростить его описание. Можно задать групповой код, указывая не все кодовые комбинации, а только их часть, полагая, что остальные кодовые комбинации могут быть определены через них. Это происходит следующим образом. Совокупность β1, β2, …, βn кодовых комбинаций называется линейно зависимой, если существует набор элементов αl, α2, …, αn (αi∈{0,1}), среди которых хотя бы один отличен от нуля и выполняется условие αlβ1⊕α2β2⊕…⊕αnβn=0. Если это равенство возможно при всех αi=0, то кодовые комбинации β1, β2, …, βn называются линейно независимыми. Если среди 2m кодовых комбинаций группового кода выбрано n линейно независимых кодовых комбинаций β1, β2, …, βm, то для любого набора αl, α2, …, αm (одновременно не равных нулю) получим комбинацию группового кода по правилу (3.1) βr=αlβ1⊕α2β2⊕…⊕αmβm≠0. Составляя всевозможные наборы элементов αl, α2, …, αm, число которых равно , можно получить 2m кодовых комбинаций группового кода по правилу (3.1). Таким образом, любой набор линейно независимых кодовых комбинаций порождает групповой код (n,m). Такой набор записывается в виде матрицы Gm,n, которая называется образующей или порождающей [17]. Матрицу Gm,n можно привести к канонической форме Gm,n=|Ik,Rm,k|, где Ik – единичная матрица, Rm,k – матрица контрольных элементов. Образующая матрица имеет вид
G m ,n =
1
0
...
0
g 11
g 12
...
0
1
...
0
g 21
g 22
... g 2k
... ... ... ...
...
...
...
g m1
g m2
0
0
...
1
g 1k ...
... g mk
Если B1,m – матрица-строка безызбыточного двоичного кода, то кодовая комбинация группового кода определится в виде произведения (3.2) β=B1,m×Gm,n=|b1b2,…,bm,c1,c2,…,ck|, причем контрольные элементы определятся по формуле
81 m
c j = ∑ b i q ij . i =1
(3.3) Из формулы (3.2) следует, что первые m элементов комбинации β группового кода определяются комбинацией безызбыточного кода, а остальные k=n-m элементов определяются как комбинацией безызбыточного кода, так и элементами матрицы Rm,k. Поэтому первые m элементов комбинации β группового кода называются информационными элементами, а остальные k - контрольными. Уравнение (3.3) задает преобразование m разрядной кодовой комбинации безызбыточного кода в n разрядную кодовую комбинацию группового кода. Так как контрольные символы получаем в результате линейных операций над информационными элементами, то групповой код называют еще линейным. Пример. Задана образующая матрица 1 0 0 1 0 G 3,5 = 0 1 0 1 1 . 0 0 1 0 1 Пусть B1,3=001. Контрольный элемент c1=0x1⊕0x1⊕1x0=0, контрольный элемент c2=0x0⊕0x0⊕1x1=1, следовательно, кодовая комбинация группового кода β=00101. Матрицу Rm,k контрольных элементов следует задать исходя из следующих условий: а) вес каждой строки должен быть не менее d-1; б) две любые строки должны отличаться друг от друга не менее, чем в d-2 разрядах. Число контрольных элементов k определяется по формулам Хэмминга [18]: d −1 2
k ≥ log 2 ∑ c ni , d нечетное число;
(3.4)
i =0
d−2 2
k ≥ 1 + log 2 ∑ c ni −1 , d нечетное число.
(3.5)
i=0
Пример. Построить корректирующий код, который будет передавать 34 сообщения и обнаруживать две ошибки. Число информационных символов кода (формула (1.1)) m=]log234[=6. Из формулы (2.1) определяем, что d=3. Из условия (3.4) осуществляет поиск значения k: k=1 – условие 1≥log2(1+7) не выполняется; k=2 – условие
82 2≥log2(1+8) не выполняется; k=3 – условие 3≥log2(1+9) не выполняется; k=4 – условие 4≥log2(1+10) выполняется. Построив шестнадцать комбинаций простого кода, выберем любые шесть, удовлетворяющие условиям построения матрицы R6,4 контрольных элементов. Получим образующую матрицу группового кода (10,6)
G 6 ,10
100000 010000 001000 = 000100 000010 000001
0011 1101 0101 . 0110 1001 1010
3.2. Проверочная матрица Преобразуем соотношение (3.3) к виду m
∑b q i =1
i
ij
⊕ c j = 0, j = 1, k .
(3.6)
Соотношениям (3.3) и (3.6) должны удовлетворять все символы кодовых комбинаций, поэтому эти соотношения называют проверочными. Ели записать правило (3.6) формирования каждого контрольного элемента в виде последовательностей из нулей и единиц, где единицы на позициях, соответствующих информационным элементам, указывают, какие информационные разряды участвуют в образовании того контрольного элемента, на позиции которого в последовательности стоит единица, то получим k последовательностей. Запишем эти последовательности в прямоугольную таблицу размерности k×n, называемую контрольной или проверочной матрицей
H k ,n =
q 11
q 21
q 12
q 22
...
...
q 1k
q 2k
... q m1 1 ... q m 2 0 ...
...
0
...
0
1
...
0
... ... ... ...
... q mk 0
0
= R k ,m , I k , R k ,m = R mT ,k .
... 1
В первой строке матрицы Hk,n записано уравнение для формирования первого контрольного элемента: b1q11⊕ b2q21⊕ b3q31⊕…⊕bmqm1⊕c1=0. Во второй строке матрицы Hk,n записано уравнение для формирования второго контрольного элемента:
83 b1q12⊕ b2q22⊕ b3q32⊕…⊕bmqm2⊕ c2=0. В третьей строке матрицы Hk,n записано уравнение для формирования третьего контрольного элемента: b1q13⊕ b2q23⊕ b3q33⊕…⊕bmqm3⊕ c3=0. В k-й строке матрицы Hk,n записано уравнение для формирования k-го контрольного элемента: b1q1k⊕ b2q2k⊕ b3q3k⊕…⊕bmqmk⊕ ck=0. Пример. Код (6,3) можно построить с помощью образующей матрицы 1 0 0 0 1 1 G 3,6 = 0 1 0 1 0 1 . 0 0 1 1 1 0 Матрица R k ,m = R m ,k имеет вид T
R 3, 3
0 1 1 =1 0 1 . 1 1 0
Проверочная матрица
0 1 1 1 0 0 H 3,6 = 1 0 1 0 1 0 1 1 0 0 0 1 Уравнения формирования контрольных элементов: b2⊕b3⊕c1=0, b1⊕b3⊕c2=0, b1⊕b2⊕c3=0. Если информационная последовательность имеет вид 101, то c1=1, c2=0, c3=1, а кодовая комбинация – 101101. Таким образом, задание проверочной матрицы Hk,n является одним из способов описания группового кода (можно формировать кодовые комбинации). Образующая и проверочная матрицы связаны проверочным соотношением
G m ,n × H kT,n = 0 . Если принимаемая кодовая комбинация β* принадлежит кодовому множеству, то для нее выполняется соотношение (3.3), а матричное произведение (3.7) β * × H kT,n = B 1,m × G m ,n × H kT,n = 0 . Выполнение условия (3.7) свидетельствует об отсутствии ошибки в принятой кодовой комбинации β*. Если при передаче возникла ошибка e, то β*=β⊕e и тогда
84
β * × H kT,n = (β ⊕ е) × H kT,n = β × H kT,n ⊕ е × H kT,n = е × H kT,n . Двоичная последовательность D = е × H
T k ,n
(3.8)
называется опознавателем
(корректором или синдромом) ошибки. Опознаватель ошибки представляет собой k разрядное двоичное число d1d2,…,dk. Опознаватель ошибки можно также получить, если применить к принятой кодовой комбинации β* систему проверочных соотношений (3.6) m
d j = ∑ b i q ij ⊕ c j , j = 1, k .
(3.9)
i =1
Если все элементы di=0 (D=0), то в принятой кодовой комбинации ошибок нет. Пример. Проверочная матрица кода (6,3) 0 1 1 1 0 0 H = 1 0 1 0 1 0. 3,6
1 1 0 0 0 1 Уравнения формирования контрольных элементов: b2⊕b3⊕c1=0, b1⊕b3⊕c2=0, b1⊕b2⊕c3=0. Пусть β*=110110 не содержит ошибок. Результаты проверок следующие: d1=1⊕0⊕1=0, d2=1⊕0⊕1=0, d3=1⊕1⊕0=0. Тоже можно получить в результате умножения
β * × H kT,n =(1х0⊕1х1⊕0х1⊕1х1⊕1х0⊕0х0⊕, 1х1⊕1х0⊕0х1⊕1х0⊕1х1⊕0х0, 1х1⊕1х1⊕0х0⊕1х0⊕1х0⊕0х1)=(000). Пусть e=000100, т.е. β*=110010, тогда d1=1⊕0⊕0=1, d2=1⊕0⊕1=0, d3=1⊕1⊕0=0. Таким образом, D=100 фиксирует наличие ошибки в принятой кодовой комбинации.
3.3. Условия обнаружения и исправления ошибок Для исправления ошибок необходимо, чтобы различным ошибкам соответствовали различные значения синдрома, т.е
e i × H kT1n ≠ e j × H kT1n . Отметим еще одно свойство проверочной матрицы. Групповой код имеет минимальное кодовое расстояние d, если любые d-1 или менее столбцов проверочной матрицы линейно независимы. Произведение (3.8) представим в виде
e × H kT1n = e 1 × h 1 ⊕ e 2 × h 2 ⊕ .... ⊕ e n × h n ,
(3.10)
85 где ei - компонент вектора ошибки, hi - i-й столбец проверочной матрицы, ei×hi - произведение скаляра ei на матрицу-строку hi. Следовательно, для обнаружения ошибок кратности d-1 и менее необходимо и достаточно, чтобы d-1 или менее столбцов проверочной матрицы были линейно независимыми. Из условия (3.10) следует, что опознаватель ошибок можно получить поразрядным сложением тех столбцов hi проверочной матрицы, которым соответствуют единицы на позициях комбинации ошибок. Поскольку опознаватель одиночных ошибок содержит только одну единицу, то состав столбцов проверочной матрицы приобретает следующий смысл. В столбцах hi проверочной матрицы записаны опознаватели одиночных ошибок, имеющих место в i-м разряде кодовой комбинации. Применяя условия (3.8), (3.9) и (3.10), можно построить все возможные формы опознавателей обнаруживаемых и исправляемых кодом ошибок, которые сводятся в таблицу, называемую таблицей декодирования. Поскольку получателю выдаются информационные разряды, то исправление ошибок в контрольных разрядах не производится. Пример построения групповых кодов. Построить код для передачи 25 сообщений, который будет обнаруживать и исправлять одну ошибку. При М=27 m=5, s=1, r=1, d=3. Число контрольных разрядов k=4. Образующая и проверочная матрицы имеют вид 1 0 0 0 0 0 0 1 1 0 0 0 1 1 1 0 0 0 0 1 0 0 0 0 1 1 0 0 1 1 0 1 0 1 0 0. , G 5,9 = 0 0 1 0 0 0 1 1 1 H 4,9 = 1 1 1 0 0 0 0 1 0 0 0 0 1 0 1 0 0 1 1 0 1 1` 0 0 0 0 1 0 0 0 0 1 1 1 0 0 Вид таблицы декодирования приведен в табл.5.1
4. ЦИКЛИЧЕСКИЕ КОДЫ 4.1. Сведения из алгебры полиномов Описание циклических кодов основано на представлении комбинаций в виде многочленов (полиномов) от одной фиктивной переменной х с коэффициентами [17]. При наименьшем разряде полинома присутствует степень x0, а при наибольшем – степень xn-1, где n - длина разрядов. Например, комбинация 11011011 в виде полинома будет иметь вид х7+х6+х4+х3+х+1. Заметим, что арифметический знак + здесь рассматривается как фиктивная операция.
86 Сложение двух полиномов выполняется как поразрядное суммирование по модулю два (mod2). Например, β1=1011=х3+х+1, а β2=11101=х4+х3+х2+1. Тогда β1⊕β1=х3+х+1+х4+х3+х2+1=х4+х2+х. Умножение двух полиномов осуществляется в идеале поля Галуа (хn+1). Происходит это следующим образом. Пусть n=4, β1=0011=х+1, а β2=0110=х2+х. Тогда β1β2=(х+1)(х2+х)=х3+х. Пусть n=4, β1(х)=х3+х2, а β2(х)=х3+х+1. Тогда в обычной алгебре β1β2=х6+х5+х4+х2, а по модулю (х4+1) β1β2=Rem[(х6+х5+х4+х2)/(х4+1)]=х+1, где Rem[.] - остаток от деления. Следовательно, β1β2=х+1 (0011). Таблица 5.1 Синдром ошибки 0000 1000 0100 0010 0001 0011 0110 1110 1001 1100 Остальные коды синдрома
Принимаемое решение Нет ошибок. Информация выдается получателю Ошибка в первом контрольном разряде. Информация выдается получателю Ошибка во втором контрольном разряде. Информация выдается получателю Ошибка в третьем контрольном разряде. Информация выдается получателю Ошибка в четвертом контрольном разряде. Информация выдается получателю Ошибка в первом разряде. Информация после исправления выдается получателю Ошибка во втором разряде. Информация после исправления выдается получателю Ошибка в третьем разряде. Информация после исправления выдается получателю Ошибка в четвертом разряде. Информация после исправления выдается получателю Ошибка в пятом разряде. Информация после исправления выдается получателю Ошибка не обнаружена. Информация стирается
4.2. Построение циклических кодов Циклические коды являются частным случаем групповых кодов и однозначно задаются с помощью порождающего (образующего) полинома
87 g(x)=gkxk+gk-1xk-1+…+g1x+g0. Особенности порождающего полинома: - порождающий полином g(x) имеет наименьшую степень среди многочленов данного идеала (хn+1); - свободный член g0 всегда не равен нулю; - любой многочлен циклической группы делится на g(x) без остатка; - g(x) является делителем для двучлена (хn+1). Так как любое кодовое слово β(х) должно делиться на g(x) , то β(х)=ν(х)g(х). (4.1) Соотношение (4.1) описывает процесс кодирования слова. ν=(νm-1,νm2,…,ν0) - вектор первичного (безызбыточного) кода длиной m разрядов, записанный в виде полинома m −1
ν( x ) = ∑ ν i x i . i =0
В результате применения соотношения (4.1) можно построить неразделимый циклический код, для которого образующая матрица имеет следующий вид: g k g k −1 g k − 2 ... g 0 ... 0
G m ,n =
0
gk
g k −1
...
...
...
... g 1 ...
... 0
.
... ...
0 0 0 ... g k ... g 0 Желательно циклический код представлять в виде разделимого кода, т.е. в кодовой комбинации β(х)=βn-1xn-1+βn-2xn-2+…+β1x+β0, коэффициенты кодового полинома при xn-1, xn-2,…,xk - информационные символы, а при xk1 k-2 ,x , …,x,1 - контрольные символы. Для получения разделимого циклического кода достаточно вычислить остатки от деления произведения xkνi(х), (i-0,1,…m-1) на порождающий полином g(x). Если выбрать в качестве базисных кодовых полиномов xixk+Ri(х), то получим для разделимого кода порождающую матрицу в канонической форме Gm,n=|ImRm,k|. Причем,
R i ( x ) = Re m
xk xi , i = 0, m − 1 . g( x )
(4.2)
Пример. Полином g(х)=х3+х2+1 порождает циклический код (7,4). Информационные элементы кодовых комбинаций, используемые в качестве строк образующей матрицы, имеют следующую запись: νi(х)=х0, νi(х)=х1, νi(х)=х2, νi(х)=х3.
88 Тогда, R0(х)=Rem[xkx0/g(x)]=Rem[x3/(х3+х2+1)]=х2+1, R1(х)=Rem[x4/(х3+х2+1)]=х2+x+1, R2(х)=Rem[x5/(х3+х2+1)]=x+1, R6(х)=Rem[x6/(х3+х2+1)]=x2+x. Образующая матрица будет иметь вид
G 4,7
1 0 = 0 0
0 1 0 0
0 0 1 0
0 0 0 1
1 0 1 1
1 1 1 0
0 1 . 1 1
4.3.Методы обнаружения и исправления ошибок Пусть под влиянием помехи e(x) в канале связи передаваемая кодовая комбинация β(х) переходит в принимаемую кодовую комбинацию β*(х), т.е. β*(х)=β(х)⊕e(x).. Помимо порождающего полинома существует проверочный полином h(x), причем
h( x ) =
xn + 1 = h(x)=hmxm+hm-1xm-1+…+h1x+h0. g( x )
Проверочная матрица циклического кода имеет следующий вид
H k ,n
h0 0 = ...
h1 h0 ...
... ... ...
hm 0 ... 0 h m −1 h m ... 0 ... ... ... ...
0
0
0
...
... ...
.
hm 3
Пример. Для циклического кода (7,4) g(х)=х +х2+1, k=3. Тогда проверочный полином h(x)=(x7+1)/(х3+х2+1)=x4+x3+x2+1. Проверочная матрица имеет следующий вид
1 0 1 1 1 0 0 H 3,7 = 0 1 0 1 1 1 0 . 0 0 1 0 1 1 1 *
Если умножить β (х) на полином h(x), то получим β*(х)h(x)=β(х)h(x)⊕e(x)h(x)=e(x)h(x) по mod(xn+1), т.к. β(х)h(x)=β(х)(xn+1)/g(х)=0. При коррекции ошибок с использованием свойств проверочного полинома последовательность
89 d(x)=e(x)h(x) по mod(xn+1) есть опознователь (синдром) ошибки. Если e(x)h(x)≠0 по mod(xn+1), то принятая кодовая комбинация β*(х) не совпадает ни с одним из элементов идеала (не принадлежит циклическому коду), что свидетельствует о наличии ошибки в принятой кодовой комбинации. Многочлены ошибок различимы, если ei(x)h(x)≠ej(x)h(x). Допустим, полиномы ei(x) и ej(x) различимы, причем ej(x)=xrei(x), r=1,2,…,n-1. Тогда dj(x)=ej(x)h(x)=xrei(x)h(x)=xrdi(x) по mod(xn+1), т.е. dj(x) есть результат циклического сдвига на r шагов влево полинома di(x). Это упрощает процедуру коррекции ошибок. Пример. Циклический код (7,4) имеет проверочный полином h(x)=x4+x3+x2+1, d=3, s=1. Для исправления одиночных ошибок решающая схема декодирующего устройства настроена на корректор d6(x), соответствующий ошибке старшего разряда, что соответствует ошибке e6(x)=x6. Определим корректор ошибки старшего разряда d6(x)=e6(x)h(x)=x6(x4+x3+x2+1)=x6+x3+x2+х по mod (x7+1), d6=1001110. d(x)=β*(х)h(x)=(x5+x2) (x4+x3+x2+1)=x6+x4+x+1 (1010011) по mod (x7+1), d(x)≠d6(x). Следовательно, принятая кодовая комбинация не содержит ошибки в старшем (шестом разряде). Найденный корректор d(x) сдвигаем на один разряд влево, получим d’=0100111, d’(x)≠d6(x), следовательно, и в пятом разряде принятой кодовой комбинации нет ошибки. Затем уже корректор d”(x) сдвигаем на один разряд влево, получим d’’=1001110, d’’(x)=d6(x), следовательно, в четвертом разряде принятой кодовой комбинации есть ошибка. С другой стороны, т.к. h(x)=(xn+1)/g(x), то синдром ошибки принятой кодовой комбинации определится
d( x) =
β * ( x) β* ( x) ⊕ e( x) β* ( x) e( x) e( x) = = ⊕ = (mod g(x)) . g(x) g(x) g( x) g( x) g( x)
Аналогично, если ej(x)=xrei(x), то r e (x) x e j (x) d i (x) = i = = x r e i ( x ) (mod q( x )) , g( x ) g( x ) т.е. dj(x) образуется в результате сдвига di(x) на r шагов влево. Пример. Циклический код (7,4) имеет порождающий полином g(x)=x3+x2+1, d=3, s=1. Корректор настроен на ошибку старшего разряда e6(x)=x6. Корректор ошибки старшего разряда
d 6 ( x) =
x6 2 = x +x по mod g(x). x3 + x2 + 1
90 Пусть β=0110100, e(x)=x4, т.е. β*=0100100. Корректор ошибки в принятой кодовой комбинации β* равен x5 + x2 2 = x +x+1 по mod g(x). d( x ) = 3 x + x2 + 1 Найденный корректор d(x) не равен d6(x), следовательно, принятая кодовая комбинация не содержит ошибки в старшем разряде. Сдвигаем d(x) на один разряд влево, получим d’(x)=d(x)х=x3+x2+х=х+1 по mod (х3+x2+1),. Так как d’(x)≠d6(x),, то в пятом разряде β* также нет ошибки. Выполняем еще один сдвиг d(x) влево, получим d’’(x)=d’(x)x=x2+х. d’’(x)=d6(x), следовательно, в четвертом разряде принятой кодовой комбинации есть ошибка. Условия выбора порождающего полинома следующие. Задано m информационных символов, известны значения r и s. Определяем значения d и k. Число k соответствует степени порождающего полинома g(x), степень полинома должна быть не менее числа k. Полином g(x) является делителем двучлена (xn+1). Корректирующая способность кода будет тем выше, чем больше остатков от деления можно получить от деления xn на полином g(x) (представляется как единица со многими нулями). Остатки от деления отличаются друг от друга в d-2 и более разрядах, вес остатков более либо равен d-1. Полином g(x) может быть произведением двух и более простых полиномов, входящих в разложение (xn+1). Число ненулевых коэффициентов в полиноме g(x) должно быть больше либо равно d. В табл.4.1 приведены разложения полинома (xn+1) на неприводимые сомножители. В табл. 5.2 сомножитель (x+1), входящий в разложение полинома (xn+1) любой степени, не приведен, но его следует учитывать при выборе порождающего полинома. С целью сокращения записи многочлены разложения (xn+1) кодированы восьмеричным кодом: 0↔000, 1↔001, 2↔010, 3↔011, 4↔100, 5↔101, 6↔110, 7↔111. Коэффициенты многочленов в двоичной записи расположены в порядке убывания, так что коэффициент при слагаемом высшего порядка расположен слева. Например, если степень полинома n=15, то из соответствующей строки выписываем кодированные значения 23, 37, 7, 31. Перепишем в восьмеричном коде (010011)(011111)(111)(011001). Разложение полинома степени с учетом (x+1) примет вид 15-й (x15+1)=(x+1)(x4+x+1)(x4+x3+x2+x+1)(x2+x+1)(x4+x3+1).
91 Степень полинома 2 3 5 7 9 10 14 15 17 21 23 25 27 31 33 35 39 41 43 45 47 49 51
Неприводимые сомножители 3 7 37 13, 17 111, 7 3, 37 3, 13, 13, 15, 15 23, 37, 7, 31 727, 471 127, 15, 165, 7, 13 5343, 6165 4102041, 37 1001001, 111, 7 45, 75, 67, 57, 73, 51 3043, 3777, 2251, 7 16475, 13627, 13, 37, 15 13617, 17777, 17075, 7 6647133, 5747175 52225, 47771, 64213 10011, 23, 111, 11001, 37, 7, 31 43073357, 75667061 10040001, 10000201, 13, 15 763, 727, 433, 471
Таблица 5.2 Старшая степень сомножителя 1 2 4 3, 3 6, 2 1, 4 1, 3, 3, 3, 3 4, 4, 2, 4 8, 8 6, 3, 6, 2, 3 11, 11 20, 4 18, 6, 2 5, 5, 5, 5, 5, 5 10, 10, 10, 2 12, 12, 3, 4, 3 12, 12, 12, 2 20, 20 14, 14, 14 12, 4, 6, 12, 4, 2, 4 23, 23 21, 21, 3, 3 8, 8, 8, 8
5. КОДИРУЮЩИЕ УСТРОЙСТВА 5.1. Линейные переключательные схемы 5.1.1. Устройство умножения. Устройства умножения реализуют на полусумматорах (М2) и D-триггерах, которые можно рассматривать как элементы задержки на один такт времени [11]. Пусть задан некоторый фиксированный полином g(x)=gkxk+gl-1xl1 +…+g1x+g0, а также существует произвольный полином p(x)=pl-1xl-1+pl-2xl2 +…+p1x+p0. Схема устройства умножения p(x)g(x) представлена на рис.5.1.
92
D0
g0
М2
g1
D1
М2
D2
g2
М2
… g k-1
D k-1
М2
gk
p(x)
Рис.5.1 При реализации конкретной схемы для умножения на фиксированный полином выполняется правило. Если коэффициент gi=1, то между элементами Di-1 и Di находится полусумматор М2, а если gi=0, то выход элемента Di-1 непосредственно связан со входом элемента Di. При работе устройства умножения коэффициенты полинома p(x) поступают, начиная со старшего разряда по тактам синхронизации. В исходном состоянии все элементы памяти (D-триггера) находятся в нулевом состоянии. Пример. Пусть p(x)=x2+x+1, а g(x)=x+1. Устройство умножения на g(x) приведено на рис.5.2. В табл.5.3 приведены временные диаграммы, поясняющие работу устройства умножения. D0
g0
М2
g1
p(x)
Рис.5.2 Такты 1 2 3 4
Вход 1 1 1 0
D0 1 1 1 0
М2 1 0 0 1
Выход 1 0 0 1
Таблица 5.3 Степень х3 х2 х1 х0
93 Если умножать p(x)g(x) в алгебраической форме, то получим p(x)g(x)=(x2+x+1)(x+1)=х3+1. Этот же результат получен и в устройстве умножения и показан на временных диаграммах (см. табл.5.1). 5.1.2. Устройство деления. Пусть задан фиксированный полином g(x) и произвольный полином p(x). Старшая степень полинома g(x) есть deg[g(x)]=k, а старшая степень полинома p(x) - deg[p(x)]=l-1. Полином p(x) делимое, а полином g(x) - делитель. Устройство деления p(x)/g(x) представлено на рис.5.3. g0
g1 М2
D0
g2 М2
g k-1
D1
М2
D2
…
gk М2
D k-1
p(x)
Рис.5.3 Структура схемы предусматривает, что если gi=1, то между элементами Di-1 и Di находится полусумматор М2, а если gi=0, то выход элемента Di-1 непосредственно связан со входом элемента Di. При работе устройства в течение первых k тактов происходит заполнение элементов памяти, т.к. l-1>k. Следовательно, до k–го такта обратная связь не работает, и в схеме осуществляется обычный сдвиг. Начиная с (k+1)-го такта, на выходе устройства начинают появляться элементы частного от деления, и вступает в работу обратная связь. После l тактов на выходе устройства будет сформирован последний элемент частного, а в элементах Di будет записан остаток от деления. Пример. Пусть p(x)=x2+x+1, а g(x)=x+1. Устройство умножения на g(x) приведено на рис.5.2. В табл.5.1 приведены временные диаграммы, поясняющие работу устройства умножения. Пример. Пусть p(x)=x4+x3+х+1, а g(x)=х2+x+1. Устройство деления на g(x) приведено на рис.5.4. В табл.5.4 приведены временные диаграммы, поясняющие работу устройства умножения. g0=1
g1=1 М2
D0
М2
D1
p(x)
Рис.5.4 Вход
М2
D0
М2
D0
Таблица 5.4 Выход
1 1 0 1 1
1 1 1 1 0
94 0 1 0 1 0
1 1 1 1 0
0 1 0 1 0
0 0 1 0 1
При делении p(x) на g(x) остаток равен нулю, а частное от деления равно х2+1. 5.1.3. Устройство одновременного умножения и деления. Пусть v(x) фиксированный полином, deg[v(x)]=k, g(x) - фиксированный полином, deg[g(x)]=k, p(x) - произвольный полином, deg[p(x)]=l-1. Устройство осуществляет операцию p(x)v(x)/g(x). Схема устройства представлена на рис.5.5. g0
g1 М2
v0
D0
g k-1 М2
v1
D1
…
D k-2
v k-1
gk М2
D k-1
М2
vk
p(x)
Рис.5.5 Если на вход подать полином p(x), то через l тактов на выходе получим последний коэффициент частного от деления p(x)v(x)/g(x), а в элементах Di будет зафиксирован остаток от деления.
5.2. Методы кодирования циклических кодов Известны три метода кодирования и соответственно три способа построения кодирующих устройств, первые два из которых основаны на свойствах порождающего полинома [11]. 5.2.1. Модель 1. Согласно правилу (4.1), комбинация циклического кода β(х) может быть получена при умножении комбинации простого кода ν(х) на образующий полином g(х). На этом правиле и построено кодирующее устройство, т.е. оно представляет собой устройство умножения (см. рис.5.1). Это устройство является простым в реализации, но его недостаток состоит в том, что получаемый циклический код не является систематическим. Принятая кодовая комбинация в явном виде не содержит информационных символов. Для выделения информационных символов
95 следует дополнительно, после приема, выполнять операцию деления β(х)/g(x)=ν(x), что усложняет приемник. 5.2.2. Модель 2. Данная модель предусматривает вычисление остатка r(x) от деления информационного полинома ν(х), предварительно умноженного на хk, на порождающий полином, т.е. ν(х)хk=g(x)g’(x)⊕r(х). (5.1) Рассмотрим полином β(х)=g(x)g’(x)=ν(х)хk⊕r(х)=ν(х)хk⊕r(х) по модулю (хn+1). Коэффициенты при n-k старших разрядах рассматриваются как m информационных символов, а при k младших расположены проверочные символы. Следовательно, полученный код будет систематическим (см. правило (4.2)). При построении кодера используют одновременно операции умножения на ν(х)=хk и деления на g(x). Схема устройства автоматического кодирования приведена на рис.5.6. g0
g1 D0
g k-1 М2
D1
… D k-1
gk М2
D k-1
1
М2
2
ν(x)
ИЛИ
βx)
Рис.5.6 В течение первых m тактов ключ находится в положении 1. Коэффициенты безызбыточного кода ν(х) через элемент ИЛИ поступают на выход устройства и через полусумматор – в схему автоматического умножения на ν(х)=хk и деления на g(x). В элементах памяти Di к концу m-го такта будет сформирован остаток от ν(х)хk/g(x)=r(x). Между m и (m+1)-м тактами ключ переводят в положение 2, обратная связь разрывается. Выход полусумматора подключается ко входу элемента ИЛИ и содержимое (r(x)) регистра на элементах памяти Di выталкивается на выход кодера. Пример. Построить кодер для кода (7,4) при g(x)=x3+x2+1, m=4, k=3. Схема устройства приведена на рис.5.7.
96
D0
D1
М2
D2
1
М2
2
ν(x)
ИЛИ
βx)
Рис.5.7 Полином безызбыточного кода имеет вид ν(х)=x3+x+1, полином циклического кода β(х)=x6+x4+x3+x2. Можно убедиться, что r(x)=x2. В табл.5.5 приведены временные диаграммы работы кодера. Таблица 5.5 Выход Такты Ключ Вход D1 M2 D2 M2 D0 1 1 1 1 0 1 1 1 1 2 2 0 1 1 1 1 1 0 3 1 1 0 1 1 1 0 1 4 1 1 0 0 1 1 0 1 5 2 0 0 0 0 0 1 1 6 2 0 0 0 0 0 0 0 7 2 0 0 0 0 0 0 0 К концу четвертого такта в элементах памяти Di сформирован остаток x2. Действительно, элемент D2 находится в состоянии “единица”, а остальные элементы памяти - в состояниях “ноль”. 5.2.3. Модель 3. Данная модель основана на свойствах проверочного полинома. Из разд.4 известно, что (5.2) β(х)h(x)≡0 по mod (xn+1). (i) Пусть (βH ), i=1,2,…,n-1 - скалярное произведение, где H(i) – вектор, коэффициенты которого сдвинуты на i разрядов в сторону старшего разряда
97 (влево). Вектор β ортогонален вектору H, записанному в обратном порядке, и всем векторам, образованным циклическим сдвигом. Если информационные символы размещены на первых m позициях кодового вектора β(х), то с помощью первых k уравнений системы (5.2) можно определить контрольные символы. Рассмотрим уравнение (βH(0))=0=(bn-1,bn-2,…,b0)(h0,h1,…,hm,0m+1,…,0n-1)=0, причем число нулей равно k: bn-1h0⊕ bn-2h1⊕bn-3h2⊕ …⊕ bn-mhm-1⊕ bn-m-1hm=0. Заметим, что bn-1h0 – это элемент νm-1, bn-2h1 – это элемент νm-2, bn-mhm-1 – элемент ν0, а bn-m-1hm - это первый неизвестный контрольный символ. m −1
Так как hm, то bn-m-1= bn-1h0⊕ bn-2h1⊕bn-3h2⊕ …⊕ bn-mhm-1= ∑ b n −1− j h j , j= 0
(1)
(βH )=0=(bn-1,bn-2,…,b0)(0,h0,h1,…,hm,0,…,0)=0, причем число нулей равно k-1. В общем случае (βH(0))=0 ∀ i=1,2,…kб m −1
bn-m-ш= ∑ b n − i − jh j .
(5.3)
j= 0
По формуле (5.3) находятся все контрольные символы, а получаемый циклический код будет систематическим. Схема кодера приведена на рис.5.8 М2 h m-1 D m-1 ν(x)
h1 D m-2
…
h0 D0
β(x)
Рис.5.8 При построении схемы следует выполнять условия: - число ячеек памяти равно deg[h(x)]; - если коэффициент hi=1, то выход ячейки Di соединен со входом полусумматора М2, а если коэффициент hi=0, то выход ячейки Di соединен со входом ячейки Di-1. Работает кодер следующим образом. Первые m тактов ключ находится в положении 1, затем между m–м и (m+1)-м тактом переводится в положение 2. В положении 2 ключ находится k тактов, а затем снова переводится в положении 1. Таким образом, в течение
98 m тактов заполняется регистр из D- триггеров, а затем вычисляются контрольные символы. Недостаток данной схемы обусловлен задержкой на m тактов. Пример. Пусть проверочный полином h(x) кода (7.4) имеет вид h(x)=x4+x3+x2+1, последовательность безызбыточного кода ν=1100, комбинация циклического кода β=1100101. Схема кодера приведена на рис.5.9. В табл.5.6 приведены временные диаграммы, поясняющие работу кодера при кодировании ν=1100.
М2
D3
D2
D1
D0
β(x)
ν(x) Рис.5.9
Таблица 5.6 Ключ 1 1 1 1 2 2 2 1 1 1 1
Такты 1 2 3 4 5 6 7 8 9 10 11
ν(х) 1 1 0 0 0 0 0 0 0 0 0
D3 1 1 0 0 1 0 1 0 0 0 0
D2 0 1 1 0 0 1 0 1 0 0 0
D1 0 0 1 1 0 0 1 0 1 0 0
D0 0 0 0 1 1 0 0 1 0 1 0
M2 0 1 0 1 0 0 1 0 0 1 1
Выход 0 0 0 0 1 1 0 0 1 0 1
6. ДЕКОДИРОВАНИЕ ЦИКЛИЧЕСКИХ КОДОВ
99
6.1. Устройство декодирования для режима обнаружения ошибок Схема декодера для режима обнаружения ошибок приведена на рис.5.10. bn-1, bn-2 ,…, b0 ,
Блок регистров
И ν n-1
И ν n-2
И
… ν0
Вычислитель синдрома S0 Управление
S1
Sk-1
Селектор нулевого синдрома
Рис.5.10 Если β(х) - полином передаваемой комбинации циклического кода, а β*(х) - полином принимаемой комбинации, то β*(х)=β(х)⊕e(x) , где e(x) полином комбинации ошибки. Синдром ошибки определяется вектором ошибки, т.к. S(x)=Rem[β*(х)/g(x)]=Rem[e(х)/g(x)]. В схеме декодера вычисляется синдром S(x) и проверяется условие e(х)=0 → S(x)=0, S(x)≠0 → e(х)≠0. Чтобы обнаружить ошибку, необходимо убедиться, что код синдрома равен нулю S(x)=Rem[β*(х)/g(x)]. Принимаемая кодовая комбинация подается одновременно в блок регистров и в вычислитель синдрома старшим разрядом вперед. В течение n тактов блок регистров будет заполнен, а в вычислителе синдрома будет выполнено деление принятой комбинации на образующий полином. Если остаток от деления равен нулю, то на выходах Sk-1, Sk-2, …, S0 будут нулевые потенциалы. На (n+1)-м такте селектор нулевого синдрома (СНС) разрешит через элементы И выдачу информации. Если хотя бы одна компонента кода синдрома отлична от нуля, то информация не выдается. Селектор нулевого синдрома представляет собой комбинаторную схему, которая создается согласно функции алгебры логики. Функция алгебры логики записана в табл.5.7.
100 Синдром … Sk-2 0 0 … … 1 ….
Sk-1 0 0 … 1
Таблица 5.7 Выходной сигнал СНС 1 0 … 0
S0 0 1 … 1
Пример. Пусть для циклического кода заданы: n=6, m=3, d=3, g(x)=x3+x2+1, s=0, r=2. Схема декодера приведена на рис.5.11. Пусть β*(х)=β(х)⊕e(x)=(х5+х4+х2)⊕(х4+х3)=х5+х3+х2. Работа декодера отображена в виде временных диаграмм, приведенных в табл.5.8. Как видно из табл.5.8, селектор нулевого синдрома на седьмом такте будет иметь на своем выходе нулевой потенциал, т.к. на шестом такте элемент памяти D1 находился в единичном состоянии. D
* 0
И
D
*
1
D
И
*
2
D
И
*
D
3
И
*
4
И
D
*
5
И
Вычислитель синдрома М2
D0
D1
М2
D2
И 7 такт
Рис.5.11 Такт 1 2 3
Вход 1 0 1
D0 1 0 1
D1 0 1 0
D2 0 0 1
CHC 0 0 0
D*0 1 0 1
Таблица 5.8 D*1 … D*5 0 … 0 1 … 0 0 … 0
101 4 5 6
1 0 0
0 1 0
1 0 1
1 0 0
0 0 0
1 0 0
1 1 0
… … …
0 0 1
6.2. Устройство декодирования для режима исправления ошибок Всякому исправляемому вектору ошибок соответствует свой синдром, т.е. ∀ ei(x),ej(x)∈E ei(x)≠ej(x) → Si(x)=Rem[ei(х)/g(x)]≠Sj(x)=Rem[ej(х)/g(x)]. Из этого следует, что между элементами множества ошибок Е и элементами множества синдромов S (в разд. 4 синдром имел обозначение D) установлено взаимно однозначное соответствие. Существуют два метода определения полинома ошибок по синдрому параллельный и последовательный методы. 6.2.1. Параллельный метод определения ошибок. Схема кодера, работающего согласно параллельному методу, приведена на рис.5.12. bn-1, bn-2,…, b0,
Блок регистров b0
b1
bn-1
Вычислитель синдрома S0
S1
Управление не (n+1)-м такте
Sk-1
Селектор синдромов е0
е1
М2 ν n-1
en-1
М2 ν n-2
…
М2 ν0
Рис.5.12 Рассмотрим пример. Для циклического кода заданы: n=5, m=2, d=3, g(x)=x3+x2+1, r=s=1, |Е|=5. Множество полиномов ошибок Е={х4, х3, х2, х1, х0}. Множество полиномов синдромом ошибок S={х2+х+1, х2+1, х2, х, 1}. Вычислитель синдрома представляет собой такую же схему, как и вычислитель синдрома на рис.5.11. Схема селектора синдромов (см. рис.5.12) представляет собой комбинаторную схему, синтезированную согласно
102 таблице соответствия элементов множества синдромов S множеству ошибок Е. Соответствие для данного примера приведено в табл.5.9. Исходя из данных табл.5.9, синтезирована схема селектора синдромов, вид которой приведен на рис.5.13. Следует отметить, что сложность селектора синдрома определяется длиной кода и числом исправляемых ошибок |Е|. Таблица 5.9 S2 1 1 1 0 0
S S1 1 0 0 1 0
S0 1 1 0 0 1 S 2 S1
e4 1 0 0 0 0
e3 0 1 0 0 0
Е e2 0 0 1 0
е1 0 0 0 1 0
е0 0 0 0 0 1
S0
НЕ
НЕ
НЕ
И
е4
И
е3
И
е2
И
е1
И
е0
6 такт
Рис.5.13 6.2.2. Последовательный метод определения ошибок. Данный метод направлен на сокращение числа синдромов и упрощение реализации. Логика метода изложена в разд.4.3. На рис.5.14 приведена схема декодера, в которой процедура декодирования осуществляется за 2n тактов. Первые n тактов осуществляется определение синдрома ошибки принятой кодовой комбинации, а последние n тактов определяется разряд кодовой комбинации, содержащий ошибку.
103 1
К1
Блок регистров
β
М2
2
(2n+1)-й такт
И ν n-1
И ν n-2
И
… ν0
Вычислитель синдрома К2
S0
S1
Sk-1
Схема селекции
Рис.5.14 Схема селекции настроена на синдром ошибки старшего разряда. В течение первых n тактов ключ К1 находится в положении 2, ключ К2 замкнут. Происходит определение синдрома ошибки принятой кодовой комбинации. В течение последующих n тактов ключ К1 переводится в положение 1, а ключ К2 разомкнут. Начат этап исправления ошибки. В первые n тактов заполняется блок регистров и в вычислителе синдрома определяется синдром ошибки старшего разряда. В течение последующих n тактов осуществляется циклический сдвиг и выполняется поиск ошибки так, как это описано в разд. 4.3. На (2n+1)-ом такте подается сигнал разрешения на выдачу исправленной кодовой комбинации. Реализацию и работу схемы селекции рассмотрим на примере последующего декодера (см. рис.5.15). Недостатком данной схемы является задержка при декодировании на n тактов. Избавиться от данного недостатка позволяет применение декодера, схема которого приведена на рис.5.15.
104
β
БР1
М2
БР2 (n+1) такт
ВС1 S0 S1
И Sk-1
ν n-1
И ν n-2
…
И ν0
ВС2 S0 S1
Sk-1
еn-1 , еn-2 ,…, е0 ,
СС
Рис.5.15 Работает декодер при непрерывной передаче следующим образом. Информация записывается одновременно в первый буферный регистр БР1 и в первый вычислитель синдрома ВС1. В ВС1 происходит определение синдрома ошибки в принятой комбинации циклического кода. Между n-ым и (2n+1)-ым тактами содержимое ВС1 переносится во второй вычислитель синдрома ВС2. Содержимое ВС1 сбрасывается в ноль. В последующие n+1 тактов в ВС2 происходит циклический сдвиг найденного в ВС1 синдрома. Схема селекции представляет собой селектор нулевого синдрома (см. рис.5.10 и рис.5.11). Исправленная кодовая комбинация записывается во второй буферный регистр БР2. Так как этап исправления ошибок в β*(х) совпадает с этапом вычисления синдрома последующей кодовой комбинации, то импульсы считывания информации на элементы И поступают через каждые n тактов. На рис.5.16 приведены временные диаграммы, показывающие последовательность
105 приема кодовых комбинаций, выдачи информации получателю.
вычисления синдрома ошибок и
β *1 (x)
Прием Вычисление
β *2 (x)
β *3 (x)
S1 (x)
S2 (x)
Выдача β 1(x)
β 2(x)
Рис.5.16 Пример. Для циклического кода заданы: n=6, m=3, d=3, g(x)=x3+x2+1, r=s=1. Схема декодера при непрерывной передаче приведена на рис.5.17. Селектор синдрома настроен на корректор ошибки старшего разряда S6(х)=х+1 (011). Пусть β*(х)=β(х)⊕e(x)=(х5+х4+х2)⊕х4=х5+ х2. Работа декодера отображена в виде временных диаграмм, приведенных в табл.5.10. β
D
* 0
D
* 1
D
* 2
D
* 3
D
* 4
D
* 5
М2
D
ВС1
* 0
И М2
D01
D11
М2
D21
М2
D01
D11
М2
D21
ВС1
И
Рис.5.17
№ Код
ВС1
ВС2
Таблица 5.10 СС
* 1
D
И
… D
…
* 5
И
1 2 3 4 5 6
1 0 0 1 0 0
D01
D11
D21
1 0 0 0 1 1 0
0 1 0 0 0 1 0
0 0 1 1 1 1 0
7 8 9 1 0 1 1 1 2
D01
7 8 9 10 11 12
106 D12
D22
1 1 0 1 0
1 1 1 0 1
1 0 1 0 0
0 1 0 0
0
0
1
0 0
№ 1 2 3 4 5 6
D02
1 0 0 1 0 0
Окончание табл. 5.10 Регистр М2 D11 … D51 0 1 0 0 1 0
0 0 0 0 0 1 0 0 1 0 0
1 1 0 1 0 0
107
ГЛАВА 6 ПРИНЦИПЫ ПОСТРОЕНИЯ СИСТЕМ ПЕРЕДАЧИ ИНФОРМАЦИИ 1. СИНХРОНИЗАЦИЯ И ФАЗИРОВАНИЕ 1.1. Общие понятия Две последовательности называются синхронными, если соответствующие события в них происходят в одно и то же время. Синхронизация есть процесс установления и поддержания синхронного состояния. В системах передачи информации (СПИ) существует одна последовательность событий в передатчике, а другая последовательность событий существует в приемнике. При передаче дискретных сообщений сигналы представляют собой последовательности элементов определенной длины. Поэтому необходима синхронизация отсчетов времени в передатчике и в приемнике СПИ. Отсчеты времени называют тактами, а синхронизацию тактовой. Синхронизация последовательности отсчетов времени, из которой формируются импульсы опроса решающего устройства, должна находиться в определенном фазовом отношении к принимаемым единичным элементам дискретного сообщения [14]. Расстояние между импульсами опроса зависит от способа обработки дискретных сообщений. Существует два способа - обработка в целом и поэлементная обработка сообщений. В первом случае кодовая комбинация определяется как сложный единичный сигнал. Если кодовая комбинация имеет n единичных элементов длительностью τ0, то опросные импульсы должны следовать с интервалами nτ0 и совпадать с началом каждой принимаемой кодовой комбинации. Во втором случае опросные импульсы должны следовать с интервалом τ0 и находиться в определенном фазовом отношении к принимаемым единичным элементам. После принятия решения о каждом элементе кодовой комбинации принимается решение об информационном символе, соответствующем данной кодовой комбинации. Следовательно, в приемнике должны быть сигналы, отмечающие начало и конец кодовой комбинации. Различают синхронизацию по элементам и по циклам.
108 Синхронизация по элементам (синхронизация) есть процесс установления соответствия между значащими моментами единичных элементов при передаче и приеме. Синхронизация по циклам (фазирование по циклам) есть процесс установления соответствия между фиксированными по местоположению в кодовой комбинации значащими моментами при передаче и приеме. Сигналы, элементы которых могут иметь любую длительность, но не меньше величины τmin, называют анизохронными. Противоположным типом является изохронный сигнал. Промежуточным между анизохронным и изохронным сигналом является сигнал известной структуры. Дискретные каналы делятся на асинхронные и синхронные. Асинхронными называют такие каналы, у которых модулятор приемника (первая решающая схема) не синхронизирован с передающим устройством. Синхронными называют такие каналы, у которых модулятор приемника работает синхронно по единичным элементам с передатчиком. Каналы, по которым передаются сигналы определенной структуры, называют непрозрачными. Асинхронный дискретный канал называется прозрачным при обеспечении передачи анизохронных сигналов, причем по прозрачному каналу могут передаваться также и изохронные сигналы, и сигналы известной структуры. Все способы передачи делятся на асинхронные, синхронные и стартстопные. При асинхронных способах решение о каждом принятом единичном интервале принимается в первой решающей схеме на основе его сравнения с ранее принятыми единичными интервалами. При синхронных способах передают элементы сигнала одинаковой длительности через одинаковые промежутки времени. Применяются маркерные и безмаркерные способы синхронизации, которые будут рассмотрены ниже. Способ передачи, при котором в качестве маркерных сигналов используются стартовые и стоповые сигналы, получил название стартстопного. Для обеспечения нормального режима работы источника и получателя необходимо передавать дополнительную информацию, обеспечивающую установление соединения, обмен сигналами управления и синхронизации, т.е. информацию, согласующую последовательность действий обоих абонентов. Рассмотрим как решаются задачи синхронизации.
1.2. Метод приема сигналов с неопределенной фазой Для задач синхронизации и фазирования важным параметром является начальная фаза гармонических составляющих сигнала. Общий
109 метод приема сигнала с неопределенной фазой состоит в том, чтобы совместить границы принимаемых сигналов с границами тактовой последовательности, вырабатываемой генератором тактовых импульсов (ГТИ) приемника. Частота следования принимаемых и тактовых сигналов полагается одинаковой. На рис.6.1 приведена схема, поясняющая метод приема сигналов с неопределенной фазой. На рис.6.2 приведены временные диаграммы, поясняющие работу схемы. Принимаемый сигнал
ЛЗ1
ЛЗ2
ЛЗ3
…
ЛЗn ГТИ
СС1
СС1
СС1
…
СС1
Рис.6.1 ГТИ Вход ЛЗ1 ЛЗ2 ЛЗn CC1 CC2 CCn
Рис.6.2 Принимаемый сигнал через линии задержки (ЛЗ) подается на схемы сравнения (СС) с различным временем задержки. При сравнении напряжения сигналов ГТИ с напряжением поступающих с различным временем задержки Δt сигналов на выходе схем сравнения возникают равнозначности. Наибольшая постоянная составляющая напряжения этих импульсов соответствует совпадению по фазе принимаемых и тактовых сигналов. В этой схеме фаза приходящего сигнала “притягивается” к фазе приемника. На рис. 6.3 приведена схема устройства с автоматической подстройкой фазы. Данная схема реализует метод фазовой автоподстройки частоты. В этой схеме также фаза приходящего сигнала “притягивается” к фазе ГТИ приемника. Фазовый дискриминатор (ФД) определяет разницу фаз приходящего от передатчика сигнала и сигнала ГТИ. Если фаза приходящего
110 сигнала отстает от фазы ГТИ, то ФД подает импульс на вход суммирования реверсивного счетчика (СЧ), двоичное число в СЧ увеличивается. Соответственно на последующем по номеру выходе дешифратора (DC) появляется потенциал. Следовательно, импульс на выходе элемента ИЛИ будет “сниматься” со следующего по номеру выхода линии задержки. Если фаза приходящего сигнала опережает фазу ГТИ, то ФД подает импульс на вход вычитания СЧ, двоичное число в СЧ уменьшается. Потенциал появляется на меньшем по номеру выходе DC. Импульс на выходе элемента ИЛИ будет “сниматься” с меньшего по номеру выхода линии задержки. ГТИ
Линия задержки …
СЧ
DC
И И И
+
И
ФД ИЛИ Вход сигнала от передатчика
Выход
Рис.6.3
1.3. Классификация устройств синхронизации Устройства синхронизации классифицируются по признакам происхождения синхросигналов и способам формирования синхросигналов. Если рассматривать классификацию по признакам происхождения синхросигналов, то синхроимпульсы могут быть получены тремя способами: - от высокостабильного генератора, который является эталоном отсчета времени (способ 1); - путем передачи синхроимпульсов от передатчика к приемнику по отдельному каналу связи (способ 2); путем получения информации об отсчетах времени из информационной последовательности единичных элементов (способ 3). Первый способ применим тогда, когда время сеанса связи, включая время вхождения в связь, не превышает время сохранения синхронизации.
111 Второй способ применим в групповых многоканальных синхронных системах связи. Сигналы, несущие информацию о синхронизации, называются пилот-сигналами. При третьем способе эффективно используется пропускная способность системы связи, обеспечивается приспосабливаемость устройств фазирования и синхронизации к изменяющимся параметрам канала связи. Недостаток – зависимость точности синхронизации от искажений принимаемых информационных сигналов. Этот способ наиболее применим. Если рассматривать классификацию по способам формирования синхросигналов, то устройства синхронизации разделяют на разомкнутые (см. рис.6.4) и замкнутые (см. рис.6.5) устройства. В разомкнутых устройствах синхронизации синхросигнал формируется из сигналов, принимаемых по специально выделенному синхроканалу (см. рис.6.4,а), либо из информационных сигналов с помощью анализатора сигналов и формирователя сигналов (см. рис.6.4,б). Пилот-сигнал
Формирователь синхросигналов
Синхросигнал
а) Пилот-сигнал
Анализатор сигналов
Формирователь синхросигналов
Синхросигнал
б)
Рис.6.4 Информационный сигнал
Фазовый дискриминатор
Генератор Синхросигнал
Устройство управления а) Информационный сигнал
Фазовый дискриминатор
Промежуточный преобразователь
Устройство управления
Синхросигнал
Генератор
б)
Рис.6.5 В замкнутых устройствах синхронизации синхросигнал вырабатывается генератором синхроимпульсов. В фазовом дискриминаторе и устройстве управления производится сравнение фазового положения синхроимпульсов и положение значащих моментов приходящих
112 информационных сигналов. При рассогласовании фаз вырабатывается управляющий сигнал, корректирующий фазу синхроимпульсов (см. рис.1.5,а). На рис. 1.5,б приведен вариант схемы, в которой в промежуточном преобразователе сравниваются фазы информационных сигналов и генератора и вырабатывается синхросигнал.
1.4. Требования к устройствам фазирования по циклам Устройства фазирования по циклам должны обеспечивать: - высокую помехозащищенность, обеспечивающую исключение ложной установки фазы; - автоматическое вхождение в фазу и поддержание фазы; - малое время вхождения в фазу; - возможность подсоединения в разных участках связи. Существуют безмаркерные и маркерные способы фазирования по циклам. При безмаркерных способах фазирования по циклам во время передачи информации по каналу связи не передаются специальные сигналы для фазирования по циклам. Фазирование по циклам осуществляется за счет передачи фазовой комбинации во время отсутствия передачи информации. При маркерных способах во время передачи информации передаются специальные сигналы–маркеры для фазирования по циклам. Способы фазирования по циклам делятся на синхронные и стартстопные способы. При применении синхронных способов задают циклы заранее определенной длины, которые следуют непрерывно друг за другом. Следовательно, в приемнике заранее известны моменты начала и конца принимаемых циклов. При применении стартстопных способов после окончания одного цикла последующий цикл может начаться в любой момент времени. Длина цикла может быть произвольной, т.е. в приемнике неизвестны моменты начала и конца принимаемых циклов. Работа безмаркерного способа фазирования показана на рис.6.6. Передача полезной информации
Начало работы
Переход в рабочий режим
Фазирование
Переход в режим фазирования
Рис.6.6
Переход в рабочий режим
113 Недостаток данного способа состоит в том, что после любого нарушения цикловой фазы прекращается передача полезной информации. Отсутствие постоянного контроля над правильностью цикловой фазы во время передачи информации вызывает расхождения во времени, которые обнаруживаются по большому числу появившихся ошибок. Цикловая фаза поддерживается благодаря тому, что в приемнике заранее известна длина принимаемых кодовых комбинаций, т.е. моменты их начала заранее определены, или осуществляется синхронное фазирование циклов. Маркерные способы фазирования по циклам включают синхронные способы и стартстопные способы. Упрощенная структурная схема синхронного способа приведена на рис.6.7. УС
Р
Р
Датчик маркера Наборное информационное устройство
ДШМ
КС
Наборное информационное устройство
Рис.6.7 За каждый цикл распределителем (Р) передается один элемент маркера. Если через цикл передачи дешифратор маркера (ДШМ) не обнаруживает маркера, то на вход управляющей схемы (УС) не подаются синхросигналы от ДШМ. Система переходит в режим поиска. На Р приемника подано дополнительно за один цикл по одному импульсу до тех пор, пока ДШМ не обнаружит маркер. На рис.6.8 приведена упрощенная структурная схема стартстопного способа. При отсутствии полезных сообщений распределители (Р) “стоят на стопе” как в передатчике, так и в приемнике. При поступлении сообщений в передатчик запускается Р от датчика стартового сигнала. Вначале блока информации передается стартовый сигнал (см. рис.6.9), а затем информация наборного информационного устройства. После передачи полезной информации следует стоповый сигнал.
114 В приемнике стартовый сигнал обнаруживается дешифратором стартового сигнала и дешифратор запускает Р приемника, подавая на него команду запуска. Принимается блок информации. Затем дешифратор стопового сигнала распознает стоповый сигнал и останавливает Р приемника, подавая на него команду остановки.
Датчик стопового сигнала
Наборное информационное устройство
Дешифратор стопового сигнала
Р
Наборное информационное устройство
Р
КС
Датчик стартового сигнала
Дешифратор стартового сигнала
Рис.6.8 Комбинация покоя
Полезная информация
Стартовый сигнал
Стоповый сигнал
Стартовый сигнал
Рис.6.9
2. МЕТОДЫ ПОВЫШЕНИЯ ВЕРНОСТИ 2.1. Требования к системам передачи дискретной информации Верность определяется вероятностью выдачи на выход системы передачи информации (СПИ) комбинации первичного m элементного кода, отличающегося хотя бы одним элементом от комбинации, поступившей на вход СПИ. Срок доставки информации характеризуется средней скоростью передачи информации R=N(t)/t, где N(t) - число двоичных элементов, поступивших с
115 выхода СПИ получателю информации за время t. Срок доставки информации характеризуется также вероятностью задержки сообщений из l двоичных элементов за время, равное или большее τ, т.е. P[t(l)≥ τ]. Требования абонентов СПИ по верности передачи разнообразны и зависят от назначения информации [14]. Требования абонентов к срокам доставки информации делят СПИ на три типа: - диалоговые СПИ, которые работают в реальном масштабе времени; - системы запроса-ответа со временем передачи в пределах нескольких секунд; - системы, допускающие задержку сообщений на сроки, превышающие несколько секунд. Известны три группы методов повышения вероятности. Первая группа включает методы, основанные на мерах эксплуатационного и профилактического характера, направленные на улучшение качественных показателей каналов связи. Решается задача сокращения числа и уменьшения интенсивности действия источника помех и искажений, которые вызываются неравномерностью АЧХ и ФЧХ, импульсными помехами и прерываниями, нестабильностью уровня передач, сдвигом несущих частот и т.д. Решение задач достигается рядом технических и организационных мероприятий, позволяющих улучшить стабильность генераторов, АРУ, выявить неисправности оборудования, повысить культуру технического персонала. Коэффициент ошибок можно уменьшить в среднем в пять раз. Вторая группа мероприятий направлена на увеличение помехоустойчивости передачи единичных элементов информации и основана на повышении соотношения сигнал/шум за счет увеличения амплитуды, длительности или спектра частот полезного сигнала, применения более помехоустойчивых методов модуляции и более совершенных методов приема сигналов. Третья группа методов включает методы обнаружения и исправления ошибок в принятой информации. Методы могут быть реализованы в СПИ без обратной связи и в СПИ с обратной связью.
2.2. Системы без обратной связи Известны три способа повышения верности: - применение кодов, исправляющих ошибки; - многократная передача кодовых комбинаций; - одновременная передача кодовых комбинаций по нескольким каналам.
116 Скорость передачи информации в системах с корректирующим кодом определяется RП=Rm/n, где m - число информационных символов, n длина кода. При многократной передаче необходимо передавать кодовые комбинации нечетное число раз. При неопределенности система вырабатывает сигнал стирания. Если выполняется трехкратная передача, то решение о правильном приеме будет: - если все три кодовые комбинации приняты верно; - если одна и та же кодовая комбинация принята два раза из трех. Вероятность первого случая определится P1=(1-p0)3n, где p0 – вероятность ошибочного приема единичного элемента. Вероятность второго случая при независимых ошибках определится P2 = C 23 (1 − p 0 ) 2n [1 − (1 − p 0 ) n ] . Метод одновременной передачи кодовых комбинаций по параллельным каналам идентичен (по определению верности) многократной передаче, т.к. основан на мажоритарном методе при независимости ошибок в разных каналах. Сочетание метода многократной передачи с использованием избыточного кода заключается в том, что каждая кодовая комбинация передается r раз. Те коды, в которых обнаружены ошибки, стираются и заменяются кодовыми комбинациями, принятыми без ошибок. При правильно выбранном коде и достаточном числе повторений доля необнаруженных ошибок снижается (сколь угодно), а вероятность правильного приема значительно больше вероятности необнаруженной ошибки.
2.3. Системы с обратной связью Ошибки в каналах обычно группируются, состояние канала может быть самым различным. Следовательно, если применять корректирующий код в СПИ без обратной связи, то при значительной плотности ошибок он будет неэффективен по помехоустойчивости, а при небольшой плотности ошибок он будет неэффективен по скорости передачи. Обычно корректирующий код рассчитывают на постоянную плотность помех, поэтому СПИ без обратной связи применяют в системах с постоянным временем задержки информации, а также если отсутствует канал обратного направления или его создание невозможно. Необходимо избыточность, вводимую в передаваемую информацию, соразмерять с состоянием дискретного канала в каждый момент времени. Например, рост числа ошибок должен быть связан с ростом избыточности. Избыточность вводится в передатчике, а о состоянии канала можно судить по результатам приема информации. Чтобы регулировать
117 избыточность, надо чтобы приемник информировал передатчик о числе ошибок. Поэтому водится канал обратной связи. СПИ с каналом обратной связи делятся на системы с решающей обратной связью (РОС), системы с информационной обратной связью (ИОС) и системы с комбинированной обратной связью (КОС). В системах с РОС приемник, приняв кодовую комбинацию и выполнив ее анализ на наличие ошибок, принимает окончательное решение либо о выдаче кодовой комбинации потребителю, либо о ее стирании и посылке по обратному каналу сигнала переспроса. Системы с РОС называют системами с переспросом или системами с автоматическим запросом ошибок. В случае принятия кодовой комбинации без ошибок приемник формирует и направляет в канал обратной связи сигнал подтверждения. Передатчик, получив сигнал подтверждения, передает следующую кодовую комбинацию. Активная роль принадлежит приемнику, а по каналу обратной связи передается сигнал решения, вырабатываемый приемником. В системах с ИОС по каналу обратной связи передаются сведения о поступающих в приемник кодовых комбинациях (или их элементах) до окончательной обработки и принятия заключительного решения. Возможно, что осуществляется ретрансляция кодовой комбинации от приемника к передатчику. Такие системы называются ретрансляционными. Возможно, что приемник вырабатывает специальные сигналы, имеющие меньший объем, чем полезная информация, но характеризующие качество ее приема. Эти сигналы от приемника по каналу обратной связи также направляются к передатчику. Если количество информации, передаваемой по каналу обратной связи (квитанция), равно количество информации в сообщении, передаваемом по прямому каналу, то ИОС называется полной. Если же информация квитанции отражает лишь некоторые признаки сообщения, то ИОС называется укороченной. Полученная по каналу обратной связи квитанция анализируется передатчиком. По результатам анализа передатчик принимает решение о передаче следующей кодовой комбинации или о повторении ранее переданных комбинаций. После этого передатчик передает служебные сигналы о принятом решении, а затем соответствующие кодовые комбинации. В соответствии с полученными от передатчика служебными сигналами приемник или выдает накопленную кодовую комбинацию получателю, или стирает ее и запоминает как вновь переданную. В системах с укороченной ИОС меньше загрузка канала обратной связи, но больше вероятность появления ошибок по сравнению с системами с полной ИОС. В системах с КОС решение о выдаче кодовой комбинации получателю или о повторной передаче может приниматься как в приемнике, так и в
118 передатчике, а канал ОС использоваться как для передачи квитанции, так и для решения. Системы с ОС делятся на системы с ограниченным и неограниченным числом повторений. При ограниченном числе повторений вероятность ошибки больше, но меньше время задержки. Если СПИ с обратной связью отбрасывает информацию в забракованных кодовых комбинациях, то эта система без памяти. В противном случае СПИ с обратной связью называют системой с памятью. На рис.6.10 приведена иллюстрация, поясняющая реализации обратных связей в СПИ. Кодер
УПС
КС
РС1
РС2
I II III
Рис.6.10 При варианте I по каналу связи передаются сведения о принимаемом сигнале до принятия какого-либо решения. При варианте II обратная связь охватывает дискретный канал связи, а по каналу обратной связи передаются решения, принятые первой решающей схемой. При варианте III обратная связь охватывает канал передачи дискретной информации, а по каналу обратной связи передаются решения второй решающей схемы, принятые на основе анализа кодовой комбинации. Системы с ОС являются адаптивными системами передачи информации, т.к. передача по каналу автоматически приводится в соответствие с конкретными условиями прохождения сигналов. Каналы обратной связи образуются методами частотного или временного разделения от каналов передачи полезной информации. Для защиты от искажений сигналов, передаваемых по каналу ОС, применяют корректирующие коды, многократную и параллельную передачи.
3.СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ С РЕШАЮЩЕЙ ОБРАТНОЙ СВЯЗЬЮ 3.1. Система с РОС и ожиданием Рассмотрим систему с РОС и ожиданием решающего сигнала (РОСож) [14].
119 На рис.6.11 представлена структурная схема системы с РОСож, которая работает следующим образом. Поступающая от источника информации (ИИ) m – элементная комбинация первичного кода через схему ИЛИ записывается в накопитель передатчика (НК1). Одновременно с этим в кодирующем устройстве (КУ) m – элементная комбинация кодируется в циклический код, т.е. добавляются контрольные символы, представляющие собой контрольную последовательность блока (КПБ). Приемник
Передатчик
ДКУ ИИ
ИЛИ
И1
КУ
ПК
Нк1
УУ1
Нк2
И2
ПИ
РУ
УУ2
УДС
ОК
УФС
Рис.6.11 Полученная n – элементная комбинация подается на вход прямого канала (ПК), с выхода которого комбинация поступает на входы решающего устройства (РУ) и декодирующего устройства (ДКУ). ДКУ на основании m информационных символов, принимаемых из прямого канала, формирует свою контрольную последовательность блока. Решающее устройство сравнивает две КПБ - принимаемую из ПК и выработанную ДКУ. Затем РУ принимает одно из двух решение: либо информационная часть комбинации (m- элементный первичный код) выдается получателю информации ПИ, либо стирается. Одновременно в ДКУ производится выделение информационной части и запись полученной m – элементной комбинации в накопитель приемника (НК2). В случае отсутствия ошибок или необнаруженных ошибок принимается решение о выдаче информации ПИ и устройство управления приемника (УУ2) выдает сигнал, открывающий элемент И2, что обеспечивает выдачу m – элементной комбинации из НК2 к ПИ. Устройством формирования сигнала обратной связи (УФС) вырабатывается сигнал подтверждения приема комбинации, который по обратному каналу (ОК) передается в передатчик. Если приходящий из ОК сигнал дешифрирован устройством декодирования сигнала обратной связи (УДС) как сигнал подтверждения, то на вход устройства управления передатчика (УУ1) подается соответствующий импульс, по которому УУ1 производит запрос от ИИ следующей комбинации. Схема И1 в этом случае закрыта, и комбинация, записанная в НК1, стирается при поступлении новой.
120 В случае обнаружения ошибок РУ принимает решение о стирании комбинации, записанной в НК2, при этом в УУ2 вырабатываются управляющие импульсы, запирающие логическую схему И2 и формирующие в УФС сигнал переспроса. При дешифрировании схемой УДС поступающего на его вход сигнала как сигнала переспроса, блок УУ1 вырабатывает управляющие импульсы, с помощью которых через схемы И1, ИЛИ и КУ в ПК производится повторная передача комбинации, хранящейся в НК1. Возможны потери верности приема из-за вставок и выпадений. Вставки происходят в том случае, когда приемник посылает сигнал подтверждения, а в канале ОС этот сигнал трансформируется в сигнал переспроса. Передатчик посылает ранее переданную комбинацию, хотя она уже правильно принята. Выпадения связаны с трансформацией сигнала переспроса в сигнал подтверждения. Передатчик посылает приемнику очередную комбинацию кода, хотя ранее переданная принята не верно и не выдана ПИ. На рис.6.12 приведены временные диаграммы, поясняющие функционирование системы с РОС-ож. tp
tак
tp tc
tак
nto ИИ Передача Прием ПИ Передача сигнала ОС Прием сигнала ОС
Д
Н Д
Д
Н
t’
Д
t’’
Рис.6.12 Текущая скорость RТ определяется отношением числа двоичных символов, выданных ПИ за время t, ко всему числу переданных символов за время t, т.е. (см. рис.6.12) mN ПР , RТ = n + (t ОЖ / t 0 )N ПЕР где NПР и NПЕР - соответственно число принятых и переданных кодовых комбинаций за время t, tОЖ=2tР+tС+tАК+tАС; to - длительность единичного элемента; tР – время распространения сигнала по каналу связи; tС -
121 длительность передачи сигнала по каналу ОС; tАК - время анализа принятого кода; tАС - время анализа служебного сигнала. Можно сделать вывод, что система с РОС-ож эффективна при работе со сравнительно длинными кодовыми комбинациями и небольшими скоростями модуляции на каналах небольшой протяженности. Алгоритм работы имитационной модели иллюстрируется графом состояний, приведенным на рис.6.13. НПЗ
НП
Вставка
ППр
ППП
ОО
ППЗ
НО
НПП
НПЗ
НП
ППр
ППП
ОО
ППЗ
НО
НПП
Выпадение 1-й цикл
2-й цикл
НП - начало передачи; ОО - обнаруженная ошибка; НО необнаруженная ошибка; Ппр - правильный прием; НПП неправильный прием подтверждения; ИЗ - искажение запроса; ППП правильный прием подтверждения; ППЗ - правильный прием запроса Рис.6.13 Правильный прием кодовой комбинации происходит при неискажении комбинации в прямом канале (переход в состояние Ппр) и правильном приеме сигнала подтверждения в обратном канале (переход в состояние ППП). При обнаружении ошибки в переданной кодовой комбинации (переход в состояние ОО) и правильном приеме сигнала запроса (переход в состояние ППЗ) система переходит к повторению (второй цикл). Если в кодовой комбинации присутствует необнаруживаемая ошибка (переход в состояние НО), то по ОК передается сигнал подтверждения и возможен переход в состояние НП следующего цикла (трансформирован сигнал подтверждения в сигнал запроса) либо в состояние ППП (сигнал подтверждения верно принят). Процесс передачи кодовой комбинации может быть закончен в течение одного цикла, а может продолжаться некоторое число циклов. Для уменьшения выставок и выпадений применяют следующие меры.
122 Передаваемые кодовые комбинации циклически нумеруются так, что номер размещается в начале каждой кодовой комбинации или за синхропоследовательностью, служащей для фазирования по циклам. Номер сохраняется за кодовой комбинацией до тех пор, пока кодовая комбинация не будет правильно принята. При повторных передачах кодовой комбинации ее номер сохраняется. Например, номера кодовых комбинаций a1,a2,a3,a4, а последовательность имеет вид {a1,a1,a2,a2,a3.a3,a3,a4,a4,….}. В другом варианте кодовые комбинации, передаваемые один раз, имеют один и тот же номер, например a0, а при повторении производится циклическая нумерация. Например, последовательность в канале имеет вид {a0,a1,a0,a0,a1.a2,a0,a1,a0,a1.a2,….}. Эффективность использования пропускной способности в каналах связи системы с РОС-ож невелика, т.к. прямой канал простаивает в промежутках времени между передачами отдельных кодовых комбинаций и ожидания получения сигналов решения.
3.2. Система с РОС и непрерывной передачей информации Данные системы обозначим, как системы с РОС-нп. Структурная схема системы с РОС-нп аналогична схеме системы с РОС-ож. В этих системах передатчик передает непрерывную последовательность кодовых комбинаций, не ожидая получения сигналов подтверждения. Приемник стирает те кодовые комбинации, в которых РУ обнаруживает ошибки, а затем посылает сигнал переспроса. Кодовые комбинации выдаются получателю по мере их поступления. При реализации такой системы возникают трудности, вызванные конечным временем передачи и распространения сигналов. Действительно, при непрерывной передаче за время (см. рис.6.12) между моментом t’ обнаружением ошибки и моментом t’’ принятой исправленной кодовой комбинации, будет принято еще h кодовых комбинаций, где h=1+[tОЖ/nt0]. Символом [x] обозначено наименьшее целое число, большее или равное х. Если передатчик будет повторять кодовые комбинации с запаздыванием на h комбинаций, то порядок комбинаций, получаемых ПИ, будет нарушен. Этого не должно быть, поэтому в приемнике есть специальное устройство и буферный накопитель (БН) значительной емкости, не менее ih, где i - число повторений. После обнаружения ошибки приемник стирает комбинацию с ошибкой и блокируется на h комбинаций, а передатчик по сигналу переспроса повторяет h последних кодовых комбинаций. Эти системы называются системами с непрерывной передачей и блокировкой или системами С РОС-нпбл. Данные системы еще называются системами с автоматическим запросом ошибок.
123 Большинство каналов являются четырехпроводными, поэтому строят системы, работающие в дуплексном режиме, т.е. передача информации происходит одновременно в двух направлениях. Это повышает эффективность использования пропускной способности, т.к. переспросы редки, и обратный канал используется для передачи информации. Структурная схемы дуплексной СПИ с РОСнпбл приведена на рис.6.14. ГСК1 ИИА
КУ1
Нвых2
Нвх1
ДУ2 КС
ЗОК
УУ1
ДСК1
УУ2
Нвых1
ЗОК
ДСК2 Нвх2
ДУ1 ПИА
ПИБ
ИИБ
КУ2 ГСК2
Рис.6.14 Сигналы решений кодируются так же, как информационные сигналы и передаются в обоих направлениях одновременно с информационными в общем потоке. Обмен информацией при отсутствии ошибок в каналах АБ и БА происходит следующим образом. Передатчик станции А запрашивает по сигналу ЗОК (запрос очередной комбинации) от ИИА кодовую комбинацию. КУ1 вводит избыточность в m-разрядный простой код и кодовая комбинация передается по каналу связи (КС) на станцию Б. Декодирующее устройство (ДУ2) приемника станции Б декодирует кодовую комбинацию и выдает ее ПИБ. По КС от станции Б к станции А также посылается информация. Такой режим функционирования называется режимом работы. При наличии ошибок в КС передача осуществляется в режиме переспроса. Информационные кодовые комбинации по запросу от передатчика станции А от ИИА подаются на КУ1 и во входной накопитель Нвх1, рассчитанный на хранение М последних кодовых комбинаций. Эти кодовые комбинации расположены в той последовательности, в которой они должны выдаваться в КС. Кодовые комбинации, адресованные от станции А к станции Б, из КС через ДУ2 передаются в выходной накопитель Нвых2 и на дешифратор служебных кодов ДСК2. Если ДУ2 обнаруживает ошибки или ДСК2 – сигналы переспроса, то УУ2 переводит приемник станции Б в режим переспроса. Аналогично работает приемник станции Б. Существуют еще и другие варианты построения СПИ с решающей обратной связью, с непрерывной передачей информацией и временными
124 подканалами, с накоплением правильно принятых комбинаций, с адресным переспросом. Все эти системы разработаны для повышения эффективности использования пропускной способности выделенных каналов связи, для работы с каналами любой протяженности и при значительных вероятностях ошибки, что особенно важно для спутниковых систем связи.
4.СИСТЕМЫ ПЕРЕДАЧИ ИНФОРМАЦИИ С ИНФОРМАЦИОННОЙ ОБРАТНОЙ СВЯЗЬЮ Существуют системы с ИОС с ожиданием (ИОС-ож), с непрерывной передачей (ИОС-нп), с адресным повторением (ИСО-ап). Алгоритмы работы этих систем аналогичны алгоритмам работы соответствующих систем с РОС, но решение о выдаче или стирании комбинации кода принимает передатчик [14]. На рис.6.15 приведена структурная схема системы с ИОС-ож. Передатчик ИИ
Приемник Кл
ПК
ПрСС
Нк1 Нк2
УФКП1
ПИ
УФКП2
ФСС
УСр ПрКв
ОК
Рис.6.15 Процесс передачи сообщений в системе с ИОС происходит следующим образом. По запросу передатчика ИИ выдает m-разрядную комбинацию. Эта комбинация через ключ (Кл) передается в прямой канал (ПК) и одновременно записывается в накопитель (Нк1) передатчика, где хранится до поступления сигнала подтверждения. В устройстве формирования контрольной последовательности (УФКП1) передатчика определяются проверочные элементы, например контрольная
125 последовательность циклического кода. При ретрансляционной ИОС в качестве контрольной последовательности используются элементы информационной комбинации. С выхода ПК в приемнике комбинация записывается в накопитель (Нк2), где хранится до поступления служебного сигнала “Разрешение”, и одновременно подается в устройство формирования контрольной В случае последовательности приемника (квитанции) УФКП2. ретрансляционной ИОС в качестве квитанции используется принятая из ПК комбинация кода. С выхода обратного канала (ОК) квитанция поступает в приемник квитанции (ПрКв) и из него на устройство сравнения (УСр), в котором сравнивается с контрольной квитанцией УФКП1 передатчика. Если квитанции совпадают, то по команде УСр формирователь служебных сигналов (ФСС) вырабатывает следующие сигналы: - служебный сигнал “Разрешение”, подаваемый в ПК; - команду Нк1 на стирание хранящейся в нем комбинации; - запрос ИИ на выдачу следующей информационной комбинации. В случае несовпадения квитанций ФСС вырабатывает служебный сигнал “Стирание”, поступающий в ПК, Нк1 на выдачу хранящейся в нем комбинации, команду на Кл для отклонения ИИ и подключения Нк1 на вход ПК. Служебные сигналы с выхода ПК поступают в приемник (дешифратор) служебных сигналов (ПрСС). При получении сигнала “разрешение” информационная комбинация из Нк2 выдается ПИ. При получении сигнала “стирание” информационная комбинация, хранящаяся в Нк2, стирается, а на ее место записывается комбинация, приходящая вслед за сигналом “стирание”. Выдача ПИ ошибочной кодовой комбинации в системе с ИОС и ретрансляцией происходит в тех случаях, когда при ошибке в ПК и ОК происходит трансформация ошибочного символа в правильный (зеркальная ошибка). При группировании ошибок верность передачи увеличивается. Вставки возможны при трансформации сигнала стирания в сигнал подтверждения, а выпадения – при трансформации сигнала подтверждения в сигнал стирания. На рис.6.16 приведены временные диаграммы, поясняющие функционирование системы с ИОС-ож. Недостаток систем с ИОС-ож определяется небольшой производительностью системы, т.к. на передачу каждой информационной кодовой комбинации тратится время t≥2tn+2tp, где tn - время передачи m и k символов. Более высокую пропускную способность обеспечивают системы с ИОСнп, в которых происходит непрерывная передача кодовых комбинаций. В случае получения из Уср сигнала ошибки передатчик прекращает передачу
126 очередных комбинаций (блокируется) и производит повторение ошибочной комбинации. Эти системы еще называют системами с опережающей коррекцией. tp
tак
tp
tас
mto ИИ
tc
Передача Прием ПИ Передача КП Прием КП Передача ре шения Прием ре шения
Д
Н
Д
Д
Н
Д
Рис.6.16 В накопителях (Нк1 и Нк2) передатчика и приемника хранится i кодовых комбинаций. Тогда j-й кодовой комбинации соответствует контрольная последовательность, приходящая во время передачи j+i-1 кодовой комбинации. При несовпадении контрольных последовательностей повторяются j–я и i-1 последующих за j–й кодовых комбинаций. На рис.6.17 приведены временные диаграммы, поясняющие функционирование системы с ИОС-нп при отсутствии ошибок в ОК. tак
Передача Прием Передача ре шения Прием ре шения ПИ
tас
tp
mto 3
4 3
5 4
3
5 4
3
Нет
5
5 4
Нет
5 4
4
Нет
Нет
6 5
4
6 5
4
7 7
6 5
3
Рис.6.17 Объем накопителей в числе комбинаций кода должен быть
7
6
7
4
5
127 2mt 0 + 2t p + t ак + t ac . i≥ mt 0
Системы с ИОС-нп по сложности реализации соизмеримы с системами с РОС-нп, но обеспечивают вдвое меньшую пропускную способность, т.к. ОК систем с ИОС имеет такую нагрузку, как и ПК. Широкого распространения системы с ИОС-нп не получили. Если помехоустойчивость ОК выше, чем ПК, то верность передачи в системах с ИОС выше, чем в системах с РОС. Например, при передаче информации со спутника обратный канал можно организовать с помощью мощного передатчика и высокоэффективной антенны.
БИБЛИОГРАФИЧЕСКИЙ СПИСОК 1. Стратонович Р.Л. Теория информации. – М.: Сов. радио, 1975. 424 с. 2. Блох Э.Л., Попов О.В., Турин В.Я. Модели источника ошибок в каналах передачи информации. - М.: Связь, 1971. 312 с. 3. Советов Б.Я., Стах В.М. Построение адаптивных систем передачи информации для автоматизированного управления. – Л.: Энегроиздат. Ленингр. отд-ние, 1982. 120 с. 4. Гихман И.И., Скороход А.В. Введение в теорию случайных процессов. – М.: Наука, 1977. 568 с. 5. Игнатов В.А. Теория информации и передачи сигналов. – М.: Сов. радио, 1979. 280 с. 6. Кавчук А.А. Основы передачи непрерывных сообщений по дискретным каналам связи: Учебное пособие. – Таганрог: ТРТУ, 1978. 126 с. 7. Финаев В.И. Моделирование систем: Учебное пособие. – Таганрог: ТРТУ, 1995. 160 с. 8. Финк Л.М. Теория передачи дискретных сообщений. – М.: Сов. радио, 1963. 276 с. 9. Шварцман В. О., Емельянов Г. А. Теория передачи дискретной информации. – М.: Связь, 1979. 424с. 10. Цымбал В.П. Теория информации и кодирования. – К.: Вища школа, 1973. 294 с. 11. Цымбал В.П. Задачник по теории информации и кодированию. – К.: Вища школа, 1976. 276 с. 12. Питерсон У. Коды, исправляющие ошибки. - М.: Мир, 1967. 458 с.
128
Финаев Валерий Иванович
ОБРАБОТКА И ПЕРЕДАЧА СИГНАЛОВ В СИСТЕМАХ ДИСТАНЦИОННОГО УПРАВЛЕНИЯ
Ответственный за выпуск Финаев В.И. Редактор Белова Л.Ф. Корректор Селезнева Н.И.
ЛР №020565 от 23.06.97 Подписано к печати Формат 60х84 1/16 Бумага офсетная Офсетная печать Усл.п.л. – 7,7 Уч.-изд.л. – 7,5 Заказ № Тираж 500 “С” Издательство Таганрогского государственного радиотехнического университета ГСП 17 А, Таганрог, 28, Некрасовский, 44 Типография Таганрогского государственного радиотехнического университета ГСП 17 А, Таганрог, 28, Энгельса ,4