Министерство общего и профессионального образования РФ Пермский государственный технический университет Кафедра автомати...
14 downloads
188 Views
981KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Министерство общего и профессионального образования РФ Пермский государственный технический университет Кафедра автоматизированных систем управления
Б.С.Гаспер, И.Н.Липатов
ИВС и АСУТП Учебное пособие
Пермь 1999
1
ОГЛАВЛЕНИЕ Глава 1. Введение в курс ИВС и АСУТП….................................................................. 1.1. Предпосылки появления ИВС и АСУТП............……................................ 1.2. Система технологический процесс - АСУТП...........................….............. 1.3. Назначение, цели и функции АСУТП......................................................... 1.4. Классификация АСУТП............................................................................... 1.5. Основные этапы проектирования АСУТП….............................................. Глава 2. Обеспечение АСУТП...................................................................................... 2.1. Виды обеспечения АСУТП........................................................................ 2.2. Аппаратные средства (техническое обеспечение)................................... 2.3. Программное обеспечение........................................................................ 2.4. Информационное обеспечение................................................................... Глава 3. Сигналы в ИВС и АСУТП.............................................................................. 3.1. Модели сигналов......................................................................................... 3.2. Формы аналитического описания сигналов.............................................. 3.3. Системы базисных функций....................................................................... 3.4. Функции Радемахера................................................................................... 3.5. Функции Уолша........................................................................................... 3.6. Функции Хаара............................................................................................ 3.7. Преобразование Уолша и Хаара................................................................ 3.8. Применения преобразований Уолша и Хаара.......................................... 3.9. Классы фильтров и их математическое описание................................... 3.10. Формы реализации передаточных функций .......................................... 3.11. Аналитический синтез фильтров методом подбора базиса................. Глава 4. Управление технологическими процессами с сосредоточенными параметрами...................................................................................................... 4.1. Введение....................................................................................................... 4.2. Математические модели объектов управления (технологических процессов)........................................................................................................... 4.3. Математическая модель динамики многомерного объекта управления........................................................................................................ 4.4. Наблюдаемость для линейных систем с сосредоточенными параметрами........................................................................................................ 4.5. Управляемость для линейных систем с сосредоточенными параметрами........................................................................................................ 4.6. Нормализуемость для линейных систем с сосредоточенными параметрами........................................................................................................ 4.7. Автономное регулирование........................................................................ 4.8. Модельное управление................................................................................ 4.9. Аналитическое конструирование (синтез) регуляторов непрерывных стационарных систем.................................................................................... 4.10. Аналитическое конструирование регуляторов непрерывных нестационарных систем......................................................................................... 4.11. Оптимальное управление при случайных внешних возмущениях и измеряемом векторе состояний................................................................. 4.12. Синтез стохастических систем при неполной информации о векторе переменных состояния. Оптимальное наблюдение (оптимальная фильтрация)....................................................................................................
2
Глава 5. Идентификация технологических процессов в АСУТП.............................. 5.1. Введение.................................................................................................. 5.2. Статистическая идентификация динамического объекта в частной области............................................................................................................ 5.3. Статистическая идентификация динамического объекта во временной области.................................................................... 5.3.1. Постановка задачи статистической идентификации динамического объекта во временной области................................................ 5.3.2. Некорректность задачи статистической идентификации динамического объекта............................................................................ 5.3.3. Метод минимума статистической неопределенности............ 5.3.4. Оценка точности статистической идентификации динамического объекта..................................................................................... 5.4. Идентификация путем анализа импульсной реакции (весовой функции)...................................................................................................... 5.5. Идентификация путем определения реакции на ступенчатое воздействие....................................................................................................... 5.6. Эмпирическая оценка передаточной функции ОУ(ТП)................... 5.7. Частотный анализ корреляционным методом.................................... 5.8. Статическая задача идентификации для системы с несколькими входами и одним выходом........................................................................... 5.9. Статическая задача идентификации для системы с несколькими входами и несколькими выходами.............................................................. 5.10. Регрессионная идентификация линейных динамических процессов 5.11. Статическая идентификация. Рекуррентные формулы..................... 5.12. Регрессионная идентификация нелинейных процессов..................... 5.12.1. Представление с помощью неортогональных полиномов.... 5.12.2. Представление с помощью ортогональных полиномов........ 5.13. Идентификация нелинейных функций априорно известного вида 5.14. Линейные регрессии и метод наименьших квадратов...................... 5.15. Взвешенный метод наименьших квадратов....................................... 5.16. Многомерный случай метода наименьших квадратов...................... 5.17. Рекуррентный алгоритм наименьших квадратов.............................. 5.18. Вариант алгоритма с рекуррентным обращением матрицы............. 5.19. Метод инструментальных переменных.............................................. 5.19.1 Инструментальные переменные................................................. 5.19.2 Выбор инструментальных переменных..................................... 5.19.3 Рекуррентный метод инструментальных переменных............ Библиографический список........................................................................................ Приложение 1. Линеаризация нелинейных процессов……………………………..
3
ГЛАВА 1 ВВЕДЕНИЕ В КУРС ИВС И АСУТП 1.1.
Предпосылки появления ИВС
Современный этап развития промышленного производства характеризуется переходом к использованию передовой технологии, стремлением добиться предельно высоких эксплуатационных характеристик как действующего, так и проектируемого оборудования, необходимостью свести к минимуму любые производственные потери. Все это возможно только при условии существенного повышения качества управления промышленными объектами, в том числе путем широкого применения АСУТП. Технико-экономическими предпосылками создания АСУТП являются прежде всего рост масштабов производства, увеличение единичной мощности оборудования, усложнение производственных процессов, использование форсированных режимов (повышенные давления, температуры, скорости реакций), появление установок и целых производств, функционирующих в критических режимах, усиление и усложнение связей между отдельными звеньями технологического процесса. В последнее время в развитии многих отраслей промышленности появились новые факторы, связанные не только с повышением требований к количеству и качеству выпускаемой продукции, но и с напряженностью в области трудовых ресурсов. Рост производительности труда, в том числе путем его автоматизации, становится практически единственным источником расширения производства. Указанные обстоятельства предъявляют новые требования к масштабам использования и к техническому уровню АСУТП, к обеспечению их надежности, точности, быстродействия, экономичности, т.е. к эффективности их функционирования. Еще одной важной предпосылкой применения АСУТП в промышленности является необходимость реализации значительных потенциальных производственных резервов. Заметим, что техническая база производства в большинстве отраслей промышленности достигла к настоящему времени такого уровня развития, при котором эффективность производственного процесса самым непосредственным и существенным образом зависит от качества управления технологией и организации производства. Поэтому на первый план выдвигается задача оптимального управления технологическими процессами, решить которую без развитой АСУТП в большинстве случаев невозможно. 1.2. Система технологический процесс - АСУТП Управляемый технологический процесс. Технологические процессы служат материальной базой любого производства, поэтому для повышения таких характеристик производства, как производительность, качество (надежность) выпускаемой продукции, рентабельность производства, необходимо обеспечить «управляемость» процессов и внедрить автоматизированные системы управления ими. В понятие «технологический процесс как объект управления» включается, в частности, технологическое оборудование, кроме датчиков и исполнительных органов, которые являются конструктивными элементами оборудования, но входят в состав технических средств АСУТП, поэтому управление технологическим процессом в
4
последующем изложении означает управление режимами работы технологического оборудования. Под термином «управляемый технологический процесс» в дальнейшем понимается такой процесс, для которого определены входные контролируемые воздействия (управляющие, управляемые), установлены детерминированные или вероятностные зависимости между входными воздействиями и выходными параметрами выпускаемого изделия (продукта), разработаны методы автоматического измерения входных воздействий и выходных параметров (всех или их части) и методы управления процессом. Таким образом, управляемый технологический процесс представляет собой процесс, в принципе подготовленный для внедрения АСУТП, т.е. для создания системы технологический процесс - АСУТП (рис.1.1). На рис1.1 приняты следующие обозначения: 1 - ЭВМ; 2 - устройство связи с оператором; 3 - оператор; 4 - устройство сопряжения с объектом (УСО); 5,9 - автономные устройства визуального контроля; 6,8 - датчики; 7 - исполнительные органы; 10 - технологический объект управления (ТОУ). УВК 1
2
3
4
5
6
7
8
9
10 Рис.1.1 Задачу, выполняемую в системе технологический процесс - АСУТП, можно сформулировать следующим образом: по полученным данным о технологическом процессе составить прогноз хода технологического процесса, а также составить и реализовать такой план управляющих воздействий (в том числе изменение режимов работы оборудования), чтобы в определенный момент времени состояние технологического процесса отвечало некоторому экстремальному значению обобщенного критерия качества процесса. Для решения этой задачи необходимо иметь математическую модель процесса, которая составляет основное содержание алгоритма управления, реализуемого АСУТП.
5
1.3. Назначение, цели и функции АСУТП Назначение любой автоматизированной системы управления, ее необходимые функциональные возможности, желаемые технические характеристики и другие особенности в решающей степени определяются тем объектом, для которого создается данная система. Для АСУТП управляемым объектом является так называемый технологический объект управления (ТОУ), представляющий собой совокупность технологического оборудования и реализованного на нем по соответствующим инструкциям или регламентам технологического процесса производства целевого продукта. Приведенное определение ТОУ подчеркивает, с одной стороны, единство процесса и оборудования и, с другой - законченность преобразования входных ресурсов в конечный продукт (металл, электрическая или тепловая энергия, химические вещества, изделия и т.п.). Управляя ТОУ, АСУТП воздействует непосредственно на те или иные элементы оборудования: дроссельные и отсечные клапаны, задвижки, заслонки, дозирующие устройства и т.п. Интенсивность этих управляющих воздействий во время эксплуатации выбирают так, чтобы реализуемый в технологическом оборудовании процесс переработки входных материальных и энергетических потоков осуществлялся наиболее целесообразным образом. При разработке АСУТП важно правильно выделить объект управления из общей производственно-технологической структуры предприятия. Для этого учитывают назначение и роль отдельных аппаратов, агрегатов и установок, степень зависимости их работы от других, соседних производственных участков, наличие разделительных (буферных) емкостей между ними, наконец, принятую (или желательную) на данном производстве степень централизации управления. В соответствии с этим в качестве ТОУ могут рассматриваться: технологические агрегаты и установки; отдельные производства, реализующие самостоятельный, законченный технологический цикл; производственный процесс всего промышленного предприятия, если управление им носит в первую очередь и в основном технологический характер, т.е. заключается в выборе и согласовании рациональных режимов работы взаимосвязанных агрегатов, участков и производств. Назначение АСУТП обычно можно определить как целенаправленное ведение технологического процесса и обеспечение смежных и вышестояших систем управления необходимой информацией. В ряде случаев, когда функционирование новых сверхмощных объектов без современной АСУ оказывается практически невозможным, назначением такой системы является достижение реализуемости и устойчивости технологического процесса при высокоинтенсивных и экономичных режимах использования оборудования. Создание и функционирование каждой АСУТП должно быть направлено на получение вполне определенных технико-экономических результатов (снижение себестоимости продукции, уменьшение потерь, повышение производительности труда, качества целевых продуктов, улучшение условий труда персонала и т.п.). Поэтому после определения назначения АСУТП необходимо четко конкретизировать цели функционирования системы. Примерами таких целей для промышленных технологических объектов могут служить: обеспечение безопасности его функционирования; стабилизация параметров входных потоков; получение заданных параметров выходных продуктов; оптимизация режима работы объекта; согласование режимов
6
работы оборудования. Степень достижения поставленных целей принято характеризовать с помощью так называемого критерия управления, т.е. показателя, достаточно полно характеризующего качество ведения технологического процесса и принимающего числовые значения в зависимости от вырабатываемых системой управляющих воздействий. В строгой, обычно математической, форме критерий управления конкретизирует цель создания данной системы. Одна из общих постановок вопроса о критерии управления сводится к стремлению получить наибольший экономический эффект, который определяется разностью стоимостей получаемой готовой продукции и сырья, энергии, рабочей силы и других затрат. Оптимальным будет такое управление процессом, которое позволит добиться максимального значения этой разности. Не меньшую роль, чем критерий, играют ограничения, которые должны соблюдаться при выборе управляющих воздействий. Ограничения бывают двух видов: физические, которые не могут быть нарушены даже при неправильном выборе управляющего воздействия, и условные, которые могут быть нарушены, но нарушение приводит к значительному ущербу, не учитываемому критерием. При управлении часто наиболее существенные факторы учитываются именно ограничениями, а не критерием. Как правило, общих критерий экономической эффективности управления технологическим процессом неприменим из-за сложности определения необходимых количественных зависимостей в конкретных условиях; в таких случаях формируют частные критерии оптимальности, учитывающие специфику управляемого объекта и дополненные условными ограничениями. Такими частными критериями, например, могут быть: максимальная производительность агрегата при определенных требованиях к качеству продукции, условиях эксплуатации оборудования и т.д.; минимальная себестоимость при выпуске продукции в заданном объеме и заданного качества; минимальный расход некоторых компонентов, например дорогостоящих присадок или катализатора. Чтобы добиться желаемого (в том числе оптимального) хода технологического процесса, в системе управления им необходимо в нужном темпе выполнять множество взаимосвязанных действий: собирать и анализировать информацию о состоянии процесса, регистрировать значения одних переменных и стабилизировать другие, принимать и реализовывать соответствующие решения по управлению и т.д. Именно эта «деятельность» системы управления была ранее названа функционированием, т.е. выполнением ею установленных функций. Теперь дадим определение и краткие разъяснения этого понятия. Функция АСУТП - это совокупность действий системы, направленных на достижение частной цели управления. При этом в качестве действий рассматриваются заранее предопределенные и описанные в эксплуатационной документации последовательности операций и процедур, выполняемые частями системы. В большинстве случаев под термином «функция АСУТП» понимают такую законченную совокупность действий, выполняемых системой, которая проявляется вне ее и поэтому имеет определенную потребительскую ценность. Функции АСУТП в целом как человека-машинной системы следует отличать от функций, выполняемых комплексом технических средств системы (в том числе средствами вычислительной техники). Неправильно рассматривать вместо функций всей системы (включая человека) только совокупность действий, осуществляемых
7
автоматически ее техническими средствами. Хотя значение подобных действий, реализуемых без участия человека, очень велико, однако они не характеризуют полностью поведение и возможности всей АСУТП. Как правило, в системе за человеком (оператором, диспетчером) сохраняется главная, определяющая роль в выполнении наиболее сложных и ответственных функциональных задач. Поэтому необходимо рассматривать весь комплекс функций АСУТП, включая те из них, которые осуществляются при участии персонала. Принято различать информационные и управляющие функции АСУТП. К информационным относятся такие функции АСУТП, результатом выполнения которых являются представление оператору системы или какому-либо внешнему получателю информации о ходе управляемого процесса. Характерными примерами информационных функций АСУТП являются: контроль за основными параметрами, т.е. непрерывная проверка соответствия параметров процесса допустимым значениям и немедленное информирование персонала при возникновении несоответствий; измерение или регистрация по вызову оператора тех параметров процесса, которые его интересуют в ходе управления объектом; информирование оператора (по его запросу) о производственной ситуации на том или ином участке объекта управления в данный момент; фиксация времени отклонения некоторых параметров процесса за допустимые пределы; вычисление по вызову оператора некоторых комплексных показателей, неподдающихся непосредственному измерению и характеризующих качество продукции или другие важные показатели технологического процесса; вычисление достигнутых технико-экономических показателей работа технологического объекта; периодическая регистрация измеряемых параметров и вычисляемых показателей; обнаружение и сигнализация наступления опасных (предаварийных, аварийных) ситуаций. Выполняя эти основные информационные функции, АСУТП своевременно обеспечивает своего оператора (диспетчера) или вышестоящую систему сведениями о состоянии и любых отклонениях от нормального протекания технологического процесса. Управляющие функции АСУТП включают в себя действия по выработке и реализации управляющих воздействий на объект управления. Здесь под выработкой понимается определение (на основании полученной информации) рациональных воздействий, а под реализацией - действия, обеспечивающие осуществление принятых после выработки решений. К основным управляющим функциям относятся: стабилизация переменных технологического процесса на некоторых постоянных значениях, определяемых регламентом производства; программное изменение режима процесса по заранее заданным законам; защита оборудования от аварий; формирование и реализация управляющих воздействий, обеспечивающих достижение или соблюдение режима, оптимального по технологическому или технико-экономическому критерию; распределение материальных потоков и нагрузок между технологическими агрегатами;
8
управление пусками и остановами агрегатов и др. Перечень всех функций, выполняемых конкретной АСУТП (т.е. ее функциональный состав), характеризует внешние, потребительские возможности данной системы. 1.4. Классификация АСУТП Классификация по критерию сложности объектов управления. В 1970г. предложена классификация АСУТП применительно к предприятиям с непрерывным и непрерывно-дискретным характером производства, за критерий которой взято число контролируемых параметров и управляющих воздействий в соответствии с ростом сложности объекта управления (табл.1.1). Таблица 1.1 Основная характеристика класса АСУТП 1 1-0. Автоматизированная система программного управления
Основные функциональные признаки 2 Управление по жесткой программе с предварительно запрограммированными воздействиями 1-1. АСУ технологическими ус- Измерение, индикация, тановками с малым числом кон- регистрация и однотролируемых и регулируемых контурное регулиропараметров (до 20) вание параметров 1-2. АСУ технологическими установками или агрегатами с малым числом контролируемых и регулируемых параметров (около 40) 1-3. АСУ технологическими установками, агрегатами или процессами со средним числом контролируемых, регулируемых и оптимизируемых параметров (около 100) 1-4. АСУ технологическими агрегатами или процессами с большим числом регулируемых и оптимизируемых параметров (около 800) 1-5. АСУ технологическими переделами и производствами с агрегатами и установками для местного управления которыми средства вычислительной техники не используют
Типовые примеры объектов управления 3 Станки, смесеприготовители, полиграфические машины Топки паровых котлов, весовые дозаторы, установки автоматического пожаротушения
То же, что для класса Технологические котель1-1, и логические опе- ные, печи, нагревательные рации колодцы и фурмы доменных печей, ректификационные колонки То же, что для класса Конверторы, секционные 1-2, и многоконтурное печи, химические реакторегулирование ры, установки первичной переработки нефти, комплексы шихтоподготовки обогатительных и агломерационных фабрик То же, что для класса Энергоблоки, прокатные 1-3, и вычисление тех- станы, доменные печи, нико-экономических атомные реакторы, произпоказателей водство этиленбензола, производство печной сажи То же, что для класса Электролизные цеха про1-4, и диспетчеризация изводства серной кислоты, при одноступенчатом искусственного волокна, уровне агломерационные фабрики, обогатительные фабрики
9
1-6. АСУ технологическими пе- То же, что для класса ределами и производствами с 1-5, но при двухстуагрегатами и установками, ос- пенчатом управлении нащенными средствами вычислительной техники
Конверторные цеха, доменные печи, цементные заводы, сернокислотные производства, обогатительные комбинаты
Классификация по функционально-алгоритмическому признаку. Представляется целесообразным разделить по функционально-алгоритмическому признаку системы управления технологическими процессами на базе управляющих ЭВМ на три класса (табл.1.2). Такая классификация в определенной мере условна, поскольку функции, выполняемые системами указанных классов, могут в ряде случаев перекрываться. Однако такое разделение АСУТП имеет в настоящее время принципиальное практическое значение для развертывания работ по автоматизации технологических процессов. Таблица 1.2 Основная характеристика класса АСУТП 1 1. Системы логикопрограммного управления (группой однотипных технологических установок)
2. Системы оптимального управления (технологическим процессом или режимами технологической установки)
3. Системы комплексного управления (технологической линией, участком, цехом) - АСУОТП1)
Основные функциональные признаки 2 Прямое цифровое управление по жесткой или полужесткой программе в режиме разделения времени между управляемыми установками Решение задач оптимизации на основании получаемой от управляемого объекта информации и принятых математических моделей, выработка регулирующих воздействий или советов оператору в реальном времени Автоматический или полуавтоматический сбор, обработка, наглядное отображение технологической и организационнопроизводственной информации, управление через оперативный персонал ходом технологических процессов
Типовые примеры объектов управления 3 Группы автоматизированных постов контроля или испытаний изделий электронной техники, прецизионных механообрабатывающих станков, термического оборудования Химические реакторы, трубопрокатные станы, группа диффузионных печей, установки первичной переработки нефти
Технологические линии производства интегральных схем, кинескопов, энергоблок атомной электростанции, сернокислотное производство, доменная печь, тепловая электростанция
1)
АСУОТП - автоматизированная система управления организационно-технологическим процессом
Осуществляя управление технологическим процессом, ЭВМ получает инфор-
10
мацию о ходе процесса и выдает регулирующие воздействия (в частном случае советы оператору) в соответствии с алгоритмом управления, заложенным в виде программ в запоминающие устройства. К 1-му классу АСУТП относятся системы с наиболее простой формой алгоритма управления - полностью запрограммированным ходом процесса (ранее его вел оператор). Основная функция центрального процесса АСУТП - логические операции по выполнению нескольких программ (в частном случае - одной) с автоматическим распределением времени. Типовым алгоритмом управления служит заранее установленная последовательность логических операций с условным или безусловным переходом от одной позиции к другой. К системам 1-го класса относятся, в частности, системы прямого многоканального цифрового регулирования (стабилизация параметров) или системы прямого цифрового управления металлорежущими станками. В общем случае при управлении с помощью ЭВМ рядом технологических установок в запоминающем устройстве хранится число программ, реализующих типовой алгоритм, соответствующее числу объектов управления. При этом с помощью специальной программы-диспетчера организуется мультипрограммный режим работы машины. АСУТП 2-го класса достаточно широко применяются в непрерывных и непрерывно-дискретных производственных процессах. Главной функцией центрального процессора в таких системах являются выполнение на основании входных данных, получаемых от объекта управления, математических операций и выработка по результатам вычислений регулирующих воздействий. Алгоритм управления процессом (объектом), как правило, разрабатывается на основе его детерминированной или статистической модели, что позволяет оптимизировать, т.е. управлять процессом с целью удовлетворить некоторый критерий. К системам 2-го класса относятся, в частности, системы прямого многосвязного цифрового управления с оптимизацией, системы управления последовательными технологическими операциями, связанными по качеству, системы адаптивного управления технологическими комплексами. АСУТП 3-го класса в основном охватывают среднюю ступень иерархических систем управления производством. Это класс организационно-технологических АСУ-АСУОТП. Главной функцией технологического характера является управление через оперативный персонал (операторов, технологов и т.д.) ходом технологических процессов на основании статистической обработки технологической информации и текущего планового задания. Поскольку 3-й класс систем охватывает группу технологических процессов, а следовательно, и ряд различных технологических установок и целые производственные подразделения, то в функции этих систем включают также обработку планово-производственной информации и управление (по результатам этой обработки) оперативным персоналом, работой участка, цеха. Из вышесказанного следует, что алгоритмы отдельных задач, решаемых АСУТП 3-го класса, весьма разнообразны, носят в первую очередь информационно-вычислительный характер и каждый алгоритм в отдельности прост для программирования. Однако в целом задача анализа и прогноза хода производственного процесса (например, реализация алгоритма управления технологическим процессом в целях оптимального номенклатурного распределения выпускаемых изделий в зависимости от планового задания) может быть весьма сложной.
11
Следует отметить, что системы 3-го класса могут вырастать из систем 1-го и 2-го классов, когда ЭВМ осуществляет централизованное управление (логикопрограммное или оптимальное) группой технологических установок на уровне производственного участка, линии, цеха и на нее возлагаются дополнительные функции оперативно-диспетчерского управления с анализом работы производственного подразделения и прогнозом его дальнейшего хода. 1.5. Основные этапы проектирования АСУТП Краткая характеристика этапов работ. Создание конкретной АСУТП для промышленного предприятия (от момента возникновения идеи до внедрения системы в эксплуатацию) - длительный процесс (до нескольких лет). В настоящее время в связи со значительным улучшением основных параметров технических средств, усовершенствованием математического обеспечения, а также с появлением групп специалистов, имеющих опыт проектирования и внедрения систем, наметилась тенденция к сокращению срока создания АСУТП. Продолжительность создания АСУТП зависит от многих факторов: степени сложности объекта управления и подготовленности к автоматизированному управлению; стадии освоения объекта управления в промышленности (проектирование, пусконаладочные работы, эксплуатация в режиме номинальной производительности) или регламента эксплуатации; функционально-алгоритмической характеристики задач управления, реализуемых в АСУТП; квалификации и численности групп специалистов, выполняющих проектные работы, монтаж и внедрение АСУТП на промышленном предприятии; выбора комплекса технических средств; подготовленности математического обеспечения, в том числе степени стандартизации программного обеспечения; организации последовательно-параллельного выполнения отдельных этапов работ (например, применения методов сетевого планирования и управления). Основные этапы проектирования такой АСУТП - предпроектная проработка; разработка технического проекта; подготовка рабочего проекта; монтажноналадочные работы на объекте; испытания и опытная эксплуатация. На этапе предпроектной проработки выбирают объект управления и устанавливают цели внедрения АСУТП. Затем формируют задачи управления и производят предварительную оценку алгоритмов решения этих задач. При этом анализируют информационные потоки в системе технологический процесс - АСУТП, предварительно намечают точки съема информации и приложения управляющих воздействий к процессу, а также ориентировочно определяют функции оперативного персонала в работе системы. Наконец, производят приближенную оценку состава и стоимости технических средств и предварительную оценку ожидаемого экономического эффекта. Результаты предпроектной проработки служат исходными материалами для составления технического задания на проектирование АСУТП. В техническом задании уточняются цели и задачи АСУТП, определяются технические требования к системе и составным частям, устанавливаются этапы разработки. На этапе разработки технического проекта принимают все принципиальные решения по построению комплекса технических средств, алгоритмов управления и комплекса программного обеспечения; окончательно выбирают стандартные и проектируют нестандартные технические средства; разрабатывают функциональ-
12
ные и принципиальные схемы системы и ее составных частей; проводят физическое и математическое моделирование работы системы или ее отдельных элементов; уточняют алгоритмы управления, объемы и форму представления информации, циркулирующей в системе; частично или целиком разрабатывают рабочие программы. В тех случаях, когда некоторые принципиальные технические решения можно принять только после их проверки в реально функционирующей системе технологический процесс - АСУТП или после отладки всего комплекса программного обеспечения, составляют эскизно-технический проект, отдельные разделы которого подлежат дальнейшей технической разработке на следующих этапах создания АСУТП. На этапе подготовки рабочего проекта, выпускаемого на основании материалов технического проекта, разрабатывают следующую техническую документацию: комплект чертежей размещения и электрического соединения технических средств на предприятии, прокладки кабельных трасс и т.п.; комплект рабочих чертежей на нестандартные технические средства; комплект программного, математического, информационного и лингвистического обеспечения; комплект рабочих чертежей строительной части (включая установки кондиционирования воздуха и электропитания); технические условия на АСУТП, инструкции по эксплуатации, программированию, описания технических средств, алгоритмов и программ. Если проектируемая АСУТП должна взаимодействовать с технологическим оборудованием, находящимся в эксплуатации, в рабочий проект включают также чертежи и схемы, которые касаются изменений в конструкции оборудования при оснащении его дополнительными датчиками, исполнительными механизмами и др. Особое внимание при подготовке рабочего проекта уделяют вопросам обеспечения электропитания, экранирования и заземления технических средств АСУТП. На этом этапе производят также уточненный расчет ожидаемой экономической эффективности от внедрения АСУТП, поскольку становится известным практически весь объем капитальных затрат на проектирование, изготовление, монтаж и наладку системы. Следует отметить, что для вновь проектируемых автоматизированных технологических комплексов рабочие проекты АСУТП включаются как составные части общего рабочего проекта. Монтажно-наладочные работы на объекте управления проводят после завершения рабочего проекта, а опытные (головные) образцы технических средств можно изготавливать (или поставлять) параллельно в процессе проектирования. Наиболее важным фактором, влияющим на сроки выполнения монтажных и наладочных работ, является время, выделяемое на стыковку АСУТП с объектом управления и комплексную отладку программ при работе в реальном времени. В тех случаях, когда длительные непроизводительные остановки технологического оборудования неприемлемы для предприятия, используются различные средства имитации работы технологического процесса. Как правило, в процессе отладки АСУТП в комплексе с объектом управления и ввода ее в эксплуатацию выявляются новые технические требования, которые не были учтены при проектировании системы. В связи с этим одна из важнейших характеристик внедряемых систем - способность к частичным изменениям и дополнениям как технических средств, так и программного обеспечения. В соответствии с ГОСТ 24.104-85 «Автоматизированные системы управления. Общие требования» при вводе АСУ в действие выделяют этап испытаний и опыт-
13
ной эксплуатации. Определяют виды испытаний - предварительные и приемочные. Предварительные испытания проводят совместно разработчик и заказчик, чтобы определить работоспособность системы и решить вопрос о возможности ее приемки в опытную эксплуатацию. В соответствии с вышеуказанным стандартом предварительные испытания АСУТП проводят на действующем ТОУ. Результаты приемки в опытную эксплуатацию оформляют «Актом приемки в опытную эксплуатацию» на основании протоколов предварительных испытаний. Продолжительность опытной эксплуатации определяют по срокам, необходимым для проверки правильности функционирования системы при выполнении всех информационно-вычислительных и управляющих функций оценки готовности оперативного персонала к взаимодействию с КТС системы. Приемочные испытания (государственные, межведомственные или ведомственные) проводят с целью определить соответствие системы требованиям ТЗ и ГОСТ 24.104-85, а также выявить возможность ввода АСУТП в действие. Допускается поэтапный ввод в действие системы с оформлением промежуточных актов. Приемочные испытания завершаются составлением протокола всех испытаний и актом о вводе системы в действие.
ГЛАВА 2 ОБЕСПЕЧЕНИЕ АСУТП 2.1. Виды обеспечения АСУТП Создание и внедрение таких сложных систем, какими являются АСУТП, связано с реализацией (материализацией) в тесной взаимосвязи различных видов обеспечения, которые, в свою очередь, отражают различные аспекты функционирования систем. В соответствии с ГОСТ 24.003-84 для АСУ, в том числе и АСУТП, выделяется ряд основных видов обеспечения, определяемых ниже. Техническое обеспечение - комплекс технических средств (КТС), применяемых для функционирования автоматизированной системы управления. Согласно определению стандарта под КТС АСУТП понимают все аппаратные средства от ЭВМ до датчиков (измерительных преобразователей) и исполнительных органов. Математическим обеспечением считают совокупность математических мето-
14
дов, моделей и алгоритмов обработки информации, использованную при создании автоматизированной системы управления. Программное обеспечение представляет собой комплекс программ, реализующих алгоритмы обработки информации. Его разделяют на общее (ОПО) и специальное (СПО). ОПО - совокупность программ, рассчитанных на широкий круг пользователей и предназначенных для организации вычислительного процесса и (или) решений часто встречающихся задач обработки информации, СПО - разрабатываемых при создании конкретной АСУТП для реализации ее функций. Под информационным обеспечением подразумевают совокупность реализованных решений по объемам, размещению и формам организации информации, циркулирующей в автоматизированной системе управления при ее функционировании. Лингвистическое обеспечение определяется как совокупность языковых средств для формализации естественного языка, построения и сочетания информационных единиц при общении персонала автоматизированной системы управления со средствами вычислительной техники при функционировании АСУ. Организационное обеспечение - совокупность документов, регламентирующих деятельность персонала автоматизированной системы управления в условиях ее функционирования. Следует отметить особую, принципиальную роль математического обеспечения именно для такого класса систем, какими являются АСУТП. Реальность создания любой конкретной АСУТП и получение реального эффекта от ее внедрения непосредственно связаны с наличием достаточно адекватной математической модели объекта управления и алгоритма ее реализации. Проблема заключается в том, что во многих случаях сложность технологических процессов, недостаточность знаний о стохастическом векторе состояния процесса затрудняет формализацию описания объекта управления (алгоритмирование). Последнее в большой степени определяет весьма медленный ход процесса внедрения АСУТП в различных отраслях народного хозяйства. Поэтому следует уделять значительное внимание проблемам, связанным с математическим обеспечением АСУТП (см.гл.4,5).
15
2.2. Аппаратные средства (техническое обеспечение) Представляется возможным разделить аппаратные средства современных АСУТП на две большие группы: 1) управляющие вычислительные комплексы (УВК) и 2) датчики и исполнительные органы. Наиболее широко применяемые на практике УВК выпускаются специализированными предприятиями в виде законченных конструктивов, которые при создании АСУТП требуют выделения определенной производственной площади или отдельного помещения. В отличие от средств УВК датчики и исполнительные органы чаще всего являются конструктивными элементами технологического оборудования, связанными с УВК с помощью линий (физической среды) передачи в виде двух или более проводов или волоконно-оптических кабелей. Следует отметить, что в связи с развитием микропроцессорной вычислительной техники на нижнем иерархическом уровне все чаще применяются микроУВК или микроконтроллеры, которые также могут встраиваться в технологическое оборудование, для чего они имеют соответствующее конструктивное исполнение, например в виде одноплатного электронного модуля. Деление на микроУВК и микроконтроллеры достаточно условно. Под последними чаще всего понимают специализированные на выполнение в автоматическом режиме определенных функций микроУВК. Назначение микроконтроллеров, как правило, не требует использования устройств связи с оперативным персоналом. В общем случае в состав УВК входят: ЭВМ (одна или несколько), комплектуемые необходимым набором стандартных внешних устройств, различные типы устройств связи с объектом (УСО), точнее, устройств связи с датчиками и исполнительными органами, и устройства связи с оперативным персоналом (УСОП). УСО и УСОП часто объединяют, называя их устройствами ввода-вывода информации (УВВИ). Как показывает отечественный и зарубежный опыт, подсистемы связи с датчиками и приемниками (исполнительными органами) информации в АСУТП составляют большую часть аппаратуры нижнего уровня УВК и во многих случаях превышают по объему и стоимости электронное оборудование для обработки информации (микроЭВМ). Разнообразие технологических процессов и технологического оборудования обусловило наличие обширной номенклатуры датчиков и исполнительных органов, что повлекло за собой разработку относительно широкой номенклатуры устройств, обеспечивающих автоматический обмен информации с микроЭВМ. Поскольку количество датчиков и исполнительных органов для сложного ТОУ может исчисляться сотнями и даже тысячами, а номенклатура - десятками, то возникает задача агрегатирования УСО в виде электронных модулей, при этом стремятся наиболее экономичным способом удовлетворить системные требования. Нахождению для конкретной АСУТП близкой к оптимальной (по критерию экономичности) конфигурации подсистемы сопряжения с датчиками и исполнительными органами в известной степени противоречит стремление к сокращению числа вариантов разрабатываемых подсистем путем их типизации и стандартизации, что, как правило, увеличивает среднюю избыточность аппаратуры для каждой АСУТП. На рис.2.1 показаны три базовые блок-схемы, из которых могут быть построены любые конфигурации иерархических УВК. Здесь 1,5 - технологические процессы; 2,4 - УВК сложных технологических процессов; 3,6 - кардинирующие УВК на уровне цеха; 7-9, 15-17 - микроУВК; 10-13 - последовательно связанные техно-
16
логические операции одной технологической линии; 14 - координирующий УВК участка; 18-20 - отдельные агрегаты (станки) участка. а)
Исходные Материалы
Изделия 1
Управляющие цеха
2 3 4
Исходные 5 материалы
б)
Изделия
Управляющие цеха
6
7
8
10
11
9
Исходные
Изде12
13
материалы
в)
лия
Управляющие участком
14
15 Полуфабри-
Изделия 18
каты
16
17 Изделия
Полу-
19 Полуфабрикаты
Изделия 20
Фабрикаты
Рис.2.1 Всю номенклатуру операционных модулей УСО по обобщенному схемно-
17
функциональному признаку можно условно разделить на следующие группы: 1) преобразователи «аналог-код» и «код-аналог»; 2) устройства обмена цифровой информацией с преобразованием форматов или без; 3) дешифраторы адресов и коммутаторы линий связи; 4) буферные ЗУ с функциями счета (без них); 5) устройства локального управления обменом информацией (локальные контроллеры); 6) устройства коммутации, усиления и преобразования аналоговых сигналов. К устройствам первой группы относятся следующие основные типы преобразователей: «напряжение-код» и «ток-код» постоянных и переменных напряжений (в частности, напряжения милливольтового диапазона в код); «код-напряжение» и «код-ток»; «перемещение-код» и «код-перемещение»; «пневматический сигнал-код» и «код-пневматический сигнал»; «частота-код» и «код-частота». Поскольку основной функцией указанных устройств является аналогоцифровое или цифро-аналоговое преобразование, в отличие от других групп для них первостепенное значение имеет такой параметр, как точность преобразования. При проектировании преобразователей «аналог-код» стремятся согласовать диапазоны измеряемых аналоговых величин с диапазонами выходных величин датчиков различных технологических параметров. Диапазоны аналоговых величин, получаемых с помощью преобразователей «код-аналог», также согласовываются с величинами входных сигналов исполнительных органов (регуляторов). Что касается погрешностей преобразования, то они при современном уровне аналогоцифровой техники составляют во многих случаях малые доли от погрешностей сопрягаемых устройств (датчиков, исполнительных органов). Причем существенную составляющую суммарной погрешности вносят электронные коммутаторы аналоговых сигналов, которыми комплектуются аналогово-цифровые преобразователи; этим в первую очередь ограничивается количество датчиков, обслуживаемое одним преобразователем. Следует отметить, что достижения микроэлектроники в известной степени облегчили проблему создания эффективных УСО. Так, уже серийно выпускаются в виде монолитных БИС наиболее сложные виды УСОАЦП. Особо следует отметить преобразователи «перемещение-код» и «кодперемещение», представляющие собой цифровые датчики, и исполнительные органы. Они находят все большее применение в системах управления технологическими установками с перемещающимися механизмами. Например, широкое распространение получили преобразователи «код-перемещение» на базе шаговых двигателей. Такие устройства состоят из схемы преобразования выходного (для ЭВМ) кода в пропорциональное количество импульсов и импульсного исполнительного механизма (шаговый двигатель). Несомненно высока и роль входящих в УВК устройств связи с оперативным персоналом (УСОП). В сложных АСУТП на оперативный персонал возлагается весьма важная часть функций принятия решений в процессе управления. В отечественной и зарубежной практике создания АСУТП, в первую очередь сложными технологическими комплексами (например, в энергетике, химии) из-
18
вестно немало разработок УСОП с ЭВМ и через нее - с объектом управления. Анализ ряда выполненных разработок, а также требований к таким средствам позволил классифицировать УСОП и функции, выполняемые ими в системах. Выделены следующие основные типы устройств: специализированные пульты ввода-вывода информации индивидуального пользования; специализированные пульты группового пользования; специализированные мнемонические схемы (группового пользования); цифровые табло группового пользования; стандартные устройства регистрации информации; устройства вывода звуковой информации; устройства ввода-вывода на основе дисплеев (группового и индивидуального пользования). К основным функциям , выполняемым УСОП, следует отнести: 1) отображение информации по команде от ЭВМ для оперативного (немедленного) принятия решения; 2) отображение общего текущего состояния технологического процесса по командам от ЭВМ; 3) выдачу ответов на запросы оперативного персонала о состоянии отдельных технологических параметров, технологического оборудования, о ходе производственного процесса, выполнении плана и т.д.; 4) выдачу рекомендаций об изменении режимов технологического процесса. В связи с широким развитием в мире класса персональных ЭВМ (ПЭВМ) и их возрастающей доступностью их все чаще применяют в качестве «интеллектуальных» устройств связи с оперативным персоналом. 2.3. Программное обеспечение Программное обеспечение любой АСУ, в том числе АСУТП, разделяется на общее и специальное. При этом общее программное обеспечение, которым оснащаются серийно выпускаемые УВК, в первую очередь СМ ЭВМ, позволяет в полном объеме использовать технические средства УВК при создании на их основе АСУТП: оно построено по модульному принципу как открытая система с заложенными возможностями пополнения и расширения. В состав ОПО СМ ЭВМ входят операционные системы различного назначения, системы программирования, процедурно ориентированные пакеты прикладных программ, рассчитанные на решение часто встречающихся задач обработки информации, а также сервисные и контрольно-диагностические программы. Операционная система (ОС) определяется как система программ, предназначенная для обеспечения определенного уровня эффективности вычислительной системы за счет автоматизированного управления ее работой и предоставления пользователям определенного набора услуг. Термин система программирования трактуется как система автоматизации программирования, образуемая языком программирования, компиляторами или интерпретаторами программ, представленных на этом языке, соответствующей документацией, а также вспомогательными средствами для подготовки программ к выполнению. Пакет прикладных программ (ППП) - это система прикладных программ, предназначенная для решения задач определенного класса.
19
Основной частью разработки программного обеспечения АСУТП является его специальная, ориентированная на управление конкретным ТОУ часть. Специальное программное обеспечение (СПО) конкретной АСУТП как неотъемлемая составляющая часть системы представляет собой совокупность программ, размещаемую вместе с машинной информационной базой в иерархическом ЗУ УВК. Разработка СПО является весьма длительным и трудоемким процессом в силу сложности и исключительного разнообразия управляемых ТОУ, функций и алгоритмов задач управления и соответственно их программных интерпретаций. Сложность ПО АСУТП как системы (СПО и ОПО) может быть проиллюстрирована обобщенной конфигурацией (рис.2.2), в которой выделены функциональные подсистемы, управляющие структуры, иерархическая база данных, вычислительные процедуры. В создании такой системы следует выделить две главные проблемы: 1) постановку задачи автоматизации и описание алгоритмов управления реального времени (прикладное математическое обеспечение); 2) разработку совокупности программ реального времени с параллельными логико-вычислительными процессами и организацией ситуационного управления решением задач. Создание ПО можно представить как процесс задания и преобразования последовательности моделей, реализуемой по схеме SYST*→F*→A*→SYST→F→P →A→P(SYST). Модель SYST* - это описание АСУТП на уровне подсистем. Модели F* описывают подсистемы набором функций управления. При построении модели A* (общий алгоритмический уровень) детализируется каждая функция, строится модель ситуационного управления, определяющая последовательность решения задач, и выделяются алгоритмические модули, которые реализуют задачи. Модель SYST представляет собой набор требований к ПО; при ее построении выполняется декомпозиция ПО на отдельные подсистемы. При этом описания и функции подсистем могут отличаться от описания системных подсистем (модель SYST*) из-за отличия системных и программных функций, включающих не только управляющие, но и информационные и вспомогательные функции. Модель F - описание системы на уровне функциональных элементов, она задает формальные требования к программам, связи по информации и управлению между выделенными функциональными элементами. Модель P представляется в виде набора программных спецификаций на функциональные элементы системы, а алгоритмическая модель A конкретизирует описание функциональных элементов на уровне алгоритмов с учетом всех требований к ПО, включая обеспечение программной надежности. Наконец, P(SYST) - это полная программная реализация системы, в которой можно выделить программные реализации (модели) подсистем, задач модулей, а также алгоритмов и функций. Процесс создания ПО начинается на самых ранних стадиях проектирования АСУТП, а по результатам этапов системного проектирования и конструирования иерархического УВК, по крайней мере, должно быть сформировано и/или разработано общее программное обеспечение в совокупности с информационным. Трудоемкость и результаты этой работы в большой степени определяются степенью отработки ОПО координирующих и микроУВК, включаемых в конфигурацию иерархического УВК, а в случае включения в конфигурацию моделей иерархических УВК широкого применения (выпускаемых как промышленная продукция) - степе-
20
нью отработки и полнотой ОПО таких УВК. Более того, развитие принципов модульности и стандартизации применительно к СПО позволяет в той или иной степени (в зависимости от типа ТОУ) сформировать часть СПО на этапах системного проектирования и конструирования иерархических УВК.
ОС
Функциональная подсистема
Описание контуров
Интерфейсы подсистемы
Буфер событий
Область глобальных данных
Диспетчер инициативных сигналов Функциональная подсистема •
•
•
Диспетчер подсистемы
Управляющая часть
оперативные локальные данные
Задача К
Интерфейсные задачи
...
...
Модули Задача 1 Реентерабельные модули
БД
СУБД
Подсистема сбора и первичной обработки данных
Подсистема диалога
Рис.2.2
Если представить комплекс СПО иерархического УВК в виде обобщенной многослойной иерархической схемы, то можно констатировать, что наиболее ограничены возможности стандартизации ПО для УВК тех уровней, где решаются задачи, связанные с оптимизацией или адаптивным управлением, а также выбором
21
рабочей точки в математических моделях ТОУ. Уже отмечалась (см.п.2.2) тенденция все более широкого применения в АСУТП ПЭВМ. Поскольку ПЭВМ ориентированы в основном на непрофессиональных программистов, особое значение приобретает наличие развитых инструментальных средств для автоматизации разработки СПО. Примером активизации разработок в этой области может служить инструментальная программная система. В данной системе, во-первых, выполняется функция обработки файлов пользователя с использованием библиотеки программных модулей и текстовых заготовок. Второй важной функцией является поддержка пользовательского интерфейса, для чего используются системные программы, которые обеспечивают диалог с системой, в форме иерархического меню, использование командного языка вопросов и ответов и взаимодействие с системой в режиме экранного редактирования. Кроме того, инструментальная система снабжает пользователя справочной информацией, а также обеспечивает разработку, отладку и выполнение прикладных программ с помощью специального инструментального языка. 2.4. Информационное обеспечение Информационное обеспечение АСУ определяется характеристиками информации, хранимой и обрабатываемой в системе, в аспекте процедур оперирования с данными безотносительно к их содержанию. Определим термин данные применительно к АСУТП как первичные сведения, получаемые от прямого наблюдения за ТОУ и выражаемые в форме чисел, слов или специальных обозначений, а термин информация - как сведения, полученные после соответствующей переработки данных и раскрывающие содержание чисел, слов и обозначений, которые описывают тот или иной ТОУ. Заметим, что в АСУТП основную роль играет отображающая информация, которая характеризует материальные или абстрактные сущности посредством описания их свойств или отношений. Применительно к информационному обеспечению принципы системного подхода формулируются следующим образом: ∗ создание единой информационной базы (ИБ) - применительно к АСУТП это в основном внутримашинная ИБ; ∗ разработка типовой схемы обмена данными между системой и оперативным персоналом включая формирования ИБ, внесение в нее изменений и выдачу данных; ∗ разработка единой общесистемной схемы хранения и обеспечения решаемых задач исходными данными; ∗ обеспечение возможности поэтапного и непрерывного наращивания емкости информационной базы, т.е. динамического способа ее формирования; ∗ обеспечение одноразовости и независимости ввода данных от времени решения и количества решаемых задач. Исходя из перечисленных принципов основными задачами информационного обеспечения с учетом взаимосвязи с другими видами обеспечения функционирования системы являются: определение форм информационного представления объектов и процессов (ТОУ), структуры и состава информации, ее увязка с решаемыми задачами, а также формирование нормативного словаря для обозначения и описания объектов и их свойств. Стандарт устанавливает, что в состав информационного обеспечения включаются нормативно-справочная информация,
22
необходимые классификаторы и унифицированные документы, если таковые необходимы - в АСУТП они могут быть не нужны (рис.2.3). Следует отметить, что важность реализации системных принципов и решения задач информационного обеспечения возрастает при увеличении масштабов ТОУ. На нижнем уровне управления отдельными операциями задачи могут решаться в рамках разработки математического и программного обеспечения, при переходе же к более высоким уровням, увеличении значимости оперативного персонала роль информационного обеспечения становится все более важной, а задача его разработки - в известной степени самостоятельной.
Определение объемов, размещения и формы организации информации в ИБ
Информационное обеспечение АСУ Определение соПеречень, опредедержания и струк- ление содержания тура нормативнои структура классправочной инсификаторов формации
Определение содержания и структура (форма) унифицированных документов
Информационная база АСУ Внемашинная: со- Внутримашинная: вокупность сооб- совокупность исщений, сигналов и пользуемых в АСУ документов, ис- данных на машинпользуемая при ных носителях сисфункционировании темы АСУ в форме, воспринимаемой человеком Рис.2.3 По мере изменения характера взаимодействия персонала с ЭВМ (внутримашинной информационной базой) усложняется структура и состав средств информационного обеспечения, а также усиливается его взаимосвязь с лингвистическим обеспечением. Для иллюстрации этой тенденции можно привести структуру средств информационного обеспечения автоматизированной информационносправочной системы (АИСС) (рис.2.4). На рис.2.4 показано, что вся информация, хранящаяся во внутримашинной информационной базе, делится на следующие группы: предметная информация; каталоги; вспомогательные тексты; справочники; управляющие таблицы; протокольная информация.
23
Первая группа составляет основу базы данных, в нее входят все массивы данных и информации, необходимой для персонала (пользователей). Среди массивов второй группы основную роль играет генеральный каталог, формируемый в виде индексной таблицы, структура которой может меняться для различных конфигураций системы с учетом структуры и объема информации в предметной области. Кроме того, предусматривается формирование частных ката-
24
логов по отдельным носителям и видам информации, что позволяет организовать дополнительный сервис для пользователя и обеспечить резервирование накопителей. Вспомогательные тексты обеспечивают диалоговый режим работы системы. Так, совокупность кодограмм представляет собой машинный справочник по структуре данных и способам их кодирования. Инструктивные документы позволяют с помощью соответствующих аппаратно-программных средств вызова выполнять «программируемое обучение» путем общения с подсистемой. Редактирующие тексты предназначаются для оформления выходных записей, а сигнальные - для информирования о различных нештатных ситуациях (отсутствие требуемой информации, сбой и др.). В состав информационного обеспечения входят также цифровые справочники для перехода от одной системы кодирования к другой и текстовые справочники для расшифровки цифровых кодов. Во всех режимах используются специальные управляющие таблицы, описывающие структуру и размещение информации (описание массивов и записей), схему трансляции и контроля запросов, реакции на внештатные ситуации. И наконец, предусматривается формирование и накопление массива информации протокольного типа. Существенное влияние на эффективность информационного обеспечения оказывают проектные решения внутримашинной части информационной базы. Известно, что в действующих современных АСУ можно выделить два основных вида организации внутримашинной части ИБ: пофайловую организацию массивов данных (файл - совокупность данных, которая состоит из логических записей, относящихся к одной теме) и организацию на основе баз данных. Пофайловая организация предусматривает создание специализированных на решение конкретных задач массивов данных, при этом осуществляется жесткая привязка данных к алгоритмам преобразования и реализующим эти алгоритмы программам, что затрудняет процесс пользования информационной базой и реализацию задач, инициируемые в форме запросов. Существенным недостатком пофайловой организации является избыточность информации, поскольку для решения различных задач часто записываются одни и те же данные. Применение пофайловой организации данных и в настоящее время объясняется высокой скоростью обработки данных, поскольку структура и организация файла соответствует логике его обработки программой. Общепризнана перспективность для практически любых автоматизированных систем обработки информации (включая АСУТП) создания баз данных, в той или иной степени исключающего недостатки пофайловой организации. База данных АСУ - это совокупность используемых при функционировании АСУ данных, организованная по определенным правилам, предусматривающим общие принципы описания, хранения и манипулирования данными, и независимая от прикладных программ. В определении подчеркивается одно из основных свойств баз данных - их «независимость» от прикладных программ. Последнее означает, что изменение одних программ не приводит к изменению других. Таким образом, обеспечивается относительная простота добавления новых или модификации хранимых данных, а также возможность применения общего управляемого способа поиска данных. Другое важнейшее свойство организации ИБ на основе баз данных - это минимальная избыточность данных, поскольку, в принципе, одними и теми же дан-
25
ными можно пользоваться при решении различных задач. На практике полностью независимые данные бывают так же редко, как и полностью неизбыточные. Действительно, как показывает анализ эволюции концепции баз данных и опыта создания различных систем с базами данных, проектировщики идут на различные компромиссы при организации машинных баз данных для получения практически приемлемого комплекса таких характеристик, как производительность, гибкость, экономичность. Как правило, в АСУ выделяют несколько баз данных, автоматически управляемых СУБД, которая может обеспечить одновременный доступ к каждой базе данных нескольких пользователей. В базы данных включают так называемые общесистемные массивы, кроме того, исходя из практической целесообразности в ИБ, выделяют также локальные массивы для решения отдельных задач. Для автоматизированных систем управления организационнотехнологическими процессами (АСУОТП) участков и цехов возможность прямого доступа персонала к базам данных, диалоговой работы с данными имеет существенное значение для эффектного принятия решений и выработки регулирующих воздействий. Поэтому важным является развитие способов взаимодействия человека с ЭВМ с возможностью прямого доступа к БД.
ГЛАВА 3 СИГНАЛЫ В ИВС И АСУТП 3.1. Модели сигналов Результаты обработки информации существенно зависят от выбора рациональной модели анализируемого сигнала. При этом необходимо учитывать усло-
26
вия решаемой задачи, количество и длину зарегистрированных реализаций, форму записи (непрерывную, дискретную) и т.д. В зависимости от априорной информации о сигналах используются либо детерминированные, либо стохастические модели. Первые модели сигналов выражаются аналитическим описанием непосредственно самого изучаемого колебания (или функции), а вторые - описываются теми или иными вероятностными характеристиками и используются при анализе случайных процессов. По своей природе физические процессы носят статистический характер, обусловленный множеством как учитываемых, так и неучитываемых факторов, в частности действием помех. Кроме того, результаты измерений сопровождаются неустранимыми искажениями. Поэтому, чем лучше учитываются эти факторы, тем выше степень адекватности модели реальному сигналу. Отличительная особенность таких моделей сигналов состоит в том, что по их параметрам можно однозначно восстановить сигнал с заданной точностью по выбранному критерию. Обычно в качестве детерминированных моделей используются следующие элементарные колебания: δ-импульс, функция включения (скачок) σ(t)=1(t), треугольный импульс, гармонические функции sin(ωt), cos(ωt), отрезок гармонической функции, экспоненциальная функция exp(αt), комплексноэкспоненциальная функция exp(jωt), функция sin(ωt)/ωt и другие. Детерминированные модели сигналов более сложного вида могут быть сформированы из элементарных путем линейных комбинаций. В зависимости от формы представления детерминированных сигналов - непрерывной или дискретной - используются те или иные информационные параметры. Так, для непрерывного детерминированного сигнала в виде постоянного тока, ими будут: величина, полярность, моменты включения и выключения; для гармонического колебания - амплитуда, частота и начальная фаза. Дискретный сигнал, например из последовательности прямоугольных импульсов, можно описать временным положением, амплитудой, полярностью и длительностью каждого импульса (рис.3.1) S
τi Si t ti
Рис.3.1 Одна из важных характеристик случайного процесса - это его частотная полоса. По этому признаку случайные процессы можно условно разделить на узкополосные и широкополосные. Пример узкополосного случайного процесса приведен на рис. 3.2.
27
ξ
t
Рис.3.2 S(ω)
Δω ω ω0 Рис.3.3 Полагая реализацию случайного процесса как колебания, близкие к монохроматическим, с медленно изменяющимися амплитудой и фазой, характер подобного процесса можно описать математической моделью x(t) = ξ(t) cos[ω0t + θ(t)], где амплитуда ξ(t) и фаза θ(t) - случайные функции времени. В противоположность этому, для широкополосных случайных процессов нельзя указать простую аналитическую запись. Поэтому при их описании обычно используется спектральное представление (рис.3.3). В радиотехнике и связи широко используются сигналы с модуляцией различного типа: амплитудной (АМ), частотной (ЧМ), фазовой (ФМ). Их вид показан на рис. 3.4. m(t)
АМ
ЧМ
ФМ
28
Рис.3.4 Амплитудно-модулированный сигнал описывается выражением: x(t ) = ξ [1 + m(t )] cos(ω 0t + θ 0 ) , где m(t) - глубина модуляции; ω0 - частота несущих колебаний. В спектральной области это соответствует переносу спектра S(ω) исходного процесса ξ(t) в области частот ω0+ω и ω0-ω (рис.3.5), в которых техническое выполнение преобразований с сигналом становится более простым.
S
S(ω)
S(ω0−ω)
S(ω0+ω)
ω0
ω
Рис. 3.5 В задачах кодирования и передачи информации, при построении систем автоматического управления также находят применение частотно- и фазомодулированные процессы, описываемые соответственно в виде: t
x (t ) = ξ0 cos[ω0 t + ∫ v (θ )dθ ] ;
x (t ) = ξ0 cos[ω0 t + θ (t )] .
0
Чаще всего сигналы рассматривают как функции, заданные в определенных физических координатах. В этом смысле различают одномерные (например, зависящие от времени), двумерные, заданные на плоскости (примером могут служить различного рода изображения), трехмерные (характеризующие, например, пространственные объекты) сигналы. Математически такие сигналы описываются соответственно функциями одной, двух и трех переменных. Удобно применять и более сложные модели - комплексные и векторные функции. Реальные сигналы всегда являются функциями с ограниченным интервалом определения, поскольку их наблюдение, регистрация и обработка не могут выполняться бесконечно долго. Так, например, одномерный сигнал, являющийся функцией времени t, с ограниченным интервалом определения можно записать в виде x(t), t∈[tmin, tmax], где tmin и tmax - соответственно нижняя и верхняя границы интервала определения. Если tmin и tmax - величины одного знака, то интервал определения будет односторонним, в противном случае интервал называется двусторонним. При tmin = tmax интервал называется симметричным. Наряду с ограниченными по области определения сигналами в теории информационно-вычислительных систем рассматриваются также сигналы, заданные на полубесконечном и бесконечном интервалах определения. Сигнал называется каузальным, если он имеет начало во времени. Все реальные сигналы являются каузальными. При их описании удобно совмещать начало отсчета аргумента с началом сигнала и считать, что он равен нулю при значе-
29
ниях аргумента, меньших нуля. Сигнал называется периодическим, если любое его значение повторяется через интервалы, равные периоду. Финитным называется сигнал, равный нулю вне некоторого ограниченного интервала его определения. Все реальные сигналы могут рассматриваться как финитные. Непериодическим детерминированным сигналом называется любой детерминированный сигнал, для которого не выполняется условие: x(t) = x(t + kT), где период T является конечным отрезком, а k - любое целое число. Как правило, непериодический сигнал ограничен во времени. Примерами таких сигналов могут служить импульсы, пачки импульсов, «обрывки» гармонических колебаний и т.д. Квазидетерминированный сигнал - это сигнал, закон изменения которого известен, но один или несколько параметров этого закона являются случайными величинами или процессами. В зависимости от формы представления сигналы могут быть непрерывными, квантованными по уровню, дискретными и цифровыми (см. табл.3.1) Таблица 3.1 Формы представления сигнала Множество значений Наименование времени {t} сигнала {x} Непрерывное Непрерывное Непрерывный (анало- X говый, континуальный)
Изображение
t
Непрерывное
Дискретное
Квантованный по уровню (ступенчатая функция)
X
t
Дискретное
Дискретное
Непрерывное
Дискретное
Дискретный (решетчатая функция, последовательность вещественных чисел)
X
Цифровой (последовательность целых чисел
X
t
t
По характеру протекания во времени сигналы разделяются на два вида: постоянные во времени; переменные во времени. Переменные во времени - это сигналы, значение которых изменяется во времени. Сигнал называется случайным, если его значение в каждый момент времени есть случайная величина.
30
Случайные сигналы делятся на: стационарные и нестационарные. У стационарных сигналов вероятностные характеристики не зависят от времени (постоянны), что позволяет значительно упростить их математическое описание. Во множестве стационарных сигналов выделяется подмножество эргодических сигналов, не совсем строгое определение которых можно дать следующим образом. Вероятностные характеристики случайных сигналов могут быть получены либо усреднением во времени, т.е. путем рассмотрения всех значений одной реализации сигнала, либо усреднением по множеству (ансамблю) реализаций, т.е. путем рассмотрения значений всех реализаций случайного сигнала в один и тот же момент времени. Сигналы, для которых вероятностные характеристики не зависят от способа усреднения (по времени и ансамблю) называются эргодическими. Все случайные сигналы в конечном итоге классифицируются по виду закона распределения плотности вероятности, который является полной и исчерпывающей характеристикой любого случайного сигнала. 3.2.Формы аналитического описания сигналов Возможна форма представления сигналов с помощью спектров. Рассмотрим ее для непрерывных одномерных сигналов общего вида x(ξ) (ξ - некоторый аргумент, в частном случае время t). При этом сигнал на заданном интервале его определения [ξmin, ξmax] рассматривается как совокупность элементарных сигналов ϕα(ξ), умноженных на коэффициенты cα и составляющих систему функций {ϕα(ξ)} определенного типа: ∞
x (ξ ) = ∑ cα ϕα (ξ ) .
(3.1)
α =0
При этом система функций {ϕα(ξ)} называется базисной, а представление сигнала в виде (3.1) - его разложением по системе базисных функций или обобщенным рядом (многочленом). Если сигнал x(ξ) является комплексным, то и коэффициенты cα и система базисных функций {ϕα(ξ)} также будут являться комплексными. Если система функций выбрана, то сигнал полностью характеризуется набором (вектором) спектральных коэффициентов {cα} - его спектром. В общем случае ряд (3.1) для непрерывных сигналов содержит бесконечное число членов. При практических расчетах такой ряд обычно ограничивают (усекают). В этом случае представление сигнала будет приближенным N −1
x (ξ ) = x (ξ ) = ∑ cα ϕα (ξ ) *
(3.2)
α =0
и имеет место аппроксимация сигнала x(ξ) конечным рядом (3.2). Выбирая приближенное описание сигнала, естественно, стремятся к тому, чтобы оно, в определенном смысле, наилучшим образом соответствовало оригиналу. При этом каждый раз необходимо формулировать критерий приближения, так как в выражение «наилучшее приближение» можно вкладывать различный смысл. Приведем наиболее широко применяемые критерии приближения (сходимости).
31
1. Можно потребовать, чтобы максимальное значение погрешности аппроксимации Δ(ξ ) = x (ξ ) − x * (ξ ) (3.3) было минимальным на заданном интервале определения функции x(ξ). Этот вид аппроксимации, при котором минимизируется величина Δ(ξ ) max , называется равномерным приближением. 2. В качестве критерия приближения можно выбрать среднюю погрешность ξ
1 max Δ cp = ∫ x (ξ ) − x * (ξ ) dξ , T ξmin
(3.4)
где T = ξmax - ξmin. Такая аппроксимация называется приближением в среднем. 3. Если в качестве меры представления принимается минимум среднеквадратичной погрешности ξ
σ=
1 max 2 x (ξ ) − x * (ξ )] dξ , [ ∫ T ξmin
(3.5)
то такой вид аппроксимации называется приближением в среднеквадратическом. Существуют и другие критерии приближения [1,2]. В большинстве технических применений преимущественное распространение получил среднеквадратический критерий, учитывающий интегральный эффект - ошибку, накопленную на всем интервале определения сигнала, и в большинстве случаев лучше соответствующий физическому смыслу исследуемых явлений. Кроме того, что тоже немаловажно, теория, основанная на этом критерии, имеет наиболее простой и удобный для практики вид. Все рассмотренные критерии приближения взаимосвязаны. Если ряд (3.2) сходится к x(ξ) равномерно, то он тем более сходится среднеквадратически. Из среднеквадратической сходимости вытекает сходимость в среднем. Для того, чтобы разложение сигнала в форме (3.1) было возможным, система базисных функций (СБФ) должна удовлетворять ряду требований: 1) Быть упорядоченной системой линейно независимых функций. 2) Быть полной, для того, чтобы по выбранной системе функций можно было разложить любой сигнал из заданного множества. 3) Число линейно независимых функций в полной системе должно быть равным размерности рассматриваемого множества сигналов, т.е. количеству чисел, с помощью которых можно выбрать любой сигнал из этого множества. Когда рассматривается множество непрерывных сигналов произвольной формы, то их размерность бесконечно велика и в этом случае СБФ должна содержать также бесконечно большое число линейно независимых функций. Наиболее удобно производить разложение сигналов, если базисная система {ϕα(ξ)} является ортогональной на интервале определения сигнала [ξmin, ξmax]. Условие ортогональности двух различных базисных функций заключается в равенстве нулю их взаимной мощности:
32
ξ
1 max ∫ ϕ α (ξ )ϕ k (ξ )dξ = Q a δ a k , T ξ min
(3.6)
где символ Кронекера и мощность α-й базисной функции ⎧0 п ри α ≠ k ; ⎩1 п ри α = k ;
δαk = ⎨ Qα =
1 T
(3.7)
ξ max
ϕ α (ξ )dξ . ∫ ξ 2
(3.8)
min
Интервал определения ортогональных базисных функций называется также интервалом ортогональности. Если система ортогональных функций полная, то к ней нельзя добавить ни одной новой функции, которая была бы ортогональна одновременно ко всем другим функциям данной системы. Известно, что любую систему линейно независимых функций можно ортогонализировать, т.е. преобразовать в ортогональную систему [1]. Представление сигналов с помощью ортогональных СБФ обладает тем важным свойством, что повышение порядка аппроксимирующего многочлена всегда улучшает аппроксимацию по сравнению с представлением сигналов неортогональными СБФ. Если при N→∞ многочлен x * (ξ ) [см. (3.2)] сходится к x(ξ ) , то x * (ξ ) совпадает с x(ξ ) в рамках выбранного критерия приближения. Система ортогональных функций называется также нормированной, если мощности всех базисных функций равны единице (в этом случае СБФ называется еще ортонормированной): ξ
1 max 2 ∫ ϕα (ξ )dξ = 1 . T ξmin
(3.9)
Любую систему ортогональных функций можно нормировать, если разделить каждую базисную функцию на ее мощность. При представлении сигналов в форме (3.2) необходимо решать вопрос о способе вычисления спектральных коэффициентов. Он во многом будет зависеть от используемого метода аппроксимации (вида принятого критерия сходимости). В случае применения среднеквадратического критерия коэффициенты cα, выбирают таким образом, чтобы среднеквадратическая ошибка σ была минимальной. Это достигается с помощью обобщенной формулы Фурье расчета спектра: ξ max
cα = [1/(Q αT )]·
x(ξ )ϕ α (ξ )dξ . ∫ ξ
(3.10)
min
Очевидно, что среднеквадратическая аппроксимация имеет смысл тогда, когда мощность сигнала x(ξ ) и функций ϕα(ξ) на интервале аппроксимации имеет конечное значение. В случае комплексных базисных систем в формуле (3.10) расчета спектра должна стоять комплексно-сопряженная функция ϕα* (ξ ) . Увеличивая неограниченно число членов в аппроксимирующем многочлене с коэффициентами в форме (3.10), получим в пределе равенство x * (ξ ) = x(ξ ) , выполняемое при σ →∞. При этом аппроксимирующий многочлен примет вид
33
бесконечного ряда, называемого обобщенным рядом Фурье. В спектральном представлении (3.1) и в формуле расчета спектра (3.10) базисные функции являются функциями двух переменных ξ и α, а спектральные коэффициенты - функциями переменной α. Это приводит к симметрии выражений (3.1) и (3.10), называемых соответственно прямым и обратным преобразованием Фурье, из которой следует математическое равноправие функций x(ξ ) и сα как различных форм представления сигнала. Для рядов Фурье справедливо равенство Парсеваля [3]: ξ
∞ 1 max 2 ∫ϕα (ξ )dξ =α∑=0 Q α сα2 . T ξmin
(3.11)
Так как правая часть этого равенства определяет мощность сигнала при его представлении с помощью спектров, а левая - его мощность при записи в виде математической функции, то равенство Парсеваля отражает эквивалентность двух форм представления сигналов с физической (энергетической) точки зрения. Выполнение равенства Парсеваля свидетельствует также о полноте ортогональной СБФ. Рассмотрим представление с помощью спектров дискретных сигналов. Решетчатая функция x(i), i ∈ [0, N] записывается в виде обобщенного дискретного ряда N −1
x(i ) = ∑ сα ϕ α (i )
(3.12)
α =0
по любым полным и ортогональным системам решетчатых базисных функций {ϕα(i)}. При этом моменты отсчетов базисных функций должны совпадать с моментами отсчетов раскладываемых сигналов. Условия ортогональности и нормированности дискретных СБФ определяются уравнениями 1 N −1 (3.13) ∑ ϕ α (i)ϕ k (i) = Q α δ αk ; N i =0 1 N −1 (3.14) Q α = ∑ ϕ α2 (i ) = 1 , N i =0 а равенство Парсеваля для дискретных сигналов имеет вид 1 N −1 2 1 N −1 (3.15) x (i ) = ∑ Q α cα2 . ∑ N i =0 N α =0 1 N −1 2 Для дискретных функций, удовлетворяющих условию ∑ x (i) < ∞ , N i =0 справедлива следующая формула для определения спектра: N −1
cα = [1/(Q α N )]· ∑ x(i )ϕ α (i ) .
(3.16)
i =0
Формулы (3.12) и (3.16) представляют собой дискретные преобразования Фурье. 3.3. Системы базисных функций
Один и тот же сигнал может быть разложен по различным СБФ или, что одно и то же, рассмотрен в различных системах координат. При этом внутренние
34
закономерности сигналов не могут нарушаться при изменении системы координат. Однако спектральному анализу в различных СБФ соответствует различная физическая интерпретация и, что особенно важно, различная практическая реализация. Так, например, технические характеристики (точность, быстродействие, затраты памяти и оборудования) цифровых фильтров, построенных в спектральной области, зависят от применяемых СБФ и для различных систем существенно различны. В соответствии с этим, при решении практических задач целесообразно подбирать наиболее подходящие СБФ. Выбор базиса во многом обусловлен спецификой решаемых задач и требованиями, предъявляемыми при их решении. Полных и ортогональных СБФ существует бесчисленное множество. Дадим краткий обзор некоторых известных СБФ, применяемых в настоящее время в теории и практике обработки сигналов. Системы единичных функций. Два прямоугольных импульса, не перекрывающие друг друга, ортогональны. Поэтому система прямоугольных импульсов (рис. 3.6), приставленных друг к другу и заполняющих интервал [t0, tN], будет ортогональной системой. t
t0 Δt
t
t1 tN T
t
tN-1
Рис. 3.6 Такая система полна только для подмножества ступенчатых сигналов с шириной ступени Δt, где Δt - длительность импульсов, N = T / Δt - число импульсов на рассматриваемом интервале. Система таких функций будет полна для любого непрерывного сигнала при Δt → 0 и N → ∞. В этом случае она превращается в систему единичных импульсов {uα(t)}, имеющих единичную амплитуду и бесконечно малую длительность, положение которых определяется сдвигом по оси αΔt = t при Δt → 0, α → ∞. Система функций {uα(t)} является полной ортогональной системой. Из нее дискретизацией можно получить систему дискретных единичных функций {uα(i)}, каждая из которых имеет вид единичного импульса бесконечно малой длительности и аналитически записывается в виде ⎧0 п ри i = α ; (3.17) uα (i ) = ⎨ ⎩1 п ри i ≠ α .
35
Такая система определена на целочисленном интервале [0, N). Для N=8 она приведена на рис. 3.7. u0 1 i 0 u1 1
1
2
3
4
5
6
7
i 0 u2 1
1
2
3
4
5
6
7
i 0 u3 1
1
2
3
4
5
6
7
i 0 u4 1
1
2
3
4
5
6
7
i 0 u5 1
1
2
3
4
5
6
7
i 0 u6 1
1
2
3
4
5
6
7
i 0 u7 1
1
2
3
4
5
6
7
i 0
1
2 3 4 Рис. 3.7
5
6
7
Система {uα(i)} в форме (3.17) является ненормированной, и ее норма (корень квадратный из мощности) 1 uα = . (3.18) N Эта система представляет собой полную СБФ, служащую для разложения дискретных сигналов произвольной формы. Система дискретных единичных функций обладает тем свойством, что ее
36
спектральный коэффициент с номером α совпадает со значением сигнала в точке i = α его интервала определения, т.е. (3.19) ca = x(α). Подобным свойством обладает и непрерывная система {uα(t)}. Это свойство единичной системы позволяет проиллюстрировать взаимосвязь между представлением сигнала в области аргументов и спектральной области. В соответствии с ним представление в области аргумента можно рассматривать как частный случай спектрального представления в единичном базисе. Это позволяет получать результаты в области аргументов, используя более общие результаты в спектральной области. Системы тригонометрический базисных функций. Система тригонометрических функций {cos(kξ) , sin(kξ)} = { 1, sin(ξ), cos(ξ), sin(2ξ), cos(2ξ), ...} является полной ортогональной системой с интервалом ортогональности [-π, π], либо [0, 2π]. Система является периодической с периодом 2π и ненормированной (норма равна 1/ 2 ). Проведя нормирование на ее основе, можно получить полную ортонормированную систему { 1, 2 sin(ξ), 2 cos(ξ), 2 sin(2ξ), 2 cos(2ξ), ...}. Дискретный аналог этой СБФ - полная ортонормированная система дискретных тригонометрический функций 2π ( N − 1) 2πki 2πki ⎫ ⎧ 2πki 2πki ⎫ ⎧ , 2 sin , 2 cos , K , 2 cos , cos(2πi )⎬, ⎨ 2 cos ⎬ = ⎨1, 2 sin N N ⎭ ⎩ N N N ⎩ ⎭ определенная на интервале [-N/2, N/2) или [0, N). В качестве примера на рис.3.8 приведена система из восьми функций с интервалом определения [-4, 4).
37
cos0 1 -4
-3
-2
-1 0 sin1
1 2
2
3
i
1 -1 cos1 1
i − 2 2
i
-1
− 2 2
sin2 1
i
-1 cos2
− 2 2
1 i
-1
− 2 2
sin3 1
i
-1 cos3
− 2 2
1 i
-1 cos4
− 2 2
1 i
-1 Рис. 3.8
38
Системы комплексных экспоненциальных функций. Полной ортогональной системой на интервале [-π, π] или любом другом интервале длительностью 2π является система комплексных экспоненциальных функций {l jkξ } . Это нормирован-
ная периодическая система с периодом 2π. Для нее характерно свойство мультипликативности, заключается в том, что произведение двух любых ее функций является также функцией этой системы: (3.20) l jkξ l jmξ = l jlξ , где l = k + m. Дискретный аналог этой системы - система дискретных комплексных экс⎧ j 2πki ⎫ поненциальных функций ⎨l N ⎬ , обладающая свойствами полноты, нормирован⎩ ⎭ ности, ортогональности и мультипликативности на интервале, содержащим N отсчетов. Зависимости (3.12) и (3.16) ряда и коэффициентов Фурье при использовании в качестве базиса системы дискретных комплексных экспоненциальных функций называются дискретными преобразованиями Фурье[3]: N −1
x (i ) = ∑ ck l ck =
k =0 N −1
1 N
j
2πki N
∑ x(i )l
;
−j
2 πki N
(3.21) ,
(3.22)
i =0
⎧ − j 2πki ⎫ где ⎨l N ⎬ - система комплексно-сопряженных экспоненциальных функций, оп⎩ ⎭ ределенных на интервале в N точках. ⎧ j 2πki ⎫ Спектр cα в базисе ⎨l N ⎬ является комплексной функцией. Системы ком⎩ ⎭ плексных экспоненциальных функций широко применяются при решении различных технических и научных задач и достаточно подробно описаны в литературе [1,2,3]. Полиномиальные базисные системы. К ним относят системы, построенные на основе ортогональных полиномов [4]. Рассмотрим две такие системы, определенные на конечных интервалах. Полиномы Чебышева. На интервале [-1, 1] можно построить полную ортонормальную систему −
1
ϕn (ξ ) = 2 n (2π ) 2 Tn (ξ ) , n=0,1,2,..., (3.23) где Tn(ξ) - полиномы Чебышева, задаваемые следующим образом: 1 T0(ξ)=1, Tn (ξ ) = n−1 cos(n ⋅ arccos(ξ )), n ≥ 1 . (3.24) 2 Полиномы Чебышева обладают тем важным свойством, что из всех полиномов n-ой степени, имеющих коэффициент при ξ n, равный единице, полином Чебышева Tn(ξ) наименее отклоняется от нуля на интервале [-1, 1]. При n≥3 значение Tn(ξ) можно вычислять по рекуррентной формуле Tn (ξ ) = ξTn−1 (ξ ) − 0.25Tn−2 (ξ ) . (3.25) Полиномы Лежандра. Нормированные и ортогональные функции 1 3 5 ⎡ 3 2 1⎤ 2n + 1 ϕ0 (ξ ) = , ϕ1 (ξ ) = ξ − ⎥,K,ϕn (ξ ) = Pn (ξ ) образуют ξ , ϕ2 (ξ ) = ⎢ 2 2 2 ⎣2 2⎦ 2
39
полную систему базисных функций на отрезке [-1,1]. Здесь {Pn(ξ)} - полиномы Лежандра, определяемые по формуле по формуле 1 dn 2 Pn (ξ ) = n (ξ − 1) n (3.26) 2 n ! dξ n или по рекуррентной зависимости nPn(ξ) = (2n - 1)ξPn-1(ξ) - (n - 1)Pn-2(ξ). (3.27) Непосредственная дискретизация непрерывных СБФ, построенных на основе ортогональных полиномов, образует системы дискретных функций с неравноотстоящими отсчетами. В этом смысле непрерывные полиномы не имеют решетчатых аналогов. Однако в классе полиномиальных функций можно построить решетчатые полиномы, используя непосредственное представление их аргумента в виде дискретной переменной. Среди таких функций конечный интервал определения имеют функции дискретных систем Чебышева, Кравчука, Шарлье и Мейкснера. Функции систем этого класса ортогональны на интервале [0, N) и являются ненормированными. Для каждой системы известны рекуррентные соотношения, позволяющие строить аналитические описания функций при различных значениях номера функции α и числа отсчетов N. Данные аналитические описания можно представить в форме обобщенных степенных полиномов α
polα (i ) = ∑ a k i k ,
(3.28)
k =0
где ak - коэффициенты, зависящие от конкретного типа системы. От типа системы зависят и нормы базисных функций, поскольку эти системы не являются нормированными. Например, для системы Чебышева коэффициенты и норма записываются как [3] ( −1) k ( k + α )! ak = ; (3.29) ( k !) 2 (α − k )!( N − 1)( N − 2)K( N − k ) ( N + α )( N + α − 1)K N polα (i ) = . (3.30) N (2α + 1)( N − 1)( N − 2)K( N − α ) Проведя нормирование, можно построить нормированные системы дискретных полиномов. Для нормированного базиса Чебышева первые три его функции представляются следующим образом: 3( N − 1 − 2i ) ⎫ pol0 (i ) = 1, pol1 (i ) = ⎪⎪ N +1 (3.31) ⎬ 5 pol2 (i ) = [( N − 1)( N − 2) − 6i ( N − 2) + 6i (i − 1)]⎪ ⎪⎭ ( N + 2)( N + 1) и для N=8 приведены на рис. 3.9.
40
pol0 1 0
1
2
3
4
5
6
7
i
pol1 7/3 i
-7/3 pol2 7/3
i
5/3
Рис. 3.9 Двоично-ортогональные системы базисных функций. Под этим условным названием объединены системы функций меандрового типа Радемахера, Уолша и Хаара, интервал ортогональности которых при их построении представляется совокупностью двоично-рационального числа равных подынтервалов. Эти системы имеют важное значение для практики спектральной обработки, поскольку принимают только значения ±1 (функция Радемахера и Уолша) либо ±1 и 0 (функция Хаара) и легко могут быть получены с помощью цифровых устройств. Все эти системы взаимосвязаны друг с другом и каждую из них можно получить из другой, образуя соответствующую линейную комбинацию. Базисные функции представляют собой функции различных физических аргументов с различными интервалами ортогональности. Сигнал, в свою очередь, может быть также функцией другой переменной с интервалом определения, отличающимся от интервала ортогональности базисных функций. При спектральном представлении таких сигналов необходимо привести оси и интервал ортогональности аргумента базисных функций к оси и интервалу изменения переменной сигнала. В общем случае, если сигнал является функцией переменной ξ с интервалом [ξmin, ξmax), а функции базисной системы зависят от аргумента γ и ортогональны на интервале [γmin, γmax), преобразование оси γ в ось ξ и совмещение интервалов можно осуществить подстановкой: γ −γ γ ξ −γ ξ γ = max min ξ + min max max min . (3.32) ξmax − ξmin ξmax − ξmin Например, если γ∈[-1, 3), а ξ∈[-T, 2T), то в соответствии с преобразованием (3.32) 3 − (−1) (−1)2T − 3(−T ) 4 1 = γ= ξ+ ξ+ . 2T − (−T ) 2T − (−T ) 3T 3 Проверим записанную взаимосвязь γ и ξ на граничных значениях ξ. При ξ = 4 1 4 1 -T значение γ = ( − T ) + = − + = −1 . При ξ = 2T значение 3T 3 3 3
41
4 1 8 1 (2T ) + = + = 3 . Полученные значения совпадают с заданными. Если 3T 3 3 3 интервалы разносторонние, например γ∈[-π, π), a ξ ∈ [0, T ), то, исходя из (3.32), найдем (−π )T − π ⋅ 0 2π π − (−π ) γ= ξ+ = ξ −π . T −0 T −0 T Проверка подтверждает справедливость и этой формулы. Преобразование осей и приведение интервалов необходимо учитывать при использовании спектральной формы представления сигналов.
γ=
3.4. Функции Радемахера
Для того чтобы кусочно-постоянные базисные ортогональные функции могли использоваться при обработке информации, нужно, чтобы так же, как синусоиды и косинусоиды, они принимали не только положительные, но и отрицательные значения. Этому требованию удовлетворяют описываемые ниже кусочно-постоянные ортогональные функции Радемахера. Если принять за основу синусоидальные колебания sin(2mπθ), где m - целое положительное число, и принять для произвольной величины ξ, что sing(ξ)=1 при ξ>0 и sign(ξ)=-1 при ξ<0, то функции Радемахера (3.33) rad(m,θ) = sign[sin(2mπθ)]. По формуле (3.33) определяются функции Радемахера для m=1,2,... Для m=0 функция Радемахера rad(0,θ)=1. На рис. 3.10 показаны функции Радемахера при значениях m от 0 до 5. Они показаны при задании θ в интервале 0≤θ <1. 1 0 -1 1 0 -1 1 0 -1 1 0 -1 1 0 -1 1 0 -1
Rad(0,θ)
Rad(1,θ) Rad(2,θ) Rad(3,θ) Rad(4,θ) Rad(5,θ)
θ 0
0,5
1
Рис. 3.10 Вообще же эти функции являются периодическими функциями с периодом
42
1: rad(m,θ)=rad(m,θ+1). Рис. 3.10 показывает, что функции Радемахера с номерами m от 2 и выше периодичны также и на меньших интервалах, число которых зависит от величины m. Формула (3.33) позволяет сравнить функции Радемахера с синусоидами и дает наглядное представление о процедуре их получения. На рисунке были показаны непрерывные функции Радемахера. Дискретные функции Радемахера, для которых принято обозначение Rad(m,θ), получаются путем выборки их из непрерывных функций при дискретных значениях θ в интервале 0≤θ <1. Например, при отсчетах, сделанных для восьми точек этого интервала, получаем значения Rad(2,θ), равные 1,1,-1,-1,1,1,-1,-1. В отличие от полного набора синусоид и косинусоид, все функции Радемахера нечетные. Это препятствует аппроксимации их с помощью четных функций (они образуют, как говорят, неполный набор функций). Поэтому их применение ограничено. Полными ортогональными системами базисных кусочно-постоянных функций являются системы функций Уолша и Хаара. 3.5. Функции Уолша
Для нормированных функций Уолша принято обозначение wal(n,θ), где n номер функции, а θ находится в интервале 0≤θ <1. Обычно рассматривается множество функций Уолша wal(n,θ) при n=0,1,...,N-1, где N=2i и i=1,2,3,... Первые восемь функций Уолша изображены на рис. 3.11[5]. 1 0 -1 1 0 -1 1 0 -1 1 0 -1 1 0 -1 1 0 -1 1 0 -1 1 0 -1
wal(0,θ)
wal(1,θ) wal(2,θ) wal(3,θ) wal(4,θ) wal(5,θ) wal(6,θ) wal(7,θ)
θ 0
0,5
1
Рис. 3.11 Функции Уолша различают по их порядку и рангу. Под порядком имеют
43
ввиду максимальный из содержащих единицу номеров разрядов при двоичном представлении числа n, рангом называют число единиц в двоичном выражении n. Например, порядок и ранг функции wal(5,θ) равны соответственно 3 и 2, так как двоичным выражением числа 5 является 101 (имеется ввиду обычное двоичное кодирование чисел; см. второй столбец табл. 3.2). Функции Уолша могут быть представлены в виде произведений функций Радемахера (см. табл. 3.3). Номера функций Радемахера, образуюших функции Уолша wal(n,θ) определяются по номерам последних, выраженных в двоичном коде Грея. Для чисел n от 0 до 15 их нумерация кодом Грея дана в последнем столбце табл.3.2. Номера перемножаемых функций Радемахера отвечают номерам разрядов, в которых имеются единицы, закодированного кодом Грея числа n. Разряды отсчитываются, начиная с младшего разряда. Так определяются как произведение функций Радемахера функции wal(n,θ) для любых n. Код Грея связан следующим образом с обычным двоичным кодом. Если в обычной двоичной системе исчисления число n=ak-1ak-2...a0, то в коде Грея n=bk-1bk2...b0, где b0=a0⊕a1, b1=a1⊕a2,...,bk-1=ak-1; ⊕ - знак суммирования по модулю два (0⊕0=0; 0⊕1=1; 1⊕0=1; 1⊕1=0). Например, n=2 в обычном двоичном коде записывается как 10. Здесь a1=1, a0=0. Следовательно, b0=a0⊕a1=0⊕1=1, b1=a1=1. Следовательно, число n=2 представляется как 11, что и указано в табл.3.2. Функции Уолша могут быть упорядочены по Уолшу. На практике широко используется также и другие способы упорядочивания функций Уолша. Имеется упорядочивание функций Уолша по Пэли, упорядочивание функций Уолша по Адамару. На рис. 3.12. показаны первые восемь функций Уолша-Адамара had(n,θ). 1 0 -1 1 0 -1 1 0 -1 1 0 -1 1 0 -1 1 0 -1 1 0 -1 1 0 -1
had(0,θ) had(1,θ) had(2,θ) had(3,θ)
had(4,θ) had(5,θ) had(6,θ) had(7,θ)
θ 0
0,5
1
Рис. 3.12 Таблица 3.2
44
n-N0 функции Уолша Выражение n в обычном Выражение n в коде Грея (упорядоченной по двоичном коде Уолшу)
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111
0000 0001 0011 0010 0110 0111 0101 0100 1100 1101 1111 1110 1010 1011 1001 1000
Таблица 3.3 n-N функции Уолша Формулы перехода от функций rad(m,θ) к функ(упорядоченной по циям wal(n,θ) 0
Уолшу)
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
wal(0,θ)=1 wal(1,θ)=rad(1,θ) wal(2,θ)=rad(1,θ)rad(2,θ) wal(3,θ)=rad(2,θ) wal(4,θ)=rad(2,θ)rad(3,θ) wal(5,θ)=rad(1,θ)rad(2,θ)rad(3,θ) wal(6,θ)=rad(1,θ)rad(3,θ) wal(7,θ)=rad(3,θ) wal(8,θ)=rad(3,θ)rad(4,θ) wal(9,θ)=rad(1,θ)rad(3,θ)rad(4,θ) wal(10,θ)=rad(1,θ)rad(2,θ)rad(3,θ) rad(4,θ) wal(11,θ)=rad(2,θ)rad(3,θ)rad(4,θ) wal(12,θ)=rad(2,θ)rad(4,θ) wal(13,θ)=rad(1,θ)rad(2,θ)rad(4,θ) wal(14,θ)=rad(1,θ)rad(4,θ) wal(15,θ)=rad(4,θ)
3.6.Функции Хаара
45
Широкому применению функций Уолша способствует то, что они принимают только одно из двух значений +1 или -1, и это удобно для цифровой обработки информации на ЭВМ. Первые две функции Хаара - такие же, как и соответствующие функции Уолша, упорядоченные по Уолшу или по Пэли. Функции Хаара принимают на отдельных участках одно из трех значений: 0, +1 и -1, что также удобно для выполнения цифровой обработки на ЭВМ. Наибольшее применение имеют функции Уолша. Однако иногда оказывается более целесообразным использование в качестве базисных функций Хаара. Это связано с тем, что, выполняя рассматриваемые далее преобразования, при принятии за базисные функций Хаара иначе учитывают поведение исходной функции, когда определяют коэффициенты разложения последней, чем это делается при использовании в качестве базисных, функций Уолша. Благодаря указанному свойству функций Хаара, в некоторых случаях их использование оказывается более экономичным. Функции Хаара определяются при каждом значении θ (которое тоже будем здесь считать заданным в интервале 0≤θ <1) двумя величинами, для которых примем обозначения l и n. Первое из них является номером подразделения в системе функций Хаара, второе - номером функции в соответствующем подразделении. Значения функций на участках, на которых эти значения отличны от нуля, различны для разных подразделений. Для функций Хаара приняты обозначения har(l,n,θ), X ln (θ ) или Hln (θ ) . Будем пользоваться последними обозначениями. Первые восемь функций Хаара представлены на рис. 3.13[5]. В нижней части рис. 3.13 изображена матрица дискретных значений функций Хаара. Каждая строка матрицы отвечает соответствующей функции. Для формирования N функций Хаара используется следующая формула H0( 0 ) (θ ) 1 0 -1
H0(1) (θ ) θ 1
0 1 0 -1 1 0 -1
θ
1 0 -1
H2(1) (θ )
θ
H (θ ) ( 3) 2
1 0 -1
1
H (θ ) ( 2) 1
θ 1
1 0 -1
H2( 2 ) (θ )
θ 1
0
θ 0
1
0
1 0
θ 0
H1(1) (θ ) 1
0
1 0 -1
1 0 -1
H2( 4 ) (θ )
θ 1
0
46
⎡ ⎢ ⎢ ⎢ ⎢ * H (3) = ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢⎣
1 1
1 1
2
2
0 2 0 0 0
0 -2 0 0 0
1 1
1 1
− 2
− 2
1 -1 0
1 -1 0
0 0 2 0 0
0 0 -2 0 0
2
2
0 0 2 0
0 0 -2 0
1 -1 0
1 -1 0
− 2
− 2
0 0 0 2
0 0 0 -2
⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥⎦
Рис. 3.13 ⎧ l n −1 n − 1/ 2 ⎪ 2 ⎪2 при θ ≥ 2 l ≤ θ < 2 l , ⎪ ⎪⎪ 2l n − 1/ 2 n (n) ≤θ < l , H l (θ ) = ⎨− 2 при θ ≥ l 2 2 ⎪ ⎪ ⎪0 при любыхθ где θ ∈ [0,1), ⎪ ⎩⎪
(3.34)
где 0 ≤ l < log2N и 1 ≤ n ≤ 2l. 3.7. Преобразование Уолша и Хаара
Аналогично тому, как производится разложение функций в ряд Фурье, выполняется оно и при использовании функций Уолша и Хаара в качестве базисных функций. Для функции x(t), нормализованной соответствующим образом, формула разложения x(t) в ряд Уолша имеет следующий вид ∞
x (t ) = ∑ X (n) wal (n, t ) ,
(3.35)
n=0
где wal(n,t) - п-я по порядку следования функция Уолша и X(n) - спектр Уолша. В литературе встречаются различные обозначения спектра Уолша и по разному обозначаются базисные функции Уолша. В дальнейшем для спектра Уолша принято обозначение сα и для функций Уолша обозначение Wα(t/T) в связи с тем, что функции нормализуются при t∈[0,T). Ряд Уолша одномерного сигнала x(t), t∈[0,T) будет иметь вид ∞ ⎛t⎞ x(t ) = ∑ сαWα ⎜ ⎟ , (3.36) ⎝T ⎠ α =0 где спектр Уолша T 1 ⎛t⎞ (3.37) сα = ∫ x(t )Wα ⎜ ⎟dt . T0 ⎝T ⎠ В этом случае равенство Парсеваля
47
T
∞ 1 2 x ( t ) dt = сα2 . ∑ ∫ T0 α =0
(3.38)
N −1 ⎛t⎞ x* (t ) = ∑ сαWα ⎜ ⎟ ⎝T ⎠ α =0
(3.39)
усеченные ряды Уолша
обладают равномерной, среднеквадратической сходимостью и сходимостью в среднем и могут быть использованы для аппроксимации сигналов, описываемых интегрируемыми функциями. 3.8. Применения преобразований Уолша и Хаара
Успешному использованию преобразований Уолша и Хаара способствовало изучение следующих вопросов: свойства функций Уолша; свойства спектров Уолша; общие вопросы применения функций Уолша при выполнении преобразований; алгоритмы быстрого преобразования Уолша; вычисление корреляционных функций и выполнение сверток на базе функций Уолша; применение функций Уолша для исследования случайных процессов; использование функций Уолша при построении цифровых фильтров. Для области автоматического управления является актуальным применение преобразований Уолша при анализе динамики линейных и нелинейных систем, разработке систем оптимального управления, моделировании процессов, идентификации объектов, разработке ряда специальных устройств автоматики. Практически важным является предложенное Х. Хармутом использование функций Уолша для формирования сигналов, передаваемых по линиям радиосвязи. Предложено использовать их в качестве несущих при распространении сигналов в радиоканале над поверхностью Земли, проработаны вопросы генерирования и приема сигналов этого вида. Функции Уолша применены при разработке многоканальных систем связи. На основе использования функций Уолша разработаны усовершенствованные методы помехоустойчивого кодирования сигналов. Преобразования Хаара, хотя они используются в меньшей степени, чем преобразования Уолша, тоже находят применение при разработке и исследовании средств автоматики. Быстрое преобразование Хаара используется при анализе процессов. С помощью функций Хаара можно эффективно осуществлять свертки сигналов. Функции Хаара использованы при разработке цифровых фильтров, при исследовании случайных процессов, а также при разработке конкретных типов устройств в системах управления и связи. 3.9. Классы фильтров и их математическое описание
В зависимости от вида входного сигнала различают фильтры непрерывные (аналоговые) и дискретные (цифровые). Фильтры обоих видов могут быть линейными и нелинейными. Свойства фильтров могут быть описаны как во временной, так и в частотной области. Частотные характеристики используются довольно часто (и для цифровых фильтров - ЦФ), так как их удобнее применять и они более
48
наглядно иллюстрируют физические свойства фильтров. Так, по виду частотных характеристик различают фильтры нижних частот, фильтры высоких частот, полосовые фильтры и запирающие фильтры (фильтры-«пробки»), выполняющие операции выделения тех или иных частотных составляющих из общего спектра входного сигнала. Наряду с ними есть фильтры, производящие более сложные операции, например операции выделения, дифференцирования и экстраполяции сигналов в условиях действия случайных помех. В общем случае, выходной сигнал ЦФ в текущий момент времени определяется значением входного сигнала u(mΔt)=u[m]=um в тот же момент дискретного времени m, значениями входных и выходных сигналов y(mΔt)=y[m]=ym в предшествующие моменты времени и описывается разностным уравнением ym = a0um+ a1um-1 +...+ aN-1um-N-1 - b1ym-1 - b2ym-2 -...- bkym-k . (3.40) Передаточная функция ЦФ в Z-области имеет вид Y ( z ) a0 + a1 z −1 + ... + aN −1 z − ( N −1) W ( z) = = . (3.41) U ( z) 1 + b1 z −1 + ... + bk z − k Общее описание ЦФ как дискретной системы уравнениями (3.40) и (3.41) позволяет создать набор алгоритмов, которые непосредственно используются для реализации в виде ЦФ или для программирования ЦВМ. Этот набор алгоритмов создается путем варьирования величин N, k, ai, bj. Рассмотрим вопрос физической реализуемости передаточной функции (3.41). С теоретической точки зрения передаточная функция (3.41) реализуема всегда, за исключением того случая, когда все коэффициенты ai=0, что с физической точки зрения представляет фильтр с отключенным входом. Рекурсивный фильтр - это фильтр, в котором для расчета текущей выходной величины используется по меньшей мере одно значение входной величины и одно из полученных ранее значений выходных величин. Математически это формулируется так: рекурсивный фильтр - это фильтр, заданный уравнением (3.40) или (3.41), в котором по меньшей мере одно значение bj и одно значение ai не равно нулю. При этом рекурсивный фильтр обладает такой памятью, что значения всех отсчетов фильтруемого сигнала от 0 до текущего момента с некоторым весом участвуют в формировании текущего значения выходной величины. Для краткости будем называть такой фильтр P-фильтром, и тогда в сжатой форме определение будет иметь следующий вид: P-фильтр - это такой фильтр, у которого не все bj =0 и T=t→∞, где T- память фильтра. В нерекурсивном, или трансверсальном, фильтре в отличие от рекурсивного ни одна из полученных ранее выходных величин не используется для расчета текущей выходной величины (все bj =0). Он обладает принципиально конечной памятью (определяемой интервалом [t, t-T] или [m, m-N+1], т.е. N≠∞. По аналогии с предыдущим трансверсальный фильтр для кратности будем называть Tфильтром. При этом определение имеет вид: T-фильтр - это такой фильтр, у которого все bj =0 и T=(N-1)Δt. Эти фильтры характеризуются разностным уравнением и передаточной функцией в Z-области вида N −1
ym = a0 um + a1um−1 +...+ a N −1um− N +1 = ∑ ai um−i ;
(3.42)
W ( z ) = a 0 + a1 z −1 + ... + a N −1 z − N +1 = ∑ ai z −i .
(3.43)
i =0 N −1 i =0
Совокупность коэффициентов ai часто рассматривается как функция, кото-
49
рая называется импульсной переходной функцией (ИПФ). Для выполнения таких операций, как сглаживание (низкочастотная фильтрация), интерполяция и экстраполяция (задержка и предсказание), дифференцирование, а также для реализации комбинаций перечисленных операций широко применяется T-фильтр. 3.10. Формы реализации передаточных функций
Рассмотрим структурные схемы реализации передаточных функций ЦФ, составленные на основе использования трех элементов: сумматора, умножителя и элемента задержки. Соотношения между входом и выходом в этих элементах представляются в виде n
y k = ∑ U ik , yk = aiUk, yk = Uk-1. i =1
Отметим возможные формы реализации для каждого класса фильтров (P и T) в отдельности. Отметим, что со структурной точки зрения P-фильтры представляют собой устройства с обратными связями, а T-фильтры - устройства без обратных связей. P-фильтры. Для одной и той же передаточной функции P-фильтра, можно получить четыре основные формы реализации: прямую, каноническую, каскадную каноническую и параллельную каноническую. Прямая форма реализации получается из непосредственной интерпретации передаточной функции N −1 k ⎛ ⎞ (3.44) W ( z ) = ∑ a i z −i ⎜⎜1 + ∑ b j z − j ⎟⎟ . i =0 j =1 ⎝ ⎠ Схема прямой формы реализации представлена на рис. 3.14. um
a
ym 0
z
z
-1
-1
a
-b
1
1
z
z
-1
-1
a
-b
N-1
k
Рис. 3.14
50
Схема канонической формы реализации приведена на рис. 3.15. um
ym
a
0
a
1
z
-1
-b
1
z
-1
-b
a
N-1
N-1
z
-1
-b
k
Рис.3.15 Рассмотрим каскадную и параллельную канонические формы реализации. Передаточная функция P-фильтра – дробно-рациональная функция, представляемая либо в виде произведения, либо в виде суммы дробно-рациональных функций в общем случае второго порядка. Для реализации P-фильтра в каскадной канонической форме передаточную функцию изображают произведением: l l 1 + α1i z −1 + α 2i z −2 = A Hi ( z ) , W ( z ) = A∏ (3.45) ∏ −1 + β2i z − 2 i =1 1 + β1i z i =1 где A - коэффициент, в общем случае не равный нулю. Схема фильтра для этого случая представлена на рис.3.16,а. Каждая передаточная функция Hi(z) реализуется биквадратным блоком (рис.3.16,б), числитель и знаменатель передаточной функции которого являются квадратными многочленами. a) um ym
A
Hi(z)
H1(z)
Hl (z)
б) Вх
Вых
z-1 -β1
α1
z-1 -β2
α2 Рис. 3.16
Параллельную каноническую реализацию можно получить, если передаточную функцию P-фильтра разложить на элементарные дроби:
51
l 1 + α i z −1 = A + H i ( z ). (3.46) ∑ 1 + β 1i z −1 + β 2i z − 2 i =1 i =1 Структурная схема фильтра и биквадратного блока для этого случая представлена на рис. 3.17, а,в.
l
W ( z ) = A + ∑ Bi
a)
б) Вх
um
A H1(z)
B Вых
ym
z-1
Hi(z)
-β1
α1
z-1
Hl (z)
-β2
Рис. 3.17 Т-фильтры. Для T-фильтра, описываемого разностным уравнением и передаточной функцией в Z-области N −1
ym = ∑ ai um−i ;
(3.47)
i =0
W ( z) =
N −1
∑a z i =0
−i i m
,
(3.48)
можно получить только две основные формы реализации: прямую (которая совпадает с канонической) и каскадную каноническую. Структурная схема Т-фильтра при прямой (или канонической) форме реализации приведена на рис. 3.18,а.
a) um
a0
б) ym
Вх
z-1
Вых
z-1
α1
aN-2 -1
-1
z
z
α2
aN-1 Рис. 3.18
Для реализации Т-фильтра в каскадной канонической форме передаточную функцию представляют произведением в общем случае:
52
l
l
i =1
i =1
W ( z ) = A∏ (1 + α1i z −1 + α2i z − 2 ) = A∏ Hi ( z ) .
(3.49)
Схема фильтра имеет тот же вид, что и схема соответствующего Р-фильтра, но каждая передаточная функция Hi(z) в общем случае реализуется квадратичным блоком (рис.3.18,б). 3.11.Аналитический синтез фильтров методом подбора базиса
Рассмотрим метод аналитического синтеза спектральных ЦФ, основанный на учете особенностей специально подбираемых СБФ. Этот метод позволяет записать задачу цифровой фильтрации в терминах выбранных СБФ, что в конечном счете и обусловливает одну из важных его особенностей - возможность на единой математической основе строить фильтры с различными критериями оптимизации. Обратимся к общей постановке задачи цифровой фильтрации, считая, что входной сигнал представлен в виде u(m) = g (m) + n(m) =
r2
∑ g G (m) + n(m) ,
k =− r1
k
k
(3.50)
где gk - некоторые коэффициенты, подлежащие определению; Gk(m) - известные функции времени; n(m) - аддитивная помеха, представляющая собой случайную функцию времени с известными статистическими характеристиками. Спектр входного сигнала по некоторой системе ортонормированных функций {ϕα(i)} записывается выражением 1 N −1 cα ( j ) = ∑ u( j − i )ϕα (i ) (3.51) N i =0 и вследствие свойства аддитивности шума состоит из двух составляющих: cα ( j ) = cα* ( j ) + cα' ( j ) , (3.52) где 1 N −1 * cα ( j ) = ∑ g ( j − i )ϕα (i ) , (3.53) N i =0 1 N −1 (3.54) cα' ( j ) = ∑ n( j − i )ϕα (i ) , α ∈[0, N ] . N i =0 Здесь cα* ( j ) - спектр полезного сигнала; cα' ( j ) - спектр помехи. Если СБФ выбрана таким образом, что часть спектральных коэффициентов при разложении полезного сигнала равна нулю, то данные коэффициенты в соответствии с выражением (3.52) содержат только шумовую составляющую, и, следовательно, могут быть исключены без искажения полезного сигнала. При восстановлении сигнала по оставшемуся спектру образуется сигнал u( j − i ) , состоящий из той же полезной составляющей и оставшейся не отфильтрованной части помехи: u( j − i ) = g ( j − i ) + n ′( j − i ) = ∑ cα ( j )ϕα ( j ) . (3.55) α
В выражении (3.55) суммирование проводится по номерам неисключенных спектральных коэффициентов, например, по номерам α, принадлежащим области номеров α*. Вследствие указанных свойств используемой СБФ сигнал u( j − i ) по виду
53
совпадает с полезной составляющей g( j − i) =
r2
∑g
k =− r1
k
( j ) Gk ( j − i ) ,
(3.56)
однако имеет другие коэффициенты [обозначим их через g k ( j ) ], которые представляют собой оценку искомых параметров gk(j) полезного сигнала: u( j − i ) =
r2
∑g
k =− r1
k
( j )Gk (i ) .
(3.57)
Таким образом, при этом способе преобразования сигнал u( j − i ) является отфильтрованным, с определенной степенью точности аппроксимирующим исследуемый входной сигнала u(j - i). На рис. 3.19 приведена геометрическая интерпретация процесса аппроксимации полезного сигнала (кривая 1) с наложенным случайным шумом (кривая 2). Аппроксимирующая функция имеет вид кривой 3. На рис. 3.20 представлено изображение этого процесса в спектральной области базиса {ϕα(i)}, причем не учитываемые коэффициенты условно отмечены «крестиком».
cα 2
3
1
0
1
2
3
4
N-2
N-1
i
0
1
2
Рис. 3.19
3
4
N-2
N-1
α
Рис. 3.20
Для определения параметров аппроксимирующей функции (3.57) разложим сигнал u( j − i ) по системе функций {ϕα(i)}, тогда вследствие их ортогональности из (3.55) и (3.57) нетрудно получить систему алгебраических уравнений связи спектров входного и отфильтрованного сигналов r2
∑g
k =− r1
k
( j ) Lαk = cα ( j ) , α ∈α * ,
(3.58)
Здесь индекс α имеет значения, принадлежащие области α*, а величина Lαk , как и ранее, представляет собой разложение функции Gk(i) в базисе {ϕα(i)}: 1 N −1 (3.59) Lαk = ∑ Gk (i )ϕα (i ) . N i=0 При заданных функциях Gk(i) и рассчитанном спектре входного сигнала cα(j), неизвестным в системе (3.58) будут только искомые параметры аппроксимирующей функции (3.57). В связи с этим задачу оценки параметров входного сигнала можно свести к решению системы алгебраических уравнений (3.58). Из возможных структурных организаций системы (3.58), зависящих от вида аппроксимирующих функций и выбранного базиса, практическое значение
54
имеют системы, в которых число уравнений равно числу неизвестных и число уравнений системы превышает число неизвестных. В первом случае система (3.58) имеет единственное решение A (α ) g k ( j) = ∑ k cα ( j ) , (3.60) Δ α ∈α * представляющее собой запись уравнения спектральной свертки в базисе {ϕα(i)}, A (α ) ядром которой является отношение k (здесь Ak(α) - алгебраические дополнеΔ ния элементов k-го столбца k-го определителя системы (3.58), а Δ - главный определитель этой системы). Для некоррелированного шума решение в форме (3.60) представляет собой решение задачи оптимальной фильтрации (оптимальной в смысле равенства нулю систематической погрешности и минимума дисперсии случайных погрешностей). Во втором случае для решения системы (3.58) используются различные методы, позволяющие получить различные типы фильтрующих алгоритмов. Если применить к ней известный метод нормальных уравнений Гаусса, то параметры g k ( j ) можно найти из решения эквивалентной системы уравнений, каждое k-е уравнение которой запишется в виде r2
g λ ( j ) ∑ Lα Lαλ = ∑ cα ( j ) Lα , k = -r , -r +1,...,0,...,r ∑ λ =− r1
k
α ∈α *
k
α ∈α *
1
1
2.
(3.61)
Решение системы (3.61) можно также представить в форме уравнения (3.60), причем в этом случае Δ и Ak(α) - соответственно главный определитель и алгебраические дополнения k-го определителя системы уравнений (3.61).
ГЛАВА 4 55
УПРАВЛЕНИЕ ТЕХНОЛОГИЧЕСКИМИ ПРОЦЕССАМИ С СОСРЕДОТОЧЕННЫМИ ПАРАМЕТРАМИ 4.1. Введение В отличие от классической теории управления, объектом изучения которой были одномерные (один вход - один выход) системы, описываемые линейными дифференциальными уравнениями с постоянными коэффициентами, так называемая современная теория, так называемая современная теория управления содержит результаты, применяемые для различных классов общих многомерных систем, включая системы, задаваемые: 1. линейными дифференциальными уравнениями с переменными коэффициентами; 2. нелинейными дифференциальными уравнениями; 3. дифференциально-разностными и другими уравнениями с последействием; 4. уравнения с частными производными и интегральными уравнениями. Современная теория управления включает так называемую теорию оптимального управления, с помощью которой можно разрабатывать оптимальные системы, т.е. системы, при функционировании которых минимизируется или максимизируется некоторый выбранный заранее критерий качества. Наряду с методами синтеза управляющих устройств и систем современная теория управления включает методы идентификации и оценивания состояния процессов. Различные алгоритмы идентификации процессов позволяют определять структуру модели объекта управления и восстанавливать параметры этой модели как непосредственно в контуре управления, так и вне его. Эти алгоритмы используются при синтезе не только обыкновенных, но и адаптивных систем управления, приспосабливающихся к таким изменениям характеристик управляемого процесса, которые могут иметь место, например, из-за обрастания поверхности теплообменника или из-за понижения активности катализатора в химическом реакторе. Оценивание состояний - это определение текущих значений таких переменных процесса, которые не могут быть измерены непосредственно или могут быть измерены лишь с большими помехами. Особенно полезны методы оценивания текущего состояния для тех процессов, где недостаточно измерительных устройств или очень велика цена отдельных значений. Для того чтобы лучше представить себе взаимосвязь перечисленных направлений теории управления , рассмотрим следующий пример. На рис.4.1. показана структура современной АСУТП, в состав которой входят: 1) управляемый процесс с вектором управляющих воздействий u, вектором контролируемых возмущений d1 и вектором вспомогательных входных воздействий (позволяющих проводить идентификацию) d 2; 2) измерительная система, позволяющая контролировать некоторые переменные состояния и (или) их комбинации в условиях помех. Вектор измеряемых выходов y поступает на вход 3) системы оценивания состояния, которая по зашумленным наблюдениям и по модели процесса строит наилучшую, в некотором смысле оценку состояния - век-
56
тор x$ . Система оценивания состояния характеризуется вектором параметров P, рассчитываемым предварительно или в темпе с процессом по информации о параметрах модели процесса α, по измерению y и по текущим оценкам состояния x$ . Оценки состояния процесса подаются в 4) управляющее устройство, которое формирует управляющие воздействия u, используя для этого текущие оценки состояния x$ , уставки ud, xd (эти уставки сами могут быть получены в результате оптимизации), и вектор параметров K. Параметры K могут определяться предварительно или настраиваться по оценкам состояния процесса x$ и по вектору параметров модели процесса α. Параметры модели процесса определяются с помощью 5) системы идентификации, которая по результатам обработки измерений y восстанавливает вектор параметров модели процесса α. При этом может оказаться необходимым подавать дополнительно на вход объекта специальным образом сформированные вспомогательные входные воздействия d2. Если параметры не зависят от времени, процедуру идентификации можно выполнить однократно; если же процесс нестационарен, процедуру необходимо периодически повторять, чтобы обеспечить отслеживание изменяющихся условий. На практике в состав системы управления могут входить не все, а только некоторые из перечисленных компонентов.
Идентифицирующие
Возмущающие воздействия
Измерительные шумы
57
входные воздействия
η
d1 d2 x U
Процесс
истинное состояние процесса
управляющие воздействия
Измерительная система
y измеряемые выходы
U
U
x$
Управляющее устройство
оценка состояния процесса
xd,Ud K
Устройство оценивания состояния процесса P
Режимные установки
α
В конце управления Вне контура управления
α
U Система идентификации управляемого процесса
y
Система настройки параметров управляющего устройства
α
x$
x$
Система настройки параметров устройства оценки состояния процесса
y
α
Оптимизация режима процесса
xd,Ud
Параметры модели процесса
Рис.4.1 4.2. Математические модели объектов управления (технологических процессов)
Математические модели объектов управления (ОУ) или технологических про-
58
y
цессов (ТП) можно классифицировать по разным признакам. Одна из возможных классификаций моделей ОУ (ТП) следующая: 1. одномерные - многомерные; 2. во временной области - в частотной области; 3. стационарные - нестационарные; 4. непрерывные - дискретные; 5. статические - динамические; 6. линейные по переменным - нелинейные по переменным; 7. детерминированные - стохастические; 8. с сосредоточенными параметрами - с распределенными параметрами. Схема одномерного ОУ(ТП) приведена на рисунке 4.2 z(t) x(t)
ОУ(ТП)
y(t)
4.2. Здесь x(t) - входной сигнал; y(t) - выходной сигнал; z(t) - возмущающее воздействие, действующее на ОУ(ТП). Схема многомерного ОУ(ТП) приведена на рис. 4.3.
z1(t) x1(t) . . . xn(t)
...........…..
ОУ(ТП)
zl(t) y1(t) . . . ym(t)
Рис.4.3 Введем обозначения x1(t) y1(t) z1(t) . . . X(t) = . ; Y(t) = . ; Z(t) = . . (4.1) . . . xn(t) ym(t) zl(t) Здесь X(t) - вектор входных переменных (входной вектор). Пример входных переменных: свойства сырья (химический состав), размеры, механические свойства, скорость подачи, стоимость). Вектор Y(t) есть вектор выходных переменных. Пример выходных переменных: характеристики полученного продукта или полуфабриката (химический состав, размеры, количество, стоимость). Вектор Z(t) есть вектор
59
возмущающих воздействий, действующих на ОУ(ТП). Пример возмущающих воздействий: параметры, характеризующие условия протекания ТП (температура, давление, скорость подачи, число оборотов, производительность). Модуль ОУ(ТП) называется линейной, если оператор А является линейным т.е. выполняется принцип суперпозиции n
n
A [∑ kixi(t)] = ∑ kiA[xi(t)] i=1
(4.2)
i=1
для любых n, ki и xi(t), i = 1,n; ki = const. Пример оператора А: t
A [x(t)] = dx(t) / dt; A[x(t)] = ∫ x(τ)dτ .
(4.2)
o
В классе линейных стационарных моделей ОУ(ТП) с одной выходной переменной y(t) и одной входной переменной x(t) может быть представлен в виде дифференциального уравнения d i y (t ) = ai ∑ dt i i =0 n
d j x (t ) , n≥m bj ∑ dt j j =0 m
(4.3)
или интегрального уравнения с весовой функцией w(τ): ∞
y(t) = ∫ w(τ)x(t-τ)dτ.
(4.4)
0
Соотношения (4.3), (4.4) есть одномерные модели ОУ(ТП) во временной области. Модели (4.3) соответствует модель ОУ(ТП) в виде передаточной функции. W(S) =
b S m + bm−1 S m−1 +...+b0 Y (S ) = m n X (S ) a n S + a n −1 S n −1 +...+ a 0
(4.5)
Передаточная функция W(S) связанная с весовой функцией w(τ) преобразованием Лапласа ∞
W(S) = ∫ w(τ) e-sτdt
(4.6)
0
или W(S) =L {w(t)}; w(t) =L-1 {W(S)}; Здесь L {...} - преобразование Лапласа в выражения в фигурных скобках; L-1{...}- обратное преобразование Лапласа в выражения в фигурных скобках; Y(S) = L{y(t)}; X(S) = L{x(t)}. Частотная характеристика ОУ(ТП) W(jw) определяется соотношением
60
W(jw) = W(S)
(4.7) S= jw
Соотношения (4.5), (4.7) есть модели ОУ(ТП) в частотной области. Стационарные и нестационарные модели ОУ(ТП) рассмотрим на примере одномерного ОУ(ТП). Нестационарная модель ОУ(ТП) в этом случае имеет вид n
diy(t)
m
djx(t)
= ∑ bj(t) , n ≥ m. (4.8) j=o dti dtj Если ai(t) = ai = const; bj(t) = bj = const, то из (4.8) получим стационарную модель ОУ(ТП). Непрерывная модель ОУ(ТП) в пространстве состояний определяется соотношением X& (t) = F(t)X(t) + C(t)U(t) + G(t)w(t), (4.9) ∑ ai(t) i=o
где X(t) - вектор состояния ОУ(ТП) размерности (n x 1) в момент времени t; U(t) вектор управления ОУ(ТП) размерности (m x 1) в момент времени t; w(t) - вектор случайных возмущений размерности (l x 1) в момент времени t, действующих на ОУ(ТП); F(t), C(t), G(t) матрицы с размерностями (n x n), (n x m), (n x l). Дискретная модель ОУ(ТП) в пространстве состояний имеет вид X[k +1] = φ (k+1,k)X[k] +Ψ(k+1,k) U[k] + Г(k+1,k)w[k],
(4.10)
где X[k] = X(tk); tk = kΔt; U[k] = U(tk); w[k] = w(tk); X[k] - вектор состояния ОУ(ТП) размерности (n x 1) в момент времени tk; U[k] - вектор управления ОУ(ТП) размерности (m x 1) в момент времени tk; w[k] - вектор случайных возмущений размерности (l x 1) в момент времени tk, действующих на ОУ(ТП); Φ(k + 1, k) = Φ(tk + 1, tk) матрица состояния системы размерности (n x n); Ψ(k + 1,k) =Ψ(tk + 1, tk) - матрица управления размерности (n x m); Г(k+1,k) = Г(tk + 1, tk) - матрица возмущения системы размерности (n x l); Δt - интервал дискретности измерений; k = 0,1, ...- дискретное время. Схема статического ОУ(ТП) приведена на рис. 4.4 x1(t) . . um(t)
ОУ(ТП)
y(t)
Рис.4.4 Статическая модель этого ОУ(ТП) имеет вид y(t) = a1u1(t) + a2u2(t) + ... + amum(t),
(4.11)
где y(t) - выходная переменная, u1(t), u2(t),..., um(t) - m входных переменных. Динамическая модель для ОУ(ТП) с одним входом и одним выходом определяется соотношением (4.3).
61
Модель ОУ(ТП), линейная по переменным, может иметь следующий вид x& 1(t) = a11x1(t) + a12x2(t) + b1u1 (t);
(4.12)
x& 2(t) = a21x1(t) + a22x2(t) + b2u2(t). Модель ОУ(ТП), нелинейная по переменным, имеет, например, вид x& 1(t) = a11x1(t) + a12x1(t) x2(t)+ b1u12(t); x& 2(t) = a21x12(t) + a22x2(t) + b2u23(t);
(4.13)
Детерминированная модель ОУ(ТП) может определяться соотношением x& 1(t) = ax(t) + bu(t) + ψf(t),
(4.14)
где u(t) - детерминированное управляющее воздействие; f(t) - детерминированное возмущение, действующее на ОУ(ТП). Например, f(t) = a0 + a1t, где a0 и a1 - постоянные коэффициенты. В уравнении (4.14) a, b, ψ также являются постоянными коэффициентами. Если в (4.14) f(t) - случайная функция времени (см.рис.4.5), f(t)
0
t
Рис4.5 то в этом случае модель ОУ(ТП), описываемая уравнением (4.14), будет стохастической. Модель (4.14) также будет стохастической, если a, b, ψ - случайные величины, а f(t) - случайная функция времени. Модель (4.9) будет детерминированной, если G(t) = 0, и стохастической, если G(t)<>0. Модель ОУ(ТП) с распределенными параметрами описывается, например, уравнением вида
∂X ( z , t ) ∂X ( z , t ) = A1 + A0X(z,t) + BU(z,t), ∂t ∂z X(0,t) = B0U0(t),
(4.15) (4.16)
62
1
y(z,t) = ∫ C(z,r,t)x(r,t)dr,
(4.17)
0
где X(z,t), U(z,t), y(z,t) - векторы; A1,A2,B,B0, C(z,r,t) - матрицы; Z - пространственная координата; t - время. Модель ОУ(ТП) с сосредоточенными параметрами имеет вид x& (t) = Ax(t) + Bu(t) + Dd(t),
(4.18)
y(t) = Cx(t) + V(t),
(4.19)
где A, B, D, C - матрицы; x(t), u(t), d(t), y(t), v(t) - векторы. 4.3.Математическая модель динамики многомерного объекта управления
Для построения современной высокоэффективной системы управления необходимо иметь описание объекта управления в виде математической модели. Для описания объекта управления используются системы линейных обыкновенных дифференциальных уравнений или соответствующие изображения по Лапласу. На рис.4.6 показана система d1(s) . . Gd(s) dk(s)
+ + ⊗ + ⊗ +
u1(s) u2(s) . um(s)
G(s) + ⊗ +
y1(s) y2(s) . yl(s)
Рис.4.6 с k возмущениями, m входами и l выходами, связанными зависимостью y(s) = G(s)U(s) + Dd(S)d(s) (4.20) где d(s), u(s), y(s) - векторы, а Gd(s), G(s) - матрицы соответствующих размерностей
d(s) =
d1(s) . .
;
u(s) =
u1(s) . .
;
y(s) =
y1(s) . .
; (4.21)
63
. dk (s)
. um(s)
. yl(s)
g11d(s)........g1md(s) Gd(s) = .............................. gk1d(s)........gkmd(s)
;
(4.22)
g11(s)........g1m(s) .............................. gl1(s)........glm(s)
;
(4.23)
G(s) =
Эквивалентной вышеприведенной модели линейной системы является модель во временной области x& = Ax(t) + Bu(t) + Dd(t), x(t0) = x0, (4.24) y = cx(t), (4.25) где x - n-мерный вектор состояний; d - k-мерный вектор возмущений; u - m-мерный вектор управлений; y - l-мерный вектор наблюдений, a матрицы А, В, С и D соответствующих размерностей в общем случае могут зависеть от времени:
d=
d1 . . . dk
; x=
x1 . . . xn
A=
a11.............a1n ...................... an1..............ann
C=
c11.............c1n ...................... cl1..............cln
;
;
;
u1 . u= . . um
;
y1 . y = . ; (4.26) . yl
B=
b11..............b1m ........................ bn1..............bnm
;
(4.27)
D=
γ11..............γ1k ........................ γn1..............γnk
.
(4.28)
Выпишем аналитическое решение уравнений (4.24), (4.25). В случае автономной системы(матрицы А, В, С, D не зависят от времени) можно воспользоваться преобразованием Лапласа sIx(s) - x0 = Ax(s) Bu(s) + Dd(s), y(s) = Cx(s),
64
где I - единичная матрица размера (n x n). Разрешая полученные уравнения в преобразованиях Лапласа относительно x(s), найдем x(s) = (sI - A)-1 [x0 + Bu(s) + Dd(s)]. (4.29) Возвращаясь к оригиналам, с помощью теоремы по свертке получим для x(t) выражение t A ( t − t0 ) x(t) = e (4.30) x0 + ∫ eA(t-τ)[Bu(τ) + Dd(τ)]dτ, t0 At где e - экспоненциал матрицы At, определяемой как решение однородного матричного линейного дифференциального уравнения. dx = AX, X(0) = I, (4.31) dτ где X - матрица размерности (n x n). Рассмотрим многомерную систему управления технологическим процессом, показанную на рис.4.7. В частотной области выход определяется управляющими и возмущающими воздействиями согласно выражению y(s) = G(s)u(s) + Gd(s)d(s),
(4.32)
где G(s),Gd(s) - матричные передаточные функции системы по управлению и возмущению. На структурной схеме рис.4.7 показан также многомерный регулятор Gc. Матрица Gc может быть произвольной, однако на практике чаще всего встречается диагональный случай g11(s) 0 . Gс(s) = . ; (4.33) . 0 gll(s) при этом элементы gii(s), соответствующие одноконтурным (одномерным ) регуляторам, как правило, задают пропорционально интегрально - дифференциальный закон (ПИД - закон) в частотной области (4.34) gii(s) = ki + γi 1/S + μiS, i = 1,2,...,l или во временной области t (4.35) ui(t) = kiεi(t) + γi ∫εi(τ)dτ +μi ⋅dεi(t)/dt , t0 где ki, γi, μi - параметры i -го одномерного ПИД - регулятора. Здесь ошибка, или рассогласование, определяется по выражению εi(t) = yi*(t) - yi(t),
(4.36)
где yi*(t) - i-тая компонента l - мерного вектора y*(t); y*(t) - вектор задающих воз-
65
действий. y1
y2
. . . . . . yl
+ ⊗ + ⊗ +
+
+
⊗ + Возмущающие воздействия Gd d1
d2 . . . . . . . dk
Управляемый процесс G u1
u2 . . . . . . . um
Рис.4.7
Регулятор Gc ε1
ε2 . . . . . . .
εl ⊗
⊗ + y1*
⊗ +
+
y 2* . . . . . . . yl*
Таким образом, структурные схемы, подобные рис.4.7, представляют собой замкнутые линейные системы регулирования как во временной, так и в частотной области. Операторное уравнение замкнутой системы получается подстановкой в уравнение разомкнутой системы. y(s) = G(s)Gc(s)ε(s) + Gd(s)d(s) (4.37) выражения для ошибки (4.38) ε(s) = y*(s) - y(s), где ε(s) =[ε1(s) ε2(s)....... εl(s)]T. Подстановка (4.38) в (4.37) дает
66
y(s) = [I + G(s)Gc(s)]-1 ⋅ [G(s)Gc(s)y*(s) + Gd(s)D(s)]
(4.39)
или после упрощения, y(s) = T(s)y*(s) + Td(s)d(s),
(4.40)
где Т(s) и Тd(s) - передаточные функции замкнутой системы по управлению и возмущению соответственно; T(s) = [I + G(s)Gc(s)]-1⋅ G(s)Gc(s);
(4.41)
Td(s) = [I + G(s)Gc(s)]-1⋅ Gd(s).
(4.42)
4.4.Наблюдаемость для линейных систем с сосредоточенными параметрами
Пусть задана система
x& = A(t)x + ξ(t),
(4.43) y = C(t)x + η(t), (4.44) x(0) = x0 + ξ0, (4.45) где x-n - мерный вектор состояния; y-l - мерный вектор выходов системы; ξ(t)-n мерный вектор случайных возмущений, действующих на систему; η(t)-l - мерный вектор помех в канале измерений; ξ0 - случайная составляющая начального состояния x(0) (ошибка определения x(0)), а x0 - детерминированная составляющая начального состояния x(0). Матрица системы - А - размерности (n x n) и С размерности (l x n) - в общем случае зависят от времени. Величины x(t), y(t )являются случайными, характеризующимися некоторыми распределениями вероятностей. Отметим здесь, что уравнение (4.43) является стохастическим дифференциальным уравнением. Рассмотрим свойство наблюдаемости для линейных систем. Неформально некоторая система наблюдаема, если все координаты вектора состояния в некоторый момент t0 можно определить по информации о входе системы u(t) и ее выходе y(t) на конечном интервале времени. Более строгое определение таково: система называется вполне наблюдаемой, если произвольное состояние x(t0) можно определить по информации об управлении u(t) и выходе y(t) на интервале t0 ≤ t ≤ t1. Можно ввести также понятие частичной наблюдаемости, описывающее тот случай, когда удается восстановить только некоторые координаты вектора состояния. Отметим, что наблюдаемость определяется детерминированными характеристиками системы не учитывает свойства случайных процессов ξ(t),η(t) ξ0. Для некоторых классов систем получены конструктивные условия наблюдаемости [6 - 8]. Так, для линейных систем (4.43) - (4.45) с постоянными матрицами А,С можно показать, что для полной наблюдаемости необходимо и достаточно, чтобы ранг (n x nl) - матрицы наблюдаемости L0 был равен n: L0= [СТ АТСТ (АТ)2СТ ....... (АТ)n-1CT].
(4.46)
В самом деле, рассмотрим уравнение (4.43) при нулевом случайном возмуще-
67
нии ξ(t). Решение x(t) записывается в виде x(t) = eAt ⋅ x0 = (c0I + c1tA + ...+ cn-1tn-1An-1)x0.
(4.47)
Соответственно этому для наблюдаемого выхода y(t) получим y(t) = Cx = (c0C + c1tCA + ... + cn-1tn-1CAn-1)x0.
(4.48 )
Для наблюдаемости системы нужно иметь возможность определить x0 по данным о выходе y(t), 0 ≤ t ≤ tf, поскольку, если состояние x0 известно, известна и вся исходящая из него траектория x(t) (4.47). Это в свою очередь приводит к необходимости разрешить уравнение (4.48) относительно x0 (псевдоинверсия). Умножая обе части (4.48) на exp(At)T и интегрируя от 0 до tf, найдем tf x0 = [∫ (c0C + c1tCA + ...+ Cn-1tn-1CAn-1)T x (c0C + c1tCA + ...+ Cn-1tn-1CAn-1)dt]-1 x 0
tf n-1 n-1 T x ∫ (c0C + c1tCA + ...+ Cn-1t CA ) y(t)dt.
(4.49)
0
Потребуем, чтобы была не вырожденна (т.е. имела ранг n) матрица М: tf M = ∫ (c0CT + c1tATCT + ...+ Cn-1tn-1 (AT)n-1CT) x 0
x
(c0C + c1tCA + ...+ Cn-1tn-1CAn-1)dt.
(4.50)
Матрицу М можно представить также в виде tf M= ∫ [СТ АТСТ ....... (АТ)n-1CT] x 0
x
c0I c1tI . . Cn-1tn-1I
x
C CA . . CAn-1
[c0I c1tI ........ Cn-1tn-1I ]
dt
(где I - (l x l) - единичная матрица) или в виде
M= [СТ
tf Т Т Т n-1 T А С ...... . (А ) C ] ∫ Tdt 0
C CA . . CAn-1
.
(4.51)
Блочная матрица Т(nl x nl) в (4.51) состоит из (l x l) диагональных блоков с элементами (ckcjtktj), k, j, = 0,1, ...., n-1. Используя известные положения алгебры, можно доказать следующие утвер-
68
ждения: для того чтобы выполнялось равенство rank M = n, необходимо и достаточно, чтобы rank L0 = n. Обобщая этот результат на случай переменных во времени матриц А,С Калман показал, что система (4.43) - (4.45) будет вполне наблюдаемой в момент tf > t0тогда и только тогда, когда положительно определена матрица tf M(t0,tf) = ∫ Φ(t,t0)TCT(t)C(t)Φ(t,t0)dt . (4.52) t0 Напомним, что Φ(t,t0) - фундаментальная матрица системы, т.е. решение матричного линейного однородного уравнения . Φ(t0,tf) = A(t) Φ(t,t0), Φ(t0,t0) = I. (4.53) Пример 4.1. Система описывается уравнениями вида x& = Fx + Gω (t ) + Cu(t ),⎫ ⎬ z (t ) = Hx (t ) + υ (t ), ⎭
(4.54)
где z1(t)
x1 x=
;
z(t) =
υ(t) =
;
0
1
0
0
F=
0 ;
; υ2(t)
z2(t)
x2
υ1(t)
0
G=
;
C=
;
1
1
0
0
1
H=
в
.
Проверим систему (4.54) на наблюдаемость. Имеем T
1
0
0
1
H =
;
T
T
0
0
1
0
F H =
.
Тогда ранг [HT
⎡1 0 0 0⎤ FTHT] = ранг ⎢ ⎥= 2 ⎣0 1 1 0⎦
и поэтому система полностью наблюдаема. Если H =[0 1], то, ⎡0⎤ HT = ⎢ ⎥ ; ⎣1 ⎦
⎡0⎤ FTHT = ⎢ ⎥ ⎣0⎦
и ⎡0 0 ⎤ ранг [HT FTHT] = ранг ⎢ ⎥ = 1. ⎣1 0⎦
69
В этом случае система не наблюдаема. 4.5. Управляемость для линейных систем с сосредоточенными параметрами
Весьма существенным при анализе систем управления является понятие управляемости [6, 9]. Неформально система управляема, если найдется такое управление u(t), которое обеспечивает ее перевод из произвольного начального состояния x0 в произвольное же состояние xd за конечное время. Более строго определение управляемости может быть сформулировано следующим образом. Система называется полностью управляемой, если из любого начального состояния x0(t0) она может быть переведена в любое наперед заданное состояние xd(t) с помощью некоторого управления u(t) за конечное время t - t0 ≥ 0. Возможен случай частично управляемой системы, т.е. системы, имеющей подмножества начальных состояний из которых достижение произвольного желаемого состояния за конечное время невозможно. Из этого определения для конкретных классов систем можно получить конструктивные условия управляемости. Так, в случае постоянных матриц A и B система (4.24) - (4.25) будет полностью управляема тогда и только тогда, когда ранг (n x nm) матрицы управляемости Lc равен n, где Lc = [B AB A2B ..... An-1B] . (4.55) Вывод этого условия может быть проделан с использованием аналитического выражения для решения системы (4.24) - (4.25) при D = 0: At
t
x(t) = e x0 + ∫ eA(t-s)Bu(s)ds,
(4.56)
0
где eAt может быть записано в виде eAt = I + At +
1 22 A t + .......... 2
(4.57)
Согласно теореме Гамильтона-Кэли, eAt выражается в виде конечного ряда, или матричного полинома, eAt = c0I + c1At + c2(At)2 + .......+ cn-1(At)n-1.
(4.58)
Подставив (4.58) в (4.56), получим t
At
x(t) = e x0 +
∫
[c0B + c1(t - s)AB + ....+ cn-1(t - s)n-1An-1B]u(s)ds, (4.59)
0
или c0u(s) t c1(t-s)u(s) At n-1 x(t) = e x0 + ∫ [B AB ..... A B] ⋅
ds.
(4.60)
70
⋅ cn-1(t - s)n-1u(s)
0
Поскольку управляемость означает, что управление u влияет на все состояния x посредством интегрального члена в (4.60), ясно, что система будет управляемой тогда и только тогда, когда подынтегральное выражение в (4.60) обеспечивает такое влияние, т.е. когда ранг матрицы [B AB ..... An-1B] равен n. Условие управляемости не по состояниям, а по выходам можно получить, умножив обе части уравнения (4.59) на С: t
At
y(t) = Cx = Ce x0 +
∫
[c0CB + c1(t-s)CAB + ... + cn-1(t - s)n-1CAn-1B]u(s) ds. (4.61)
0
Управляемость по выходам будет обеспечиваться в том случае, когда управление u(t) будет влиять на все l выходов y(t), т.е. выход y будет полностью управляемым тогда и только тогда, когда равен l ранг соответствующей матрицы управляемости Lc0 Lc0 = [ CB CAB ..... CAn-1B]. (4.62) Условие управляемости для случая линейной нестационарной системы в форме (4.24) с известными матричными функциями времени A(t), B(t) состоит в том, что (n x n) - матрица M(t0,tf) невырожденная, т.е. det M(t0,tf) ≠ 0, где
tf M(t0,tf) =∫ Φ(t,t0)-1B(t)BT(t)[ Φ(t,t0)T]-1dt. (4.63) t0 здесь detA - определитель матрицы А. Напомним, Φ(t,t0) - фундаментальная матрица системы, т.е. решение уравнения (4.53). Пример 4.2. Система описывается уравнениями вида
x& = Fx + Cu(t ),
⎫ ⎬ z (t ) = Hx (t ) + υ (t ),⎭
(4.64)
где x1 x = x2 x3
z1(t) ;
z(t) =
;
υ(t) =
υ1(t) ;
υ2(t)
z2(t)
⎡0⎤ ⎡0 1 0 ⎤ ⎡1 0 0⎤ ⎥ ⎢ ⎥ ⎢ F = ⎢0 f1 f 2 ⎥ ; C = ⎢0⎥ ; H= ⎢ . 0 0 1 ⎥⎦ ⎣ ⎢⎣c ⎥⎦ ⎢⎣ 0 f 3 f 4 ⎥⎦ Проверим систему (4.64) на управляемость. Имеем L0c = [C FC F2C] =
0 0 c
0 f2c f4c
f2c (f1f2 + f3f4)c . (f2f3 + f42)c
71
Матрица L0c имеет ранг , равный трем, если f2c = 0. Следовательно, при fcс = 0 система полностью управляема. 4.6.Нормализуемость для линейных систем с сосредоточенными параметрами
Наиболее сильная форма управляемости называется нормализуемостью. Говорят, что система является нормализуемой, если каждая координата вектора управления u(t) в отдельности обеспечивает управляемость. Необходимое и достаточное условие этого состоит в том, что матрица нормализуемости Lci не вырождена: rank Lci = rank[bi Abi ...... An-1bi] = n
(4.65)
для всех i = 1,2,....,m, где bi, i = 1,2,....,m - столбцы матрицы B. Заметим, что для скалярных управлений u(t) управляемость и нормализуемость совпадают. 4.7. Автономное регулирование
При синтезе многомерных систем регулирования значительные затруднения связаны с наличием статических и динамических перекрестных связей между различными входами и выходами системы. Если такие связи отсутствуют, а число управляющих воздействий равно числу наблюдаемых координат, то матричная передаточная функция разомкнутой системы будет диагональной: g11(s) 0 . G(s) = C(sI - A)-1B = . . (4.66) . 0 gll(s) Если диагональна также и матрица Gс(s) многомерного регулятора, то такой же (т.е. диагональной) будет матричная передаточная функция замкнутой системы, связывающая задание y* с выходом y, при этом каждый отдельный контур регулирования может настраиваться независимо от остальных с использование обычных методов классической теории управления. К сожалению, для большинства многомерных задач регулирования характерна многосвязность по входам и выходам. Качество многомерных систем регулирования можно значительно повысить, если применить различные методы компенсации (или развязывания) перекрестных связей. Среди большого числа способов компенсации перекрестных связей одним из наиболее известных, классических, является метод синтеза автономной системы. Рассмотрим понятие автономности на следующем примере. Пусть требуется управлять выходами процесса y(t) с помощью регулирующих воздействий u(t). Система управления в состав в которой входит ряд отдельных контуров регулирования и компенсатор перекрестных связей, показана на рис.4.8. d Возмущающие воздействия Gd
72
ε
+ y*
⊗
z Регулятор
Gc
u Компенсатор G1
+
⊗
Управляемый процесс G
-
y(t)
+ Рис.4.8
Одномерные регуляторы определяют диагональную структуру передаточной матрицы Gc: g11c 0 . Gc = . . (4.67) . 0 gllc Передаточная матрица замкнутой системы с учетом передаточной матрицы компенсатора GI (Рис.4.8) будет задаваться выражением y = (I + GGIGc)-1 (GGIGc y* + Gdd )
(4.68)
или y = Ty* + Tdd .
(4.69)
Компенсатор GI предназначен для ослабления влияния перекрестных связей. В идеальном случае он должен обеспечивать диагональность T в каждый момент времени. T = (I + GGIGc)-1 GGIGc (4.70) или приближение T к I при t → ∞( s → 0) при некотором выборе настроек параметров регуляторов. Очевидно, что автономность в этом смысле рассматривается только для случая квадратных матриц G, GI, Gc. Поскольку матрица Gc диагональна, необходимым условием диагональности T и предельного соотношения T(0) → I при возрастании коэффициентов усиления будет выполнение следующего соотношения: GGI = diag G(s) или GI = G-1 diag G(s), (4.71) где diag G - диагональная матрица, получаемая из G обнулением всех недиагональных элементов. Если при этом компенсация будет полной, то передаточная матрица замкнутой системы примет вид y(s) = (I + GG-1 diagGGс)-1 (GG-1 diagGGcy* + Gdd),
или yi ( s) =
g iic ( s ) g ii ( s ) 1 + g iic ( s ) g ii ( s )
y i* ( s ) +
k 1 g ijd ( s )d j ( s ), i=1,2,...,l . ∑ 1 + g iic ( s ) g ii ( s ) j =1
(4.72)
Следует отметить, что в этом случае достигается полная автономность по задающим воздействиям, и, несмотря на то, что каждое возмущение может влиять на все выходы, эффект возмущения на любой из выходов может быть скомпенсирован
73
отдельным одномерным регулятором giic(s). Иногда бывают случаи, когда осуществить полную динамическую компенсацию слишком сложно или даже невозможно [см.4.71]. Напротив автономность в статике всегда может быть обеспечена таким выбором компенсатора GIss, при котором lim T(s) - диагональная матрица (ss - индекс устанавливающегося состояния): s→0
GIss
=
lim GI(s) s→0
=
lim (G-1(s)diagG(s))
=
Gss-1diagGss.
s→0
(4.73) Соответствующая передаточная матрица замкнутой системы определяется выражением y = (I + GGss-1 diagGssGc)-1 (GGss-1 diagGssGcy* + Gdd). (4.74) При этом оказываются скомпенсированными все перекрестные связи в установившемся состоянии, так что, изменяя коэффициенты усиления отдельных регуляторов, можно повысить качество системы. Однако даже в этой благоприятной ситуации в переходном процессе возможен период заметного влияния динамических связей, вследствие чего отдельные регуляторы могут действовать на объект в противоположных направлениях. По этой же причине, особенно если настройки регуляторов выбраны слишком жесткими, нежелательны большие значения интегральных составляющих ПИД-законов. Пример 4.3. Рассмотрим дистилляционную колонну как систему, которой нужно управлять. Имеем математическую модель колонны вида y(s) = Gu(s), 0,7 1 + 9s
0
0
2,0 1 + 8s 2,3 1 + 10s
0,4 0 . (4.75) 1 + 6s 2,1 2,3 1 + 7s 1 + 8s Система регулирования состоит из отдельных ПИ-регуляторов. Передаточная матрица Gс(s) имеет вид G(s) =
⎡ g11 ( s) ⎢ с Gс(s) = ⎢ 0 ⎢ 0 ⎣
0 g 22 c ( s) 0
0 ⎤ ⎥ 0 ⎥. g 33 c ( s) ⎥⎦
Рассмотрим для дистилляционной колонны задачу синтеза статической автономной системы регулирования. Статическая задача решается выбором передаточной матрицы GIss в виде GIss = Gss-1 diagGss, где G(s) определяется соотношением (4.75). Имеем
74
⎡ 0,7 0 0⎤ ⎥ ⎢ Gss = ⎢ 2,0 0,4 0 ⎥ ; ⎢⎣ 2,3 2,3 2,1⎥⎦
⎡ 0,7 0 0⎤ ⎥ ⎢ diagGss = ⎢ 0 0,4 0 ⎥ , ⎢⎣ 0 0 2,1⎥⎦
(4.76)
Откуда получаем
GIss
⎡ 0,7 0 0 0⎤ 0⎤ ⎡ 1 ⎥ ⎥ ⎢ ⎢ 1 0⎥ . ⎢ 0 0,4 0 ⎥ = ⎢ − 7,14 ⎢⎣ 0 0 2,1⎥⎦ ⎢⎣ 6,26 − 2,74 1⎥⎦
⎡ 1,43 0 0 ⎤ ⎥ ⎢ = ⎢ − 7,14 2,50 0 ⎥ ⎢⎣ 6,26 − 2,74 0,48⎥⎦
Автономная система регулирования, не учитывающая влияния возмущений, показана на рис.4.9 y1*
⊗
ε1
z1
+ ⊗
gI 1
g11 c
u1
y1
Дистилy2*
⊗
ε2
z2
+ ⊗
gI 2
g 22 c
u2
y2 ляционная
+ колонна ε3
y3* ⊗ +
z3 gI 3
g 33 c
+ + ⊗
-
u3
G(s)
y3
+
Рис.4.9 Статическая автономность достигается за счет выбора коэффициентов усиления компенсатора в виде ⎡ 1,00 ⎤ ⎥ ⎢ g I 1 = ⎢ − 7,14⎥ ; ⎢⎣ 6,26 ⎥⎦
gI
2
⎡ 0 ⎤ ⎥ ⎢ = ⎢ 1,0 ⎥ ; ⎢⎣ − 2,74⎥⎦
⎡0⎤ ⎢ ⎥ gI 3 = ⎢ 0 ⎥ . ⎢⎣1,0⎥⎦
(4.77)
Такие коэффициенты обеспечивают использование u1 только для регулирования y1, u2 - для регулирования y1, y2 и u3 - для регулирования всех трех выходных переменных. 4.8. Модальное управление
75
Еще один подход к синтезу многомерных систем регулирования дает теория модального управления. Эта теория существенным образом основывается на линейности рассматриваемых моделей; с ее помощью можно устанавливать желаемые значения собственных чисел замкнутой системы. Разберем основные положения модального управления на примере стандартной линейной системы в пространстве состояний
х& = Ax + Bu + Гd,
(4.78) (4.79)
y = Cx.
Будем предполагать, что в уравнениях (4.78), (4.79) размерности векторов управления и выхода совпадают и равны размерности пространства состояний, что A, B, C - постоянные матрицы и что все собственные числа матрицы А действительны и различны. Эти предположения не являются ограничивающими, они служат лишь для упрощения последующих выводов. Будем строить управление в виде пропорциональной обратной связи по выходам u(t) = -Gcy = -GcCx. (4.80) Напомним теперь определение собственных чисел и собственных векторов. если Λ - диагональная матрица собственных чисел квадратной матрицы А: λ1 ⋅ Λ =
0
⋅ 0
(4.81)
,
⋅ λn
то справедливы следующие соотношения: RΛ = AR,
(4.82)
ΛL = LA,
(4.83)
где R и L - матрицы нормированных собственных векторов (левых и правых) матрицы A, т.е. R и L определяются как решение векторных уравнений: Ari = λiri, i = 1,2,...,n,
(4.84)
liTA = λili, i = 1,2,...,n,
(4.85)
а собственные числа λi являются решениями характеристического уравнения ⎢ A -λiI ⎜ = 0 , i = 1,2,...,n.
(4.86)
Все векторы li и ri нормируются так, чтобы они были ортонормальны: liT rj = δij ,
riT lj = δij,
⎧1, δij = ⎨ ⎩0,
i= j i≠ j
(4.87)
76
или же в матричной форме: LR = RL = I,
(4.88)
где L = [l1 ...... ln]T.
R = [r1 ...... rn] ,
(4.89)
Умножая (4.82) слева на L, а (4.83) - на R и используя (4.88), получим следующие выражения: Λ = LAR,
(4.90)
RΛL = A.
(4.91)
Подставляя (4.80) и (4.91) в (4.78), найдем
x& = (RΛL - BGcC)x.
(4.92)
При получении соотношения (4.92) предполагалось, что d = 0. Если теперь взять матрицу Gc так, чтобы выполнялось равенство Gc = B-1RK,
(4.93)
где диагональная матрица K представляет собой матричный коэффициент усиления в цепи обратной связи k1
0
⋅
K=
,
(4.94)
kn
0
а матрицу наблюдения С равной L, то получим уравнение (4.92) в преобразованном виде
Сделав замену переменных
x& = R(Λ - K)Lx. y = Lx,
(4.95) (4.96)
Получим уравнение относительно y
y& = (Λ - K) y.
(4.97)
Поскольку (Λ - K) - диагональная матрица, система (4.97) разлагается на независимые уравнения первого порядка, решениями которых являются функции
77
yi = αi e (λi-ki) t, i = 1,2,...,l.
(4.98)
Возвращаясь к прежним переменным, получим решение в пространстве состояний n
x=
∑
αiri e (λi-ki) t.
(4.99)
i=1
Здесь коэффициенты αi определяются начальными условиями. Изменяя ki, можно как угодно менять собственные числа замкнутой системы, при этом между разными выходами yi нет взаимосвязей, т.е. изменение коэффициента усиления ki влияет только на i-моду. Это означает , что имеется возможность управлять модами замкнутой системы, причем перекрестные связи между координатами состояния не сказываются на выходе. В качестве недостатков представленной методики следует отметить, что используются только пропорциональные регуляторы, матрица С должна совпадать с L и, как показывает практика, трудна настройка системы. Блок-схема системы приведена на рис.4.10. y*=0 ⊗ + y
ε
Пропорциональный регулятор
К
Модельный компенсатор
-1
u
B R
Управляемый процесс
x
x& = Ax + Bu
Измерительная
y
система С
Рис.4.10 Если размерность вектора управления m меньше размерности вектора состояния n, то модальное управление может быть применено к первым m собственным векторам матрицы A. 4.9. Аналитическое конструирование (синтез) регуляторов непрерывных стационарных систем
Рассмотрим объект управления, возмущенное движение которого описывается в первом приближении уравнением
x& = Ax + Bu; x(t0) = x(0); t0 = 0,
(4.100)
где A и B - заданные матрицы чисел размерности (n x n) и (n x m) соответственно. Требуется найти матрицу чисел CT размерности (m x n) уравнение регулятора u = CTx
(4.101)
такую, чтобы минимизировался функционал
78
∞
J=
∫
(xTQx + UTu)dt,
(4.102)
0
где Q - заданная положительно-определенная матрица размерности (n x n) (xTQx > 0 для всех х, это обозначается далее Q > 0). Матрицу CT закона управления (4.101) иногда называют матрицей коэффициентов усиления регулятора. Уравнения аналитического конструирования регуляторов имеют вид [11] PA + ATP - PBBTP + Q = 0; C = -PB,
(4.103) (4.104)
где P - симметричная матрица чисел размерности (n x n). Матричное уравнение (4.103) имеет два названия: первое - матричное алгебраическое уравнение Риккати, второе - уравнение Лурье. Таким образом, процедура аналитического конструирования регуляторов (процедура АКоР) состоит из трех операций: 1) решение системы нелинейных алгебраических уравнений (4.103); 2) выделение из всего множества этих решений матрицы P0 > 0 ( нахождение P0 осуществляется с использованием численного метода); 3) вычисление искомой матрицы коэффициентов усиления регулятора по формуле C = -P0B.
(4.105)
4.10. Аналитическое конструирование регуляторов непрерывных нестационарных систем
Рассмотрим полностью управляемый нестационарный объект, описываемый уравнением x& = A(t)x + B(t)u, x(t0) = x(0), (4.106) в которм A(t) и B(t) известные на интервале [t0, t1] матрицы функций. Пусть критерий качества имеет вид ∞
J=
∫
(xTQ(t)x + uTu)dt + xT(t1)P(1)x(t1),
(4.107)
0
где Q(t) и P(1) - заданные положительно-определенные матрицы функций и чисел соответственно. Требуется найти матрицу CT(t) регулятора u = CT(t)x,
(4.108)
при которой минимизируется функционал (4.107). В рассматриваемом случае уравнения аналитического конструирования регуляторов имеют вид C(t) = -P(t)B(t);
− P& (t)=P(t)A(t) + AT(t)P(t) - P(t)B(t)BT(t) + Q(t);
(4.109) (4.110)
79
P(t1) = P(1).
(4.111)
Уравнение (4.110) называется матричным дифференциальным уравнением Риккати. Переходя к решению уравнения (4.110), введем «новое время» τ = t1 - t и обозначим P(t) = P(t1 - τ) = P (τ). Тогда (4.110) и (4.111) примут вид d P (τ)/dτ = P (τ) A(t1 - τ) + AT(t1 - τ) P (τ) P (τ) B(t1 - τ) BT(t1 - τ) P (τ) + Q(t1 - τ); P(0) = P(1).
(4.112) (4.113)
Таким образом, краевая задача для уравнения (4.110) свелась путем ведения нового (обратного) времени к задаче решения уравнения (4.112) с известным начальным условием (4.113). Для его численного решения можно использовать любой из известных методов интегрирования обыкновенных дифференциальных уравнений (метод Рунге-Кутта, Эйлера и т.п.) Решив уравнение (4.112), найдем искомую матрицу C(t) = - P (t1 - t)B(t). 4.11. Оптимальное управление при случайных внешних возмущениях и измеряемом векторе состояний
Рассмотрим нестационарный объект управления
x& = A(t)x + B(t)u + ψ(t)f, x(t0) = x(0),
(4.114)
где f(t)-k - мерный вектор внешних возмущений, являющийся гауссовским случайным процессом типа «белый шум». Здесь и далее будем полагать, что математическое ожидание (4.115) M{f(t)} = 0. Корреляционная матрица этого процесса Rf(t’,t’’) = M{f(t’)fT(t’’)} = R(1)(t)δ(t’ - t’’),
(4.116)
где R(1)(t) - положительно-определенная размерности (k x k), характеризующая интенсивность «белого шума» в момент времени t’. Здесь ⎧ ∞ , t ' = t '', (4.117) δ(t’ - t’’) = ⎨ ⎩ 0, t ' ≠ t ' '. Пусть начальное состояние x(0) также является гауссовским случайным вектором, не зависящим от внешних возмущений и имеющим при M{x(0)}=0 корреляционную матрицу (4.118) M{x(0)(x(0))T}= R(0). Рассмотрим критерий
80
⎧⎪ t1 ⎫⎪ J = M ⎨ ∫ [(xTQ(t)x + uТu]dt + xT(t1)P(1)x(t1) ⎬ , (4.119) ⎪⎩ t0 ⎪⎭ где Q(t) - положительно-определенная матрица. Требуется найти управление u(t) как функцию текущей и прошлой информации об x(t), при котором (4.119 ) принимает наименьшее значение. Так как текущая информация об x(t) носит случайный характер, то и формулируемое на ее основе оптимальное уравнение будет случайным (стохастическим) управлением. Неожиданным оказывается тот факт, что наличие «белого шума» в уравнении (4.114) не изменяет оптимального управления, которое было получено ранее (в разд. 4.10) при отсутствии внешних возмущений. Изменяется лишь значение минимума критерия. Сформулируем этот результат. Оптимальное стохастическое управление для объекта Утверждение 4.1. (4.114), при котором функционал (4.119) принимает наименьшее значение, имеет вид u = CT(t)x,
(4.120)
C(t) = -P(t)B(t);
(4.121)
где P(t) - решение матричного уравнения Риккати
− P& (t)=P(t)A(t) + AT(t)P(t) - P(t)B(t)BT(t)P(t) + Q(t) при краевом условии
P(t1) = P(1).
(4.122) (4.123)
Значение функционала (4.119) при управлении (4.120) определяется выражение t1
tr{P(t0)R(0) +
∫
ψ(t)R(1)(t)ψT(t)P(t)dt}.
(4.124)
t0
В этом выражении запись trA означает след квадратной матрицы A. По определению n
trA =
∑a i =1
где
a
ii
ii
,
( i = 1, n ) - диагональные элементы матрицы A.
Рассмотрим теперь стационарный случай, когда матрицы, входящие в уравнение объекта (4.114), и функционал (4.119) постоянны, а интенсивность стационарного «белого шума» характеризуется матрицей R(1). Наименьшее значение функционала оптимизации имеет вид t1
minJ = tr{P(t0)R(0) +
∫
ψR(1)ψTP(t)dt}.
(4.125)
t0
Во многих практических случаях время функционирования системы велико. Тогда полагают в функционале оптимизации t1 → ∞ и значение функционала
81
minJ = trP0R(0) + (t1 - t0)trψR(1)ψTP0,
(4.126)
где P0 - установившееся решение матричного уравнения Риккати (4.122). Очевидно, что при t1 → ∞ число minJ →∞. Причина этой ситуации является неограниченная энергия случайного процесса типа «белый шум», поэтому при t1 → ∞ вместо функционала (4.125) принимают функционал ⎧⎪ t1 1 J = lim M ⎨∫ t1 →∞ t − t ⎪⎩t0 1 0
(x
T
T
Q (t ) x + u
u) dt + x
T
(t1 )
(1)
P x (t ) 1
⎫ ⎬. ⎭
(4.127)
Для стационарных систем этот функционал можно записать как ⎧⎪ t1 1 J = lim M ⎨∫ t1 →∞ t − t ⎪⎩t0 1 0
(x
T
T
Q (t ) x + u
u) dt
⎫ ⎬. ⎭
(4.128)
4.12.Синтез стохастических систем при неполной информации о векторе переменных состояния. Оптимальное наблюдение (оптимальная фильтрация)
Пусть не все переменные состояния объекта (4.114) доступны непосредственному измерению и пусть, кроме того, измерение осуществляются с помехами. Тогда объект управлениями описывается уравнениями x& = A(t)x + B(t)u + ψ(t)f, x(t0) = x(0), (4.129) y=D(t)x + v(t), (4.130) где как и ранее, f(t) - k - мерный вектор внешних возмущений, являющийся гауссовским случайным процессом типа «белый шум» с нулевым математическим ожиданием и заданной корреляционной матрицей R(1)(t); A(t), B(t), ψ(t) - заданные матрицы; y(t) - r-мерный вектор измеряемых переменных; v(t) - это r-мерный вектор помех (шумов), также являющийся случайным процессом типа «белый шум» с нулевым математическим ожиданием и корреляционной матрицей R(2)(t’,t’’) = M{ v(t’)vT(t’’)}= R(2)(t)δ(t’-t’’),
(4.131)
где R(2)(t) - заданная положительно-определенная матрица размеров (r x r). Далее предполагается, что внешние возмущения и помехи возмущений независимы (не коррелированны). Наконец, обозначим M{x(t0)} =
x
( 0)
;
M{[ x(t0)- x
( 0)
] [x(t0)- x
( 0) T
] } =
R
( 0)
;
(4.132)
и будем полагать, что начальные условия не зависят от возмущений и помех, а
82
( 0)
( 0)
вектор x и матрица R размерности (n x n) известны. Требуется найти управление u, зависящее от измеряемого вектора y, такое, чтобы критерий
⎧⎪t1 J = M ⎨∫ ⎪⎩t 0 где
Q (t ) ,
P
(x
(1)
T
T
Q (t ) x + u
u) dt + x
T
(t1 )
(1)
P x (t ) 1
⎫ ⎬ , ⎭
(4.133)
- заданные положительно-определенные матрицы, принимая наи-
меньшее значение. Регулятор, формирующий искомое управление, состоит из двух частей: устройства, реализующего оптимальный закон (4.120), в котором вместо неизвестного вектора переменных состояний x подставляется его оценка x$ , вырабатываемая во втором устройстве - наблюдателе. Наблюдатель описывается уравнением
x&$
= A(t) x$ + K(t)[Y - D(t) x$ ]+ B(t)u,
(4.134)
в котором матрица K(t) определяется из условия минимума функционала J = M{eTΛ(t)e}.
(4.135)
Здесь Λ(t) - заданная положительно-определенная матрица; e = x - x$ - ошибка наблюдения (фильтрации). При таком определении матрицы K(t) уравнение (4.134) описывает оптимальный наблюдатель (оптимальный фильтр Калмана-Бьюси). Утверждение 4.2. Матрица K(t) уравнения наблюдателя (4.134), при которой (4.135) достигает минимального значения, определяется выражением K(t) = Pe(t)DT(t)(R(2)(t))-1 ,
(4.136)
где Pe(t) - матрица размерности (n x n), являющаяся решением уравнения Риккати
P&
e
(t) = A(t)Pe(t) + Pe(t)AT(t) - Pe(t)DT(t) (R(2)(t))-1 D(t)Pe(t) + + ψ(t)R(1)ψT(t),
t ≥ t0
(4.137)
с начальным условием Pe(t0) = R(0).
(4.138)
Начальное условие для наблюдателя (4.134) должно быть выбрано в виде
x$ (t 0
)= x
( 0)
.
(4.139)
Наблюдатель (4.134), у которого матрица K(t) и начальные условия определяются соотношениями (4.136) - (4.139), часто называют фильтром КалманаБьюси по имени авторов этих соотношений.
83
В стационарном случае уравнения (4.129), (4.130) принимают вид
x& = Ax + Bu + ψf,
y=Dx + v,
(4.140)
где случайные процессы f(t), v(t), типа «белый шум» характеризуются постоянными корреляционными матрицами R(1) и R(2). Матрица K оптимального наблюдателя
x&$ = A x$ + К[y - D x$ ] + Bu
(4.141)
определяется как K = PeDT(R(2))-1,
(4.142)
где Pe - матрица чисел размерности (n x n) есть решение алгебраического уравнения APe + PeAT - PeDT(R(2))-1DPe + ψR(1)ψT = 0,
(4.143)
которое находится как установившееся решение дифференциального уравнения (4.137) (в котором A(t) = A, D(t) = D, R(1)(t) = R(1), R(2)(t) = R(2)) при t→∞. Такой наблюдатель является оптимальным в смысле функционала J = lim M{eT(t)Λe(t)}. t →∞
(4.144)
Отметим, что, как и в нестационарном случае, матрица K не зависит от выбора матрицы Λ функционала оптимизации. Возвращаясь к задаче оптимального стохастического управления при неполной информации о векторе переменных состояния, отметим, что ее решение является комбинацией решения задачи оптимального стохастического управления при полной информации о векторе переменных состояния и решения задачи оптимального наблюдения. Сформулируем этот результат в виде теоремы. (теорема разделения). Оптимальное в смысле функционала Теорема 4.1. (4.133) стохастическое управление объектом (4.129), (4.130) имеет вид U = CT(t) x$ ( t ) ,
(4.145)
где CT(t) - матрица коэффициентов усиления, определяемая соотношениями (4.121) - (4.123), которые получены для оптимального в смысле функционала (4.133) стохастического управления при полностью измеряемом векторе состояния объекта (4.129); вектор x$( t ) - это n-мерный вектор переменных состояния оптимального в смысле функционала (4.135) наблюдателя (4.134), матрица K(t) коэффициентов усиления которого определяется выражениями (4.136),(4.137).
84
ГЛАВА 5 ИДЕНТИФИКАЦИЯ ТЕХНОЛОГИЧЕСКИХ ПРОЦЕССОВ В АСУТП 5.1. Введение Эффективное управление технологических процессов с использованием методов теории автоматического управления (ТАУ) возможно лишь тогда, когда известно математическое описание этого процесса. Поэтому построение математического описания - идентификация технологического процесса - это важнейший этап создания любой автоматизированной или автоматической системы управления технологическим процессом. Выбор характера математического описания, т.е. вида модели, зависят от природы самого процесса и от решаемой задачи управления. Так, модель процесса можно задать в виде таблицы, связывающей входные и выходные переменные, описать функциональными зависимостями, дифференциальными уравнениями, передаточными функциями и т.п. В каждом случае методы получения математического описания оказываются различными. Однако различие методов идентификации этим не исчерпывается.
85
Методы идентификации технологических процессов различаются, кроме того, в зависимости от наличия той или иной априорной информации о процессе, а также делятся на активные и пассивные. Активные методы идентификации основаны на проведении специальных заранее спланированных экспериментов, позволяющих проводить целенаправленное изучение исследуемых свойств процесса. Пассивные методы предполагают изучение технологического процесса в режиме нормальной работы. При этом увеличивается время, необходимое для сбора экспериментальных данных, достаточных для построения адекватной модели процесса, однако снижаются затраты на проведение эксперимента. Кроме того, при использовании пассивных методов оказывается возможным использовать архивный материал. Как показывает опыт, пассивные методы идентификации технологических процессов на действующих производствах с экономической точки зрения более предпочтительны. Для управления технологическим процессом необходимо знать, как влияет то или иное входное воздействие, управляющее процессом, на выходную переменную, характеризующую его протекание. Поэтому идентификация процесса сводится к построению математического описания зависимости между этими величинами, которое состоит из двух этапов. Первоначально необходимо определить характер искомой зависимости и вид ее математического описания, а затем найти конкретные значения параметров такого описания. Первый этап обычно называется структурной идентификацией, а второй параметрической. Исходными данными для построения математической модели технологического процесса могут служить как теоретические представления о природе физических явлений, происходящих при протекании этого процесса, так и экспериментально измеряемые зависимости между входными и выходными переменными. В принципе каждый из этих подходов может использоваться для идентификации процесса. Однако использование только теоретического подхода осложнено тем, что на практике, как правило, оказывается невозможным учесть все многообразие реально действующих на процесс факторов. В то же время идентификация процесса только на основании экспериментальных данных оказывается весьма сложной с вычислительной точки зрения. Поэтому при идентификации технологических процессов целесообразно комплексное использование всей имеющейся информации о процессе, причем теоретические представления следует относить к структурной идентификации. При этом оцениваются динамические свойства процесса, его линейность, стационарность и др., на которых основывается выбор вида математического описания. Экспериментальные данные используются для параметрической идентификации. При разработке систем управления технологическими процессами в основном приходится рассматривать задачи параметрической идентификации. Поэтому изложим лишь ряд методов параметрической идентификации, наиболее пригодных для построения модели технологических процессов на действующих производствах.
5.2. Статистическая идентификация динамического объекта в частной области Рассмотрим схему на рис.5.1.
86
X(t)
Y(t) W(jω)
Sx(ω)
Sy(ω)
Рис.5.1 Здесь W(jω) - частотная характеристика динамического объекта; X(t) - случайный стационарный сигнал на входе объекта; Y(t) - случайный стационарный сигнал на выходе объекта; Sx(ω), Sy(ω) - двухстороннее спектральные плотности сигналов X(t) и Y(t). Сигналы X(t), Y(t) имеют нулевое математическое ожидание. Первый способ решения задачи статистической идентификации динамического объекта заключается в следующем. Известны вероятностные характеристики случайных процессов X(t), Y(t), например их спектральные плотности Sx(ω), Sy(ω). Требуется определить частотную характеристику W(jω), передаточную функцию W(s) динамического объекта. Кроме того требуется определить дифференциальные уравнения, описывающие работу динамического объекта. Известно, что спектральные плотности Sx(ω), Sy(ω) связаны соотношением Sy(ω) = ⏐W(jω)⏐2 ⋅ Sx(ω), где ⏐W(jω)⏐2 - квадрат модуля частотной характеристики. Из соотношения (5.1) имеем S y (ω ) , ⏐W(jω)⏐2 = S x (ω )
(5.1)
(5.2)
где
⏐W(jω)⏐2 = W(jω) ⋅ W(-jω). Из соотношений (5.2), (5.3) получим W(jω) ⋅ W(-jω) =
S S
y
(ω )
x
(ω )
.
(5.3)
(5.4)
С использованием формулы (5.4) определяется W(jω). Передаточная функция W(s) определяется соотношением W(s) = W(jω)
jω = s
Введем оператор дифференцирования P ≡
W(P) =
Y (t ) X (t )
.
(5.5)
d . Заменяя S на P получим dt (5.6)
или Y (t ) = W ( P ) X (t ) .
(5.7)
87
Из соотношений (5.6) или (5.7) определяем дифференциальное уравнение, описывающее динамический объект. Пример5.1. Дано 1 ; 2π
Sx(ω) =
Sy(ω) =
2 δ x2 α
π
⋅
α
2
1 + ω
2
.
Определить: 1) W(jω) = ? 2) W(s) = ? 3) Определить дифференциальное уравнение, описывающее динамический объект. Решение. Из (5.4) имеем 4 δ x2 α W(jω) ⋅ W(-jω) = α 2 + ω Перепишем это соотношение в виде
2
.
4 δ x2 α 4 δ x2 α ⋅ , W(jω) ⋅ W(-jω) = jω + α − jω + α
откуда 4 δ x2 α 2δ x α W(jω) = = . jω + α jω + α Определим W(s). Получим 2δ x α W(s) = W(jω) = . jω = s S + α Определим W(P). Имеем 2δ x α . W(P) = W(s) S = P = P + α Из (5.6) получим
W(P) =
Y (t ) 2δ x α . = P + α X (t )
или
( P + α )Y (t ) = 2δ x α ⋅ X (t ). Так как
PY (t ) =
dY (t ) , то окончательно имеем dt
dY (t ) + α Y ( t ) = 2δ x α ⋅ X (t ). dt
(5.8)
Соотношение (5.8) есть искомое дифференциальное уравнение, описывающее
88
динамический объект. Второй способ решения задачи статистической идентификации динамического объекта заключается в использовании формулы S yx (ω ) , W(jω) = (5.9) S x (ω ) где Syx(x) - двухсторонняя взаимная спектральная плотность случайных процессов X(t), Y(t). Пример 5.2 Дано
Aα
1 ; π α +ω2 α +β 1 . Syx(ω) = B ⋅ ⋅ 2π (α − jω ) ⋅ ( β + jω ) Sx(ω) =
⋅
2
Определить: 1) W(jω) = ? 2) W(s) = ? 3) Определить дифференциальное уравнение, описывающее динамический объект. Решение. Запишем Sx(ω) в виде Aα 1 ⋅ . Sx(ω) = π (α + jω )(α − jω ) Тогда соотношение (5.9) примет вид
B⋅ W(jω) =
α +β 1 ⋅ 2π (α − jω ) ⋅ ( β + jω ) Aα 1 ⋅ π (α + jω )(α − jω )
или
B α + β α + jω . ⋅ ⋅ A 2α β + jω Определим W(s). Получим W(jω) =
W(s) = W(jω)
jω = s
Определим W(P). Имеем W(P) = W(s)
S= P
=
=
B α + β S +α .. ⋅ ⋅ A 2α S + β
B α + β P+α .. ⋅ ⋅ A 2α P + β
Из (5.6) получим W(P) =
Y (t ) B α + β P + α . = ⋅ ⋅ X ( t ) A 2α P + β
89
или ( P + β )Y (t ) =
B α+β ( P + α ) X (t ). ⋅ A 2α
d , то окончательно получим dt B α + β ⎡ dx (t ) dY (t) ⎤ (5.10) + β Y (t ) = ⋅ ⋅⎢ + α ⋅ X ( t ) ⎥. dt A 2α ⎣ dt ⎦ Соотношение (5.10) есть искомое дифференциальное уравнение, описывающее динамический объект . Так как P ≡
Рассмотрим третий способ решения задачи статистической идентификации динамического объекта (способ Райбмана). Пусть Kx(t) - корреляционная функция случайного процесса X(t) на входе объекта; Kyx(t) - взаимная корреляционная функция случайных процессов X(t) и Y(t). Представим Kx(t) и Kyx(t) в виде ⎧⎪ K + (t ), t ≥ 0 x K x (t ) = ⎨ − (t ), t < 0 ⎪⎩ K x
(5.11)
⎧ K + (t ), t ≥ 0 ⎪ yx (5.12) K yx (t ) = ⎨ − (t ), t < 0 . ⎪⎩ K yx Тогда передаточная функция W(s) динамического объекта будет определятся соотношением [12] +
W(s) =
K K
yx + x
K (S ) − K (S ) −
− yx − x
(S )
(S )
(5.13)
,
где
K
+ yx
+
( s) = L{K yx (t )};
K
− yx
−
( s) = L{K yx (t )};
(5.14)
K
+ x
+
( s) = L{K x (t )};
K
− x
−
( s) = L{K x (t )};
Здесь L{...}- преобразование Лапласа выражения в фигурных скобках. Пример 5.3. По результатам обработки реализации входного случайного процесса X(t) корреляционная функция аппроксимирована следующей формулой:
K
x
(t ) = A ⋅ e − α t ,
(5.15)
где А и α принимают положительные значения: А>0, α>0. Согласно (5.11) корреляционная функция Kx(t) может быть представлена в виде ⎧⎪ K + (t ) = x K x (t ) = ⎨ − (t ) = ⎩⎪ K x
− αt
Ae , t ≥ 0 . α Ae , t ≤ 0 t
(5.16)
90
По результатам обработки реализаций случайных процессов X(t), Y(t) взаимная корреляционная функция аппроксимирована следующими выражениями:
K K
yx yx
(t ) =
(t ) =
− βt
B e , t ≥ 0; α B e , t ≤ 0, t
т.е. в соответствии с (5.12) имеем: ⎧ K + (t ) = ⎪ yx K yx (t ) = ⎨ − (t ) = ⎪⎩ K yx
− βt
Be , t ≥ 0 . α , t ≤ 0 Be t
(5.17)
Используя формулу (5.14), получим A ⎫ ;⎪ S +α ⎪ A − αt K x ( S ) = L { Ae } = S − α ; ⎪⎪ B ⎬⎪ + − βt ( ) { } ; = = S L K yx Be S+β ⎪ ⎪ B − αt ⎪ ( ) { } . = = S L Kx Be S −α ⎭
K
+ x
( S ) = L { Ae
−αt
}=
Согласно (5.13), с учетом (5.18) находим: 1 1 B −B S+β S −α W (S ) = , 1 1 −A A S +α S −α откуда передаточная функция динамического объекта B α + β S +α W (S ) = ⋅ ⋅ . A 2α S + β Определим W(jω). Имеем B α + β jω + α W ( jω ) = W ( S ) S = jω = ⋅ ⋅ . A 2α jω + β Определим W(P). Получим
(5.18)
(5.19)
91
W ( P) = W ( S ) S = P = Из (5.6) имеем W ( P) =
B α + β P +α ⋅ ⋅ . A 2α P + β
Y (t ) B α + β P + α = ⋅ ⋅ X (t ) A 2α P + β
или ( P + β )Y (t ) =
B α +β ( P + α ) X (t ) . ⋅ A 2α
d , то окончательно получим dt dY (t ) B α + β ⎡ dX (t ) ⎤ (5.20) + β ⋅ Y (t ) = ⋅ + α ⋅ X (t ) ⎥ ⎢ dt A 2α ⎣ dt ⎦ Соотношение (5.20) есть искомое дифференциальное уравнение, описывающее динамический объект. Так как P ≡
92
5.3. Статистическая идентификация динамического объекта во временной области
Современное состояние теории и практики идентификации характеризуется интенсивной разработкой статистических методов идентификации, ориентированных на применение ЭВМ. К этим методам относится и метод минимума статистической неопределенности, рассматриваемый в данном разделе. Он является непараметрическим временным методом идентификации динамического объекта. 5.3.1.Постановка задачи статистической идентификации динамического объекта во временной области
Рассмотрим одномерный динамический объект в условиях нормального функционирования. Функция x(t), описывающая воздействие на объект, и функция y(t), описывающая реакцию объекта на это воздействие, определены на некотором множестве моментов времени T, зависящем от характера эксперимента. В общем случае x(t) и y(t)являются реализациями случайных процессов на входе и выходе объекта. Будем называть функции x(t) и y(t) входным и выходным сигналами объекта. Тогда задачу статистической идентификации можно сформулировать следующим образом. В процессе нормального функционирования одномерного объекта синхронно (непрерывно или дискретно) измеряются входной x(t) и выходной y(t) сигналы. По результатам измерения необходимо определить хотя бы приближенное значение оператора, ставящего в однозначное соответствие входной и выходной сигналы, т.е. нужно получить математическую модель объекта. Если моделью объекта (системы) является зависящий от времени оператор A(t) такой, что y(t) = A(t)⋅x(t), то задачей статистической идентификации будет определение оценки этого оператора A0(t), позволяющей получать оценку y0(t) = A0(t)⋅x(t). В другой формулировке задачей статистической идентификации является нахождение оценки A0(t) истинного оператора системы A(t) по реализациям случайных процессов x(t) и y(t). Соответствие между моделью и оригиналом может быть достигнуто лишь в случае близости в некотором смысле оценки A0(t) к истинному значению A(t). При этом будет соблюдаться требование близости y0(t) к y(t). Для оценки качества идентификации вводят функцию потерь ρ[y(t), y0(t)], на математическое ожидание которой накладывается требование M{ ρ[y(t), y0(t)] } = min. Выбором вида функции потерь определяется критерий близости выходных сигналов модели и оригинала. Наиболее часто применяют квадратичную функцию потерь вида ρ[y(t), y0(t)] = [y(t) - y0(t)]2. Получим основное уравнение статистической идентификации, которому должна удовлетворять оптимальная оценка оператора A0(t). Примем следующие допущения: объект линеен, наблюдаемые случайные процессы стационарны (в широком смысле) и стационарно связаны. С учетом принятых допущений выходной сигнал объекта, функционирую-
93
щего неограниченно долго, имеет вид ∞
y (t ) = ∫ ω (τ ) x (t − τ )dτ + n(t ) ,
(5.21)
0
где
ω(τ) n(t)
- импульсная переходная функция (ИПФ) линейной системы; - случайная помеха (рис. 5.2). n(t)
x(t)
ω(t)
z(t)
y(t)
Рис. 5.2. Задача статистической идентификации динамического объекта заключается ) в определении оценки ω (t ) ИПФ ω(t) по результатам наблюдений за сигналами x(t) и y(t) (рис.5.3). n(t) x(t)
ω(t)
z(t)
Получение оценки ИПФ
y(t)
)
ω (t )
ω(t)
Рис. 5.3. Определение искомой ИПФ из уравнения (5.21) сопряжено со значительными погрешностями вследствие неточности регистрируемых сигналов, обусловленной помехами и измерительными ошибками, сложностью аппроксимации сигналов аналитическими выражениями. Для повышения качества восстановления ИПФ необходима предварительная обработка сигналов. Аналитически это условие означает следующее. Пусть случайные сигналы на входе объекта идентификации центрированы, тогда, умножая левую и правую части уравнения (5.21) на x(t-θ) и осредняя результат, получаем ∞
M [ x (t − θ ) y (t )] = M [ ∫ ω (τ ) x (t − θ ) x (t − τ )dτ ] + M [ x (t − θ )n(t )] , 0
где М - оператор математического ожидания; n(t) - приведенная к выходу помеха, некоррелированная со входным сигналом. Учитывая коммутативность операции определения математического ожидания и интегрирования, получаем ∞
M [ x (t − θ ) y (t )] = ∫ ω (τ ) ⋅ M [ x (t − θ ) x (t − τ )]dτ 0
или ∞
R xy (θ ) = ∫ ω (τ ) R xx (θ − τ )dτ .
(5.22)
0
94
Уравнение (5.22) представляет собой запись известного уравнения ВинераХопфа и связывает искомую ИПФ с корреляционной функцией входного сигнала Rxx(τ) и взаимной корреляционной функцией входного и выходного сигналов Rxy(θ) идентифицируемого объекта. ИПФ, определяемая из уравнения Винера-Хопфа, оптимальна по критерию минимума среднеквадратичной ошибки M{ [y(t) - y0(t)]2 } = min. При реализации случайных сигналов они регистрируются на конечных интервалах наблюдения Tн, а линейная система с бесконечной памятью аппроксимируется системой с конечной памятью, поэтому бесконечный верхний предел в уравнении (5.22), исходя из физических соображений заменяют на конечный Τω, такой, что для всех τ > Τω, ω(τ) ≈ 0. Это утверждение справедливо для физически реализуемых систем, у которых ∞
∫ ω (τ ) R
xx
(θ − τ )dτ < ε
при
τ > Τω .
Tω
С учетом сказанного, основное уравнение статистической идентификации принимает вид Tω
Rxy (θ ) = ∫ ω (τ ) R xx (θ − τ )dτ .
(5.23)
0
При непараметрической идентификации динамических объектов решение уравнения Винера-Хопфа получают в виде последовательности значений ИПФ. Наиболее часто применяют численные методы решения уравнения (5.23) во временной и частотной областях. 5.3.2.Некорректность задачи статистической идентификации динамического объекта
Представим уравнение (5.23) в операторном виде: Aω = Rxy , (5.24) где ω - искомая функция из некоторого нормированного пространства W; Rxy - заданная функция из нормированного пространства R; A - заданный линейный интегральный оператор перехода из W в R. Согласно классическому определению задача статистической идентификации - задача решения уравнения (5.24) - называется корректно поставленной, по Адамару: • если для любого элемента Rxy∈ R существует решение ω из пространства W; • решение единственно в W; • решение устойчиво на пространствах R и W, т.е. для любого ε > 0 можно указать такое δ(ε), что из неравенства ρR(Rxy1, Rxy2) ≤ δ(ε) следует ρW(ω1, ω2) ≤ ε , причем Aω1 = Rxy1 , Aω2 = Rxy2. В случае невыполнения указанных требований задача оказывается некорректно поставленной. В практических задачах идентификации реальных объектов существование решений и принадлежность их определенным множествам вытекают из физического смысла их постановки. Тем самым первые два требования корректности выполняются естественным образом.
95
Задача статистической идентификации некорректна вследствие невыполнения условия устойчивости. Покажем причины неустойчивости при нахождении ИПФ идентифицируемого объекта традиционными способами. При численном решении во временной области интегральное уравнение Винера-Хопфа аппроксимируется системой линейных алгебраических уравнений (СЛАУ). n
Rxy (t i ) = ∑ c j ω (t j ) R xx (t i − t j ) Δt ,
i = 0, n
(5.25)
j =0
где ti = iΔt; tj = jΔt; Δt = Tω/n - шаг дискретности по времени; cj - коэффициент, зависящий от выбора квадратурной формулы, аппроксимирующей интеграл. Решение системы (5.25) дает n+1 дискретное значение ИПФ объекта. В матричной форме СЛАУ (5.25) имеет вид Rxy = Rxx ⋅ W (5.26) где Rxy матрица-столбец свободных членов, элементы которой - ординаты взаим1 R (t ), i = 0, n ; Rxx - квадратная матрица коной корреляционной функции Ri = Δt xy i эффициентов СЛАУ (5.25), имеющая в случае квадратурной формулы прямоугольников симметричную относительно главной диагонали форму: R xx (0) Rxx (t1 ) K R xx (t j ) Rxx (t n ) R xx (t1 ) Rxx (0) K R xx (t j −1 ) Rxx (t n −1 ) K K K K Rxx = . (5.27) R xx (t i ) Rxx (t i −1 ) K R xx (t j −i ) Rxx (t n −i ) K K K K R xx (t n ) Rxx (t n −1 ) K R xx (t n − j ) Rxx (0) Матрица-столбец W=[ωi] состоит из элементов, которые представляют собой ординаты искомой ИПФ. Особенностью получаемой СЛАУ является составление ее элементов по результатам предварительной обработки реализации входного и выходного сигналов объекта, при этом неизбежны измерительные и вычислительные погрешности. При решении СЛАУ существует несколько источников погрешностей. Один из таких источников характерен для решения практических задач в случае, когда элементы матрицы коэффициентов алгебраической системы известны лишь приближенно. Неточность исходных данных порождает ошибки в решении, так как изменение коэффициентов системы уравнений в пределах заданной точности влечет за собой изменение решения. Теоретически решение СЛАУ (5.25) определяется формулой W = R xx−1 ⋅ R xy , причем обратная матрица R xx−1 существует лишь при отличном от нуля определителе Rxx . Изменение элементов матрицы Rxx в пределах точности их задания может привести к матрице с нулевым определителем или даже может изменить его знак. В результате исходная СЛАУ практически оказывается несовместной. Таким образом приближенное задание корреляционных функций предопределяет плохую обусловленность обратной матрицы Rxx−1 , что приводит к нарушению условия устойчивости. К факторам, влияющим на точность задания исходных данных и искажаю-
96
щих результаты решения интегрального уравнения Винера-Хопфа относятся: относительно невысокая точность оценок корреляционных функций, обусловленная в основном недостаточной длиной зафиксированных реализаций случайных процессов; погрешность численных расчетов, связанная с заменой бесконечного верхнего предела в уравнении (5.22) конечным Tω, самого интеграла - квадратурной формулой. Таким образом, вследствие невыполнения условия устойчивости, задача статистической идентификации некорректна. Устойчивое решение может быть получено при использовании регуляризирующих алгоритмов статистической идентификации. 5.3.3.Метод минимума статистической неопределенности
Рассмотрим для решения задачи статистической идентификации метод минимума статистической неопределенности. Этот метод идентификации основан на решении интегрального уравнения [13] T
Rxy (τ ) = ∫ ω (θ ) R xx (τ ,θ )dθ ,
(5.28)
0
в котором T - время затухания ИПФ; корреляционная функция Rxx(τ, θ) определяется соотношением [13] T 1 Н Rxx (τ ,θ ) = x (t − τ ) x (t − θ )dt , τ ,θ ∈[0, T ] , (5.29) TН ∫0 где Tн - интервал наблюдения реализации процесса x(t). Уравнение (5.28) справедливо лишь при стационарных входных сигналах. Аналогично уравнению Винера-Хопфа, уравнение (5.28) также может быть представлено в дискретном виде системой линейных алгебраических уравнений: N −1
Rxy (iΔt ) = Δt ∑ ω ( jΔt ) R xx (iΔt , jΔt ), i = 0,1,K , N − 1 ,
(5.30)
j =0
где N - число точек ИПФ; Δt - интервал дискретизации; Rxy и Rxx при замене их аргументов iΔt и jΔt целочисленными сдвигами определяются уравнениями 1 L −1 Rxy (i ) = i = 0,1,K , N − 1 ; (5.31) ∑y x , L − N k = N k k −i 1 L −1 Rxx (i , j ) = i , j = 0,1,K , N − 1 . (5.32) ∑x x , L − N k = N k −i k − j Здесь yk = y(tk); tk = kΔt; L-N - число точек осреднения характеристик; xk-i = x(tk-i); tk-i = (k - i)Δt; N-1 - максимальный временной сдвиг. В матричной форме уравнение (5.30) имеет следующий вид Rxy = Rxx ⋅ W, (5.33) где Rxx - симметричная матрица размера NxN:
97
Rxx (0,1) Rxx (0,2) R xx (0,0) K Rxx (0, N − 1) Rxx (11 ,) Rxx (1,2) R xx (0,1) K Rxx (1, N − 1) Rxx = R xx (0,2) Rxx (1,2) K Rxx (2, N − 1) ; Rxx (2,2) K KK K K R xx (0, N − 1) Rxx (1, N − 1) Rxx (2, N − 1) K Rxx ( N − 1, N − 1) Rxy и W - матрицы-векторы. Причем Rxy = [Rxy(0) Rxy(1) .... Rxy(N-1)]T; W = [W(0) W(1) .... W(N-1)]T . Точность идентификации, осуществляемой по уравнению (5.28), но велика.
(5.34)
(5.35) (5.36) достаточ-
5.3.4.Оценка точности статистической идентификации динамического объекта
Оценим точность статистической идентификации динамического объекта путем определения относительной среднеквадратичной погрешности идентификации по формуле: N −1
∑ (ω i =0
σW =
i
) − ωi ) 2
,
N −1
∑ω i =0
)
(5.37)
2 i
где ωi и ωi - значения истинной и восстановленной ИПФ; N - количество вычисленных значений ИПФ. Введем обозначение ∞
z (t ) = ∫ ω (τ ) x (t − τ )dτ .
(5.38)
0
Тогда соотношение (5.21) примет вид y(t) = z(t) + n(t). (5.39) 2 Обозначим через σ z дисперсию сигнала z(t) на выходе динамического объекта, а через σ n2 - дисперсию случайной помехи n(t). Эти дисперсии могут быть определены по формулам 1 L 2 σ z = ∑ ( zi − z ) 2 , (5.40) L i =1
σ n2 =
1 L (ni − n ) 2 , ∑ L i =1
(5.41)
где 1 L z = ∑ zi ; L i =1
1 L n = ∑ ni . L i =1
Введем обозначение Sy =
σn , σz
(5.42)
где Sy - отношение шум - выходной сигнал, которое задается как отношение сред-
98
неквадратических значений шума и выходного сигнала. Среднеквадратическая погрешность идентификации σω динамического объекта зависит от величины Sy, т.е. имеет место функциональная зависимость вида σω = f1(Sy). (5.43) Кроме того σω, зависит от величины L: σω = f2(L). (5.43) Величина σω возрастает с увеличением Sy.
5.4. Идентификация путем анализа импульсной реакции (весовой функции)
Рассмотрим систему, описываемую соотношением вида (рис.5.4) ∞
y ( t ) = ∑ g 0 ( k ) u( t − k ) + v ( t ) ,
(5.45)
k =1
где u(t) - скалярный входной сигнал; y(t) - скалярный выходной сигнал; g0(k) - истинная импульсная реакция или весовая функция, которая полностью определяет поведение системы; t = 0,1,2,... - дискретные моменты времени; v(t) - помеха в момент времени t. v(t) u(t)
ОУ (ТП)
y(t)
Рис. 5.4. Если к системе, описываемой соотношением (5.45), приложить импульсное воздействие ⎧α , t = 0, (5.46) u( t ) = ⎨ ⎩0, t ≠ 0, то выходной сигнал y(t) будет равен y(t) =α ⋅ g0(t)+ v(t). (5.47) Из (5.47) имеем y (t ) v (t ) ) g (t ) = − , (5.48) α α ) где g (t ) - оценка весовой функции g0(t); v(t)/α - ошибка определения g0(t).Чтобы уменьшить v(t)/α, необходимо увеличить α. При идентификации по импульсному воздействию часто возникают технические трудности, связанные с формированием и использованием импульсных входных сигналов. Этот метод нельзя применить к линеаризованным системам, так как амплитуда импульса по определению не может быть малой. Другими словами, при таком входном сигнале система может проявить нелинейные эффекты, нарушающие линеаризованное поведение, положенное в основу модели системы. Этот метод предполагает идентификацию вне процесса управления. 5.5. Идентификация путем определения реакции на ступенчатое воздействие
99
Приложим к системе, описываемой соотношением (5.45), ступенчатое входное воздействие ⎧α , t ≥ 0, u( t ) = ⎨ (5.49) ⎩0, t < 0. Тогда выходной сигнал y(t) будет равен t
y (t ) = ∑ α ⋅ g 0 ( k ) + v (t ) .
(5.50)
k =1
Из (5.50) имеем t −1
y (t − 1) = ∑ α ⋅ g 0 ( k ) + v (t − 1) .
(5.51)
k =1
Из (5.50), (5.51) получим (5.52) y(t) - y(t-1)=α ⋅ g0(t)+ v(t) - v(t-1). Из (5.52) имеем y (t ) − y (t − 1) v (t ) − v (t − 1) ) g (t ) = − , (5.53) α α ) где g (t ) - оценка весовой функции g0(t); [v(t) - v(t-1)]/α - ошибка определения g0(t). Если определение коэффициентов весовой функции действительно является целью, использование (5.53) может сопровождаться значительными ошибками в большинстве практических приложений. Ступенчатый входной сигнал является наиболее простым для применения (он соответствует, например, открыванию или закрыванию входного клапана либо включению или выключению входного напряжения). 5.6. Эмпирическая оценка передаточной функции ОУ(ТП)
Введем следующую оценку передаточной функции ОУ(ТП) Y (ω ) $ G$ N ( l iω ) = N , U N (ω )
(5.54)
где 1 N y (t ) l −iωt , ∑ N t =1 1 N U N (ω ) = ∑ u(t )l −iωt , N t =1 2πk ω= , (k = 0,1,...,N-1). N YN (ω ) =
(5.55) (5.56) (5.57)
$ Здесь G$ N ( l iω ) - эмпирическая оценка передаточной функции ОУ(ТП); UN(ω) дискретное преобразование Фурье (ДПФ) последовательности u(1), u(2),...,u(N); YN(ω) - ДПФ последовательности y(1), y(2),...,y(N); G N ( l iω ) - истинная передаточная функция ОУ(ТП) в точке z = l iω , -π ≤ ω ≤ π; t = 1, 2, .. - дискретные моменты времени.
100
В (5.54) предполагается, что UN(ω) ≠ 0. Если для каких-то частей это не так, считаем для них эмпирическую оценку передаточной функции ОУ(ТП) неопределенной. Эмпирическую оценку передаточной функции ОУ(ТП) можно интерпретировать как способ (приближенного) решения относительно g0(k) (k = 1, 2, ..., N) системы уравнений N
y (t ) = ∑ g 0 ( k )u(t − k ) , t = 1, 2, ..., N
(5.58)
k =1
с использованием преобразования Фурье. 5.7. Частотный анализ корреляционным методом
Рассмотрим систему, описываемую соотношением вида ∞
y ( t ) = ∑ g 0 ( k ) u( t − k ) + v ( t ) .
(5.59)
k =1
Удобно ввести сокращенное обозначение для суммы, фигурирующей в формуле типа (5.59). Введем оператор сдвига вперед q: qu(t) = u(t+1), -1 и оператор сдвига назад q q-1u(t) = u(t-1). Можно переписать формулу (5.59) в виде ∞
∞
k =1
k =1
y (t ) = ∑ g 0 (k )u (t − k ) + v(t ) = ∑ g 0 (k )(q − k u (t )) + v(t ) = (5.60)
⎡ ⎤ = ⎢∑ g 0 (k )q − k ⎥u (t ) + v(t ) = G0 (q)u (t ) + v(t ), ⎣ k =1 ⎦ где используется обозначение ∞
∞
G0 ( q ) = ∑ g 0 ( k ) q − k . k =1
Будем называть G0(q) истинной передаточной функцией системы вида ∞
y ( t ) = ∑ g 0 ( k ) u( t − k ) ,
t = 0, 1, 2, ...
(5.61)
k =1
Формула (5.60) описывает связь последовательности yt с последовательностями ut, vt, где yt = (y(1), y(2), ..., y(t)); (5.62) ut = (u(1), u(2), ..., u(t)); vt = (v(1), v(2), ..., v(t)); Представим себе, что на вход системы (5.59) поступает гармонический сигнал (5.63) u(t) = α ⋅ cos(ωt), t = 0, 1, 2, ... Этот сигнал удобно представить в виде u(t ) = α ⋅ Re( l iωt ) , где Re обозначает вещественную часть числа. В силу (5.59) соответствующий выходной сигнал можно записать как
101
∞ ⎡∞ ⎤ y (t ) = ∑ g 0 (k ) Re(l iω ( t − k ) ) ⋅ α + v(t ) = Re ⎢∑ g 0 (k )l iω ( t − k ) ⎥ ⋅ α + v(t ) = k =1 ⎣ k =1 ⎦ ∞ ⎡ ⎤ = Re ⎢l iωt ∑ g 0 (k )l −iωk ⎥ ⋅ α + v(t ) = Re l iωt G0 (l iω ) ⋅ α + v(t ) = k =1 ⎦ ⎣
[
]
(5.64)
= α G0 (l iω ) cos(ωt + ϕ ) + v(t ),
где
ϕ = arg[G0 ( l iω )] .
(5.65)
Здесь arg(z) - аргумент комплексного числа z. В связи с присутствием в (5.64) шумовой составляющей v(t) точное определение G0 ( l iω ) и ϕ графическими методами может быть затруднительным. Поскольку интересующая нас составляющая выходной переменной y(t) является косинусоидальной функцией известной частоты, возможен следующий корреляционный способ устранения шума. Образуем суммы ⎫ 1 N I c ( N ) = ∑ y (t ) cos(ωt ),⎪ N t =1 ⎪ (5.66) ⎬ N 1 ⎪ I s ( N ) = ∑ y (t ) sin(ωt ). ⎪⎭ N t =1 Подставляя (5.64) в (5.66), получаем α 1 N iω iω I c ( N ) = G0 ( l ) cos(ϕ ) + α G0 ( l ) ∑ cos(2ωt + ϕ ) + 2 2 N t =1 (5.67) 1 N + ∑ v (t ) ⋅ cos(ωt ). N t =1 Второе слагаемое в (5.67) стремится к нулю при N → ∞. Также стремится к нулю третье слагаемое, если v(t) не содержит число периодической составляющей частоты ω. Аналогично α 1 N I s ( N ) = − G0 ( l iω ) sin(ϕ ) + α G0 ( l iω ) ∑ sin(2ωt + ϕ ) + 2 2 N t =1 (5.68) 1 N + ∑ v (t ) ⋅ sin(ωt ). N t =1 Выражения (5.67), (5.68) приводят к следующим оценкам величин G0 ( l iω ) и ϕ :
G$ N ( l iω ) =
I c2 ( N ) + I S2 ( N )
α
,
(5.69)
2 ⎛ I (N )⎞ Y$N = arg G$ N ( l iω ) = arctg⎜ s (5.70) ⎟. ⎝ Ic ( N )⎠ Повторяя процедуру для нескольких частот, можно получить хорошую картину изменения G0 ( l iω ) в интересующей области частот. Основным недостатком является то, что многие промышленные процессы не позволяют использовать синусоидальное входное воздействие в режиме нормальной работы. Кроме того, необ-
[
]
102
ходимость повторения процедуры для набора частот приводит к увеличению времени эксперимента. 5.8. Статическая задача идентификации для системы с несколькими входами и одним выходом
Рассмотрим линейную статическую систему, представленную на рис.5.5, имеющую m входов U1,...,Um, и один выход X. U1 U2 X процесс Um Рис. 5.5. Эта система может быть описана следующим линейным уравнением (5.71) X = a0 + a1U1 + a2U2 +...+ amUm. Используя серию измерений величин X, Uj (j = 1,2, ..., m) в r моментов времени, можно определить параметры ai следующим образом. Сначала вводят в память ЦВМ все r совокупностей измерений величин X и Uj. Далее эти r совокупностей измерений используют для вычисления X иU , где X - среднее значение X, U - среднее значение U для указанной серии измерений. Обозначим x=X-X, (5.72) u = U -U . (5.73) При этом уравнение (5.71) принимает вид (5.74) x = a1u1 + a2u2 + ... + amum или в векторной форме (5.75) x = uTa , где u, a - вектор-столбцы с элементами uj, aj соответственно, т.е. ⎡u1 ⎤ ⎡a 1 ⎤ ⎢u ⎥ ⎢a ⎥ 2 ⎥ 2 ⎢ ;a= ⎢ ⎥. u= ⎢K ⎥ ⎢K ⎥ ⎢ ⎥ ⎢ ⎥ ⎣u m ⎦ ⎣a m ⎦ Поэтому r последовательных измерений удовлетворяют соотношениям x (1) = u(T1) ⋅ a , ... x( μ ) = u
T (μ)
x(r )
⋅a ,
(5.76)
... = u(Tr ) ⋅ a ,
где μ обозначает момент измерений x, uT (μ = 1,2, ..., r). Определим далее вектор X и матрицу U следующим образом: X = [x(1), ..., x(μ), ... ,x(r)]T, (5.77)
103
⎡ u(T1) ⎤ ⎡ u K u K u ⎤ j (1) m (1) ⎢ ⎥ ⎢ 1(1) ⎥ ⎢K ⎥ ⎢K ⎥ ⎢ T ⎥ ⎢ U = ⎢ u( μ ) ⎥ = u1( μ )KKK um( μ ) ⎥ . (5.78) ⎢ ⎥ ⎢K ⎥ ⎢K ⎥ ⎢ T ⎥ ⎢ ⎥ ⎢⎣ u( r ) ⎥⎦ ⎢⎣ u1( r ) KKKK um( r ) ⎥⎦ Следовательно, система уравнений (5.76) может быть записана в векторной форме: X=U⋅a. (5.79) Предполагая, что компоненты вектора a в уравнении (5.79) являются оцен) a ками истинного вектора a, можно с помощью уравнения (5.79) получить такие оценки X$ вектора X, что X$ = U ⋅ a$ . (5.80) Скалярную сумму S квадратических ошибок оценивания можно определить следующим образом: (5.81) S = ( X − Ua$ ) T ( X − Ua$ ) = tr[( X − Ua$ ) T ( X − Ua$ )] , где tr[...] обозначает след матрицы [...]. Таким образом, наилучшая (в смысле наименьших квадратов) оценка вектора a должна удовлетворять соотношению ∂S = 0 , ∀i ∈ (1, m) , (5.82) ∂a$i или в векторной форме T T $ $ T U T − UaX $ T − Xa$ T U T ] ∂S ∂tr[( X − Ua$ )( X − Ua$ ) ] ∂tr[ XX + Uaa = = = 0. (5.83) ∂a$ ∂a$ ∂a$ Уравнение (5.83) преобразуется к виду $ $ T U T − UaX $ T − Xa$ T U T ] ∂tr[ XX T + Uaa = 0 + 2 U T Ua$ − U T X − U T X = (5.84) ∂a$ T T = 2( U Ua$ − U X) = 0. * Поэтому наилучшая в смысле наименьших квадратов оценка a$ вектора a удовлетворяет уравнению U T Ua$* = U T X , (5.85) так что T a$* = (U T U ) −1 U T X = a$1* , a$ 2* ,..., a$ m* , (5.86) что и позволяет построить процедуру идентификации вектора a на основе линейной регрессии и метода наименьших квадратов. Отметим, что матрица (UTU)-1 существует только тогда, когда матрица U не является особой. Для применения метода наименьших квадратов должно выполнятся условие r >> m.
[
]
104
5.9. Статическая задача идентификации для системы с несколькими входами и несколькими выходами
Процесс, имеющий m входов и n выходов (рис.5.6) по аналогии с процессом с одним выходом может быть описан следующей системой уравнений: x1 = a11u1 + ... + a1juj + ... + a1mum, ... (5.87) xi = ai1u1+ ... + aijuj + ... + aimum, ... xn = an1u1 + ...+ anjuj + ... + anmum, или в векторной форме x = Au , (5.88) где (5.89) x = (x1 ... xi ... xn)T, (5.89) u = (u1 ... uj ... um)T и ⎡a11K a1m ⎤ ⎢ ⎥ (5.91) A = ⎢M ⎥. ⎢⎣a n1K a nm ⎥⎦ U1 X1 U2 X2 процесс Xn Um Рис. 5.6. Каждая строка в уравнениях (5.87) или (5.88) имеет точно такой же вид, как и в уравнениях (5.74) или (5.75) для систем с одним выходом. Следовательно можно записать i-ю строку уравнения (5.87) следующим образом: (5.92) xi = uTai, где (5.93) ai = [ai1ai2...aij..aim]T. Подобно процессу с одним выходом для r измерений (r ≥ m + 1), величины xi, uj (i = 1,...,n; j = 1,...,m) определим в виде ⎡ xi (1) ⎤ ⎥ ⎢ ⎢K ⎥ (5.94) X i = ⎢ xi ( μ ) ⎥ , ⎥ ⎢ ⎢K ⎥ ⎥ ⎢ ⎢⎣ xi ( r ) ⎥⎦ ⎡u1(1) K um(1) ⎤ ⎥ ⎢ T ⎥ ⎡U (1) ⎤ ⎢K ⎥ ⎢ U = ⎢u1( μ ) K um( μ ) ⎥ = ⎢K ⎥ . (5.95) ⎥ ⎢ ⎥ ⎢ ⎥ U (Tr ) ⎢K ⎦ ⎥ ⎣ ⎢ u u K ⎢⎣ 1( r ) m( r ) ⎥ ⎦
105
Индекс в скобках (μ) означает μ-ю совокупность измерений (μ = 1,2, ..., r), а u - то же самое, что и в уравнении (5.78). Поэтому указанные выше r измерений удовлетворяют для i-го выхода соотношениям xi (1) = u T(1) a i , K xi ( μ ) = u T( μ ) a i ,
(5.96)
K xi ( r ) = u T( r ) a i ,
или в матричной форме xi = Uai.
(5.97)
Поскольку уравнения (5.96), (5.97) аналогичны уравнениям (5.76) и (5.79) для системы с одним выходом, то наилучшие в смысле регрессии по методу наименьших квадратов оценки a$i* параметров ai ∀i удовлетворяют соотношению * a$i* = (U T U ) −1 ⋅ U T X i = (a$1*i a$ 2*i K a$ mi (5.98) ). Следовательно, вывод уравнения (5.98) идентичен выводу уравнения (5.86), если все a, X в уравнениях (5.79)-(5.86) заменить на ai, Xi [ai и Xi определяется уравнениями (5.93) и (5.94)]. 5.10. Регрессионная идентификация линейных динамических процессов
Линейные динамические системы можно описать следующим уравнением состояния: x& = ax + bu , (5.99) где x, u - n-мерный вектор состояния и m-мерный вектор управления (вход) соответственно. В дискретной форме уравнение (5.99) может быть записано так: (5.100) xk+1=Axk + Buk , где xk = x(tk); tk = kΔt и ⎡a11K a1n ⎤ ⎢ ⎥ A = ⎢K ⎥ ≈ I + Δ t ⋅ α, ⎢⎣a n1K a nn ⎥⎦ ⎡b11Kb1m ⎤ ⎢ ⎥ B = ⎢K ⎥ ≈ Δ t ⋅ β. ⎢⎣bn1Kbnm ⎥⎦
Введем теперь Wk = ( x1,k K x n ,k ; u1,k K um,k ) T = ( w1,k K wn + m,k ) T ≡
≡ (n + m) ⋅ единичный вектор,
(5.101)
106
⎡a11K a1n , b11Kb1m ⎤ ⎡(Φ1 ) T ⎤ ⎥ ⎥ ⎢ ⎢ Ф = ⎢K (5.102) ⎥ = ⎢K ⎥ . T ⎥ ⎢ ⎢⎣a n1K a nn , bn1Kbnm ⎥⎦ ⎣(Φn ) ⎦ Следовательно уравнение (5.100) запишется в виде Xk+1 = Φ ⋅ Wk , (5.103) что аналогично уравнению (5.88) из раздела 5.9. Если запоминать r единовременных совокупностей измерений (r ≥ n + m + 1) величин Xk+1, Wk (т.е. Xk+1, Xk, Uk), то элементы матрицы Φ можно идентифицировать с помощью линейной регрессионной процедуры по методу наименьших квадратов из раздела 5.8 и 5.9. Следовательно, оценка Φ$i * i-ой строки матрицы Φ (i = 1,...,n) по методу наименьших квадратов задается соотношением T −1 Φ$ * = (W ) T W ⋅ (W ) T X = [ a K a , b Kb ] , (5.104)
( ) [ i
k
k
]
i , k +1
k
1,i
n ,i
1,i
m ,i
где по аналогии с уравнением (5.95) ⎡ w1(1) k K wm+ n (1) k ⎤ ⎡ x1(1) k K x n (1) k , u1(1) k K um(1) k ⎤ ⎥ ⎥ ⎢ ⎢ Wk = ⎢K ⎥, ⎥ = ⎢K ⎥ ⎥ ⎢x K x ⎢w K w m+ n ( r ) k ⎦ n ( r ) k , u1( r ) k K um ( r ) k ⎦ ⎣ 1( r ) k ⎣ 1( r ) k
[
X i ,k +1 = xi (1) k +1K xi ( μ ) k +1K xi ( r ) k +1
]
T
.
(5.105) (5.106)
Здесь xi(μ)k+1 означает μ-е измерение i-го состояния xk+1 (μ = 1,2, ..., r), а r - число измерений Wk, xk+1. Видно, что для идентификации Φ необходимо запомнить r величин xk+1 и r единовременных совокупностей измерений векторов xk, uk, принадлежащих к предыдущему промежутку интегрирования Δt (обозначенных через wk). Вообще, для идентификации A,B в соответствии с уравнением (5.104) требуется запомнить 2r измерений x и r измерений u. 5.11. Статическая идентификация. Рекуррентные формулы
Рассмотрим систему со многими параметрами, задаваемую уравнением (5.107) xk = a1u1,k + a2u2,k + ... + amum,k + nk , где ai (i = 1, ..., m) - требующие идентификации неизвестные параметры, xk - выход системы на k-ом измерительном интервале (xk = x(tk); tk = kΔt), ui,k - i-й вход системы на этом же интервале, а nk - шум измерения. Уравнение (5.107) может быть записано в векторной форме (5.108) xk = aTuk + nk, где (5.109) aT = [a1, ...., am ], T (5.110) uk = [u1,k, ..., um,k] . Оценивание вектора параметров a осуществляется таким образом, чтобы оценка a$ r минимизировала критерий Jr вида r
J r = ∑ q k ( x k − a$ rT uk ) 2 ,
(5.111)
k =1
где qk - произвольный весовой коэффициент, например qk = 1. Введение qk > 1 в уравнение (5.111) может служить для увеличения веса последних измерений.
107
Здесь r означает число измерений. Следовательно оценка a$ r должна удовлетворять уравнению ∂J r = 0, (5.112) ∂a$ r так что r ⎛ r T⎞ $ q u u a (5.113) = ⎜ ∑ k k k ⎟ r ∑ q k x k uk . ⎝ k =1 ⎠ k =1 Введем обозначение r
Pr = ∑ q k ( uk ukT ) . −1
(5.114)
k =1
Матрица Pr−1 обратима только при r ≥ m, где m - размерность u, а r - число рассматриваемых измерений. При этом уравнение (5.113) принимает вид r
Pr−1a$ r = ∑ q k x k uk ,
(5.115)
k =1
откуда r
a$ r = Pr ∑ q k x k uk .
(5.116)
k =1
Последнее выражение представляет собой обыкновенную оценку вектора a с помощью линейной регрессии, которая совпадает с регрессионной оценкой из раздела (5.8). Отметим, что хотя произведение uk ukT является вырожденным, матрица Pr−1 из (5.114) не вырождена из-за суммирования по k. Уравнение (5.115) может быть записано в виде r −1
Pr−1a$ r = ∑ q k x k uk + q r x r ur .
(5.117)
k =1
Поскольку из уравнения (5.113) следует r −1 ⎛ r −1 ⎞ q k x k uk = ⎜ ∑ q k uk ukT ⎟ a$ r-1 , ∑ ⎝ k =1 ⎠ k =1
(5.118)
r −1
можно подставить выражение для
∑q x u k =1
r
r
r
из уравнения (5.118) в уравнение
(5.117), что дает ⎛ r −1 ⎞ $ Pr a r = ⎜ ∑ q k uk ukT ⎟ a$ r-1 + q r x r ur . ⎝ k =1 ⎠ −1
(5.119)
Прибавляя и вычитая [q r ur urT a$ r-1 ] в правой части уравнения (5.119), получаем ⎛ r −1 ⎞ Pr−1a$ r = ⎜ ∑ q k u k u Tk ⎟ a$ r-1 + q r u r ( x r − u rT a$ r-1 ) + q r u r u rT a$ r-1 = ⎝ k =1 ⎠ ⎛ r ⎞ = ⎜ ∑ q k u k u Tk ⎟ a$ r-1 + q r u r ( x r − u rT a$ r-1 ). ⎝ k =1 ⎠
(5.120)
С учетом определения Pr−1 по уравнению (5.114) уравнение (5.120) принимает вид Pr−1a$ r = Pr−1a$ r-1 + q r ur ( x r − urT a$ r-1 ) , (5.121) что дает a$ r = a$ r-1 + Pr q r ur ( x r − urT a$ r-1 ) . (5.122)
108
Следовательно, оценка a$ r может быть рекуррентно получена по предыдущей оценке a$ r −1 и по измерениям и весовым коэффициентам xr, ur, qr при условии, что матрица Pr также получена последовательно. Далее в соответствии (5.114) получаем уравнение r −1
Pr = ∑ q k ( uk ukT ) + q r ur urT = Pr−−11 + q r ur urT . −1
(5.123)
k =1 −1 r
Выражение для P (5.123) требует обратимости матрицы Pr. Должно быть также известно начальное значение матрицы P0. Однако для упрощения рекуррентного вычисления Pr можно воспользоваться леммой об обращении матриц [ 16 ]. Если Pr−1 = Pr−−11 + H r H rT , (5.124) то Pr = Pr-1 − Pr-1 H r (1 + H rT Pr-1 H r ) −1 H rT Pr-1 . (5.125) Чтобы воспользоваться леммой об обращении матриц, преобразуем уравнение (5.123) к уравнению вида (5.124). Введем матрицу Hr вида H r = q r ⋅ ur , (5.126) так что H r H rT = q r ur urT . (5.127) Уравнение (5.123) с учетом (5.127) примет вид Pr−1 = Pr−−11 + H r H rT . (5.128) Уравнение (5.128) совпадает с уравнением (5.124). Следовательно, для вычисления матрицы Pr по рекуррентной формуле используем уравнение (5.125). Поскольку 1 + H rT Pr −1 H r - скаляр, при получении Pr по рекуррентному соотношению (5.125) обращения матриц не требуется. Начальная оценка P может быть произвольной. Однако для улучшения сходимости целесообразно использовать P0 и a$0 вида [15] 1 P0 = I ; a$0 = 0 , (5.129) -1
-5
где ε = 10 ÷10 .
ε
5.12. Регрессионная идентификация нелинейных процессов 5.12.1.Представление с помощью неортогональных полиномов
Как статические, так и динамические процессы могут обладать нелинейными характеристиками, которые нельзя игнорировать. Если тип нелинейной функции неизвестен, то аппроксимация истинной нелинейности может быть выполнена, например, с помощью полиномов. Для описания методов идентификации нелинейных процессов с помощью регрессии рассмотрим аппроксимацию полиномом третьего порядка, имеющего две переменные состояния x1, x2 и одну управляющую переменную u: xi ,k +1 = ai1 x1,k + ai 2 x12,k + ai 3 x13,k + bi1 x 2 ,k + при i =1,2 (5.130) + bi 2 x 22,k + bi 3 x 23,k + ci1uk + ci 2 uk2 + ci 3 uk3 Отметим, что в соответствии с теоремой Вейерштрасса непрерывные нелинейные
109
функции x могут быть аппроксимированы полиномами x, такими, которые сходятся к исходным функциям. Для того, чтобы облегчить применение процедуры регрессионной идентификации к процессу (5.130) введем векторы z и αi: z = [ z1 z2 z3 z4 z5 z6 z7 z8 z9 ]T = [ x1k x12k x13k x 2 k x 22k x 23k u k uk2 u k3 ]T , (5.131)
α i = (α i ,1Kα i ,9 ) T = (ai1a i 2 ai 3bi1bi 2 bi 3 ci1ci 2 ci 3 ) T .
(5.132)
С учетом (5.131), (5.132) уравнение (5.130) можно записать в виде
x i , k +1 = z T ⋅ α i ,
(5.133)
что полностью аналогично уравнениям (5.74) и (5.75) из разд.5.8 и, следовательно, является формой линейной регрессии. Элементы α полиномиального выражения третьего порядка, образованного по методу наименьших квадратов и используемого для аппроксимации данного процесса, вычисляются с помощью формул (5.74)-(5.86). В этих формулах x, u и a заменяются соответственно на xi,k+1, z и αi из уравнений (5.131)-(5.133). Если рассматривается аппроксимация с помощью полиномов более высокого порядка, чем в уравнении (5.130), то применяется тот же подход, что и в уравнениях (5.130)-(5.133), но с использованием большего числа членов. Этот подход, очевидно, применим также к статическим процессам [т.е. когда индексы k, k+1 в уравнении (5.130) опускаются]. Указанный подход может быть использован в принципе для большего числа переменных, чем имеется в (5.130). По аналогии со случаями линейной регрессии (разд.5.8-5.10) потребуем, чтобы число измерений составляло r ≥ ω+1, где ω соответствует размерности z в уравнении (5.131), что облегчает определение αi в уравнении (5.133). 5.12.2.Представление с помощью ортогональных полиномов
Из множества полиномиальных выражений, используемых для аппроксимации нелинейных процессов, особого внимания заслуживают ортогональные полиномы. Эти полиномы обладают рядом свойств, некоторые из которых обсуждаются ниже. 1. Благодаря свойству ортогональности, вычисление коэффициентов полиномиального уравнения, аппроксимирующего нелинейный процесс, осуществляется быстрее, чем для неортогональных полиномов. 2. Коэффициенты полиномиального аппроксимирующего уравнения не зависят от порядка исходного полиномиального уравнения; следовательно, при отсутствии априорной информации о порядке полинома, можно проверить несколько порядков, причем все коэффициенты, полученные при низшем порядке, остаются действительными и для высшего. Это свойство наиболее важно при выборе наилучшего порядка аппроксимирующего полинома. Чтобы проиллюстрировать метод идентификации нелинейных процессов с помощью аппроксимирующих ортогональных полиномов, рассмотрим следующее аппроксимирующее уравнение относительно y$ и x для одномерной системы: y$ ( x ) = b0 F0 ( x ) + b1 F1 ( x ) +K+bm Fm ( x ) . (5.134) Здесь x, y$ обозначают входную и оцениваемую выходную переменные нелинейного процесса соответственно. В данном случае Fv(x) обозначает ортогональный полином порядка v (v = 1, ...., m), обладающий свойством ортогональности, т.е.
110
r
∑ Fμ ( x ) F i =0
i
V
( xi ) = 0,
∀μ ≠ v
(5.135)
∀μ ≠ v ,
(5.136)
или в обобщенном виде b
∫ ω ( x) Fμ ( x) F ( x)dx = 0, v
a
где μ,v - неотрицательные целые числа, а r - число измерений. Для идентификации коэффициентов bj, в уравнении (5.134) потребуем, чтобы r ≥ m+1. При аппроксимации с помощью ортогональных полиномов наиболее целесообразно использовать полиномы Чебышева. Полиномы Чебышева записываются в форме Fv (ξ ) = Tv (ξ ) = cos(v ⋅ arccos(ξ )) , − 1 ≤ ξ ≤ 1 (5.137) и обладают следующими взвешенными свойствами ортогональности:
⎧0 Tμ (ξ ) Tv (ξ ) ⎪⎪ π ∫ 1− ξ2 = ⎨2 −1 ⎪ ⎩⎪π 1
при μ ≠ v, при μ = v ≠ 0,
(5.138)
при μ = v = 0,
где 1 − ξ 2 - весовой коэффициент ω(ξ) из уравнения (5.136). Несколько полиномов Чебышева низкого порядка приведено ниже: ⎫ T0 (ξ ) = 1; ⎪ T1 (ξ ) = ξ ; ⎪ 2 ⎪ T2 (ξ ) = 2ξ − 1; ⎪⎪ T3 (ξ ) = 4ξ 3 − 3ξ ; (5.139) ⎬ ⎪ T4 (ξ ) = 8ξ 4 − 8ξ 2 + 1; ⎪ 5 3 ⎪ T5 (ξ ) = 16ξ − 20ξ + 5ξ ; ⎪ T6 (ξ ) = 32ξ 6 − 48ξ 4 + 18ξ 2 − 1.⎪⎭ Независимая переменная [x в уравнении (5.134)] обычно должна быть преобразована так, чтобы она удовлетворяла требованиям к области изменения ξ в уравнении (5.137). При известном Tv(ξ) значение Tv+1(ξ) может быть определено из соотношения Tv +1 (ξ ) = 2ξTv (ξ ) − Tv −1 (ξ ) , (5.140) что следует из определения Tv(ξ) в уравнении (5.137). Аппроксимационный полином Чебышева для y$ , составленный по методу наименьших квадратов для выходной переменной y, получают на основе минимизации S, где 2 1 m ⎡ ⎤ S = ∫ ω (ξ ) ⎢ y (ξ ) − ∑ bi Ti (ξ ) ⎥ dξ , (5.141) i =0 ⎣ ⎦ −1 что дает
111
⎧ 1 1 y (ξ ) ∫−1ω (ξ ) y(ξ )Tk (ξ )dξ ⎪⎪π −∫1 1 − ξ 2 dξ bk = 1 =⎨ 1 2 y (ξ )T (ξ ) 2 ∫−1ω (ξ )Tk (ξ )dξ ⎪⎪π ∫ 1 − kξ 2 dξ ⎩ −1 1
при k = 0, (5.142) при k ≠ 0,
так что m
y$ (ξ ) = ∑ bk Tk (ξ ) .
(5.143)
k =0
Относительно простые алгоритмы для вычисления bk получаются благодаря свойству ортогональности. Видно, что bk в уравнении (5.142) не зависит от выбора m. Следовательно, изменение m не требует пересчета bj для j ≤ m, тогда как этот пересчет при неортогональной аппроксимации необходим, что влечет за собой существенные затраты времени. Кроме того, при ⎡ (2i + 1)π ⎤ , i = 0,1, ... , n-1, (5.144) ξi = cos⎢ ⎣ 2n ⎥⎦ полиномы Чебышева обладают следующим свойством дискретной ортогональности для μ, v
m ⎤ ⎡ S = ∑ ⎢ y (ξ j ) − ∑ bk Tk (ξ j ) ⎥ , j =0 ⎣ k =0 ⎦ n −1
(5.146)
что дает b0 =
1 n −1 ∑ y(ξ j ) , n j =0
(5.147)
2 n −1 (5.148) ∑ y(ξ j )Tk (ξ j ) . n j =0 Таким способом эти коэффициенты вычисляются гораздо проще, чем по уравнению (5.142), хотя при этом требуется знать y(ξi) при ξi, определяемых из уравнения (5.144). bk =
5.13. Идентификация нелинейных функций априорно известного вида
Во многих случаях, имеется нелинейная аналитическая модель, полученная на основе теоретических соображений, и требуется провести идентификацию ее
112
параметров. В таких случаях регрессионный анализ можно применить следующим образом. Рассмотрим процесс, описываемый выражением x12 a4 x4 − a3 3 y = a 0 + a 1 x1 x 2 + a 2 x 2 l x 3 + . (5.149) 1 − a5 x52 Для идентификации этого процесса введем сначала следующие новые переменные: ϕ1 = x1 x 23 , ϕ3 = x 2 , ϕ5 = x5 ,⎫ ⎪ (5.150) x12 ⎬ ϕ2 = ,ϕ4 = x4 . ⎪ x3 ⎭ В итоге получаем a 4ϕ 4 −a ϕ y = a 0 + a1ϕ1 + a 2ϕ 3 l 3 2 + . (5.151) 1 − a 5ϕ52 Линеаризуем теперь уравнение (5.151) в предположении, что приращения его переменных малы (см. приложение 1): −a ϕ −a ϕ Δy = a1 Δϕ1 − a 2 a 3ϕ 3 l 3 2 Δϕ 2 + a 2 l 3 2 Δϕ 3 + +
Вводя обозначения
a4
1 − a5ϕ52
Δϕ 4 +
a 4 a 5ϕ 4ϕ5
(1 − a5ϕ52 ) 3
(5.152)
Δϕ 5 .
b1 = a1 ,
(5.153)
b2 = − a 2 a 3ϕ 3 l
− a3ϕ 2
,
(5.154)
− a3ϕ 2
b3 = a 2 l , a4 b4 = , 1 − a5ϕ52 a 4 a5ϕ4ϕ5 b5 = , 2 3 (1 − a5ϕ5 )
(5.155) (5.156) (5.157)
получим 5
Δy = b1 Δϕ1 + b2 Δϕ2 + b3 Δϕ3 + b4 Δϕ4 + b5 Δϕ5 = ∑ b j Δϕ j .
(5.158)
j =1
Очевидно, b1, b2, ..., b5 могут быть идентифицированы методом линейной регрессии, как и в разделе 5.8. Из (5.157) имеем a4 a5ϕ4ϕ5 b5 = ⋅ (5.159) 2 . 1 − a5ϕ52 1 − a5ϕ5 Соотношение (5.159) с учетом (5.156) примет вид aϕϕ b5 = b4 ⋅ 5 4 52 1 − a5ϕ5 или b5 a5 = . b4ϕ 4ϕ5 + b5ϕ52
(5.160)
113
Из формулы (5.160) можно определить a5, поскольку ϕ4 и ϕ5 доступны для измерения. Подставляя (5.160) в формулы (5.156) получаем a4. Член a1 непосредственно определяется величиной b1 согласно соотношению (5.153). Члены a2, a3 можно найти из выражений (5.154), (5.155). Имеем b2= - a3ϕ3b3. (5.161) Из (5.161) определяем a3, так как переменная ϕ3 доступна для измерения. Наконец, a2 определяем подстановкой a3 в выражение (5.155). По аналогии с описанной выше методикой идентификации процесса (5.149) может быть идентифицировано много других видов нелинейных зависимостей. 5.14. Линейные регрессии и метод наименьших квадратов
Запишем модель для описания линейной стационарной системы. Модель системы представляет собой описание (некоторых из) ее свойств, предназначенное для достижения некоторой цели. Задание системы с помощью конечного набора численных характеристик или коэффициентов наиболее важно в плане идентификации модели системы. Достаточно часто определить эти коэффициенты априори из знания физической природы системы не удается. Вместо этого для определения всех коэффициентов (или некоторой их части) приходится прибегать к процедурам оценивания. Это означает, что рассматриваемые коэффициенты входят в модель системы как определяемые параметры. Будем обозначать эти параметры вектором θ. Наиболее простое входо-выходное соответствие описывается линейным разностным уравнением y (t ) + a1 y (t − 1) +K+ a na y (t − na ) = b1u(t − 1) +K+bnb u(t − nb ) + e(t ) , (5.162) где u(t) - сигнал на входе системы; y(t) - сигнал на выходе системы; e(t)- помеха типа белого шума. Поскольку в уравнение (5.162) белый шум e(t) входит как его непосредственная ошибка, модель (5.162) часто называют моделью (структурой модели) ошибки уравнения. В этом случае имеется следующий набор настраиваемых параметров:
[
θ = a1 , a 2 ,K a n , b1 , b2 ,Kbn a
b
]. T
(5.163)
Введем многочлены A(q ) = 1 + a1q −1 +K+ a na q − na , B(q ) = b1q −1 +K+bnb q − nb .
Тогда уравнение (5.162) запишется в виде y ( t ) = G ( q , θ ) u ( t ) + H ( q , θ ) e( t ) , (5.164) где B (q ) 1 G (q ,θ ) = , H (q ,θ ) = . (5.165) A(q ) A(q ) Будем называть модель (5.162) ARX - моделью, где сочетание AR относится к авторегрессионной части A(q)y(t), а символ X обозначает дополнительный входной сигнал B(q)u(t). Другими словами, ARX есть авторегрессия с внешним входным сигналом. Диаграмма сигнальных потоков может быть представлена схемой рис.5.7.
114
e 1 A
u
y B A Рис. 5.7. Одношаговый прогноз для описания (5.164) определяется соотношением [14 ] ⎛t⎞ y$ ⎜ ⎟ = H −1 (q ,θ )G (q ,θ )u(t ) + [1 − H −1 (q ,θ )] y (t ) . (5.166) ⎝θ ⎠ Рассчитаем предсказатель для модели (5.162). Подстановка (5.165) в (5.166) дает: ⎛t⎞ (5.167) y$ ⎜ ⎟ = B(q )u(t ) + [1 − A(q )] y (t ) . ⎝θ ⎠ Введем вектор ϕ (t ) = [ − y (t − 1),K ,− y (t − na ), u(t − 1),K , u(t − nb )]T . (5.168) Тогда (5.167) можно переписать в виде ⎛t⎞ y$ ⎜ ⎟ = θ T ϕ (t ) = ϕ T (t )θ . (5.169) ⎝θ ⎠ Предсказатель представляет собой скалярное произведение известного вектора данных ϕ(t) и вектора параметров θ. В статистике такую модель называют линейной регрессией, а вектор ϕ(t) - регрессионным вектором. В том случае, когда некоторые из коэффициентов многочленов A и B известны, мы приходим к линейной регрессии вида ⎛t⎞ (5.170) y$ ⎜ ⎟ = ϕ T (t )θ + μ (t ) , ⎝θ ⎠ где член μ(t) известен. Далее для простоты обозначений, полагаем μ(t) = 0, что совершенно допустимо. С учетом (5.170) ошибка предсказания принимает вид ε (t ,θ ) = y (t ) − ϕ T (t )θ . (5.171) Критерий наименьших квадратов для линейной регрессии (5.170) имеет вид: 1 N 1 VN (θ , Z N ) = ∑ [ y (t ) − ϕ T (t )θ ]2 , (5.172) N t =1 2 где zN = (y(1), u(1), y(2), u(2), ..., y(N),u(N)). (5.173) Оценка θ$NLS вектора параметров θ по методу наименьших квадратов имеет вид: −1
⎤ ⎡1 N 1 N LS N T $ θ N = arg minV N (θ , Z ) = ⎢ ∑ ϕ (t )ϕ (t ) ⎥ ⋅ ∑ ϕ (t ) y (t ) , (5.174) N t =1 ⎦ ⎣ N t =1 где argmin f(x)- значение x, минимизирующее функцию f(x). Следовательно, argmin VN(θ,ZN) есть значение вектора θ, минимизирующее функцию VN(θ,ZN).
115
5.15. Взвешенный метод наименьших квадратов
В критерии наименьших квадратов (5.172) различным измерениям могут быть назначены различные веса: 1 N V N (θ , Z N ) = ∑ α t [ y (t ) − ϕ T (t )θ ]2 (5.175) N t =1 или N
V N (θ , Z N ) = ∑ β ( N , t )[ y (t ) − ϕ T (t )θ ]2 ,
(5.176)
t =1
где β(N, t)- весовая функция, зависящая от N. Здесь N - аргумент весовой функции β(N, t). Оценка θ$NLS вектора параметров θ в этом случае принимает вид −1
N ⎤ ⎡N θ$NLS = ⎢∑ β ( N , t )ϕ (t )ϕ T (t ) ⎥ ⋅ ∑ β ( N , t )ϕ (t ) y (t ) . ⎦ t =1 ⎣ t =1
(5.177)
5.16. Многомерный случай метода наименьших квадратов
Если выходная переменная y(t) является p-мерным вектором, то критерий наименьших квадратов принимает вид 1 V N (θ , Z ) = N N
N
1
∑ 2 [ y (t ) − ϕ
T
(t )θ ]T ∧ −1 [ y (t ) − ϕ T (t )θ ] ,
(5.178)
t =1
где ∧ - симметричная положительно полуопределенная матрица размера (pxp), которая устанавливает веса относительной важности компонент вектора ε (t ,θ ) = y (t ) − ϕ T (t )θ . Оценка θ$ LS вектора параметров θ в этом случае принимает вид N
⎡1 θ$NLS = ⎢ ⎣N
−1
⎤ 1 ϕ (t ) ∧ ϕ (t ) ⎥ ⋅ ∑ N t =1 ⎦ N
−1
T
N
∑ ϕ (t ) ∧
−1
y (t ) .
(5.179)
t =1
5.17. Рекуррентный алгоритм наименьших квадратов
В разделе (5.15) вычислялась оценка, минимизирующая взвешенный критерий наименьших квадратов. t
θ$t = arg min ∑ β (t , k )[ y ( k ) − ϕ T ( k )θ ]2 . θ
(5.180)
k =1
Она задается соотношением (5.177): θ$t = R −1 (t ) f (t ) ,
(5.181)
116
t
R (t ) = ∑ β (t , k )ϕ ( k )ϕ T ( k ) ,
(5.182)
f (t ) = ∑ β (t , k )ϕ ( k ) y( k ) .
(5.183)
k =1 t
k =1
Чтобы произвести вычисления по формулам (5.181)-(5.183), следовало бы в момент времени t образовать матрицу R (t ) и вектор f(t) по данным t Z = [ y (1), u(1), y (2), u(2),K , y (t )u(t )] и затем найти θ$ по формуле (5.181). Из соотt
ношений (5.181)-(5.183) ясно, что θ$t и θ$t −1 взаимосвязаны. Попытаемся использовать эту взаимосвязь. Допустим, что последовательность весов имеет следующие свойства: β(t,k) = λ(t)β(t-1,k), 1 ≤ k ≤ t-1, β(t,t) = 1. (5.184) Это означает, что можно записать t
β (t , k ) = ∏ λ ( j ) .
(5.185)
k +1
Заметим, однако, что при этом R (t ) = λ (t ) R (t − 1) + ϕ (t )ϕ T ( t ) , (5.186) f (t ) = λ (t ) f (t − 1) + ϕ (t ) y (t ) . (5.187) Отсюда θ$t = R −1 (t ) f (t ) = R −1 (t )[λ (t ) f (t − 1) + ϕ (t ) y (t )] = R −1 (t )[ λ (t ) R (t − 1)θ$t −1 + ϕ (t ) y (t )] = = R −1 (t )[ R (t ) − ϕ (t )ϕ T (t )]θ$ + ϕ (t ) y (t ) = θ$ + R −1 (t )ϕ (t )[ y (t ) − ϕ T (t )θ$ ]. t −1
t −1
t −1
Имеем
θ$t = θ$t −1 + R −1 (t )ϕ (t )[ y (t ) − ϕ T (t )θ$t −1 ] , R (t ) = λ (t ) R (t − 1) + ϕ (t )ϕ T ( t ) ,
(5.188) (5.189) что и представляет собой рекуррентный алгоритм наименьших квадратов. Этот алгоритм удовлетворяет требованию: в момент времени t-1 запоминается только конечномерный информационный вектор x (t − 1) = [θ$t −1 , R (t − 1)] . 5.18. Вариант алгоритма с рекуррентным обращением матрицы
Чтобы избежать обращения матрицы R (t ) на каждом шаге, удобно ввести P ( t ) = R −1 ( t ) и применить к (5.189) лемму об обращении матриц (5.190) [ A + BCD] −1 = A −1 − A −1 B[ DA −1 B + C −1 ]DA −1 . Выбирая A = λ (t ) R (t − 1) , B = D T = ϕ (t ) и С = 1, получим P(t − 1)ϕ (t )ϕ T (t ) P(t − 1) P(t − 1) − λ (t ) + ϕ T (t ) P(t − 1)ϕ (t ) P(t ) = . λ (t ) Более того, имеем
(5.191)
117
1 1 P(t − 1)ϕ (t )ϕ T (t ) P(t − 1)ϕ (t ) R (t )ϕ (t ) = P(t − 1)ϕ (t ) − ⋅ = λ (t ) λ (t ) λ (t ) + ϕ T (t ) P(t − 1)ϕ (t ) P(t − 1)ϕ (t ) = . λ (t ) + ϕ T (t ) P(t − 1)ϕ (t ) −1
Таким образом, приходим к следующему варианту алгоритма:
θ$(t ) = θ$(t − 1) + L(t )[ y (t ) − ϕ T (t )θ$(t − 1)] , P(t − 1)ϕ (t ) L( t ) = , λ (t ) + ϕ T (t ) P(t − 1)ϕ (t )
(5.192) (5.193)
⎡ P(t − 1)ϕ (t )ϕ T (t ) P(t − 1) ⎤ P ( t ) − − 1 ⎢ λ (t ) + ϕ T (t ) P(t − 1)ϕ (t ) ⎥⎦ ⎣ P(t ) = . (5.194) λ (t ) Здесь мы перешли к обозначению θ$(t ) вместо θ$t , чтобы подчеркнуть определенное их различие из-за влияния начальных условий. Рассмотрим теперь многомерный случай взвешенных наименьших квадратов 1 t θ$t = arg min ∑ β (t , k )[ y ( k ) − ϕ T ( k )θ ]T ∧ −k 1 [ y ( k ) − ϕ T ( k )θ ] , (5.195) 2 k =1 θ где β(t, k) удовлетворяет (5.184). Проводя вычисления, полностью аналогичные сделанным ранее, получаем многомерный вариант соотношений (5.192)-(5.194) θ$(t ) = θ$(t − 1) + L(t )[ y (t ) − ϕ T (t )θ$(t − 1)] , (5.196)
[
P(t ) =
L(t ) = P(t − 1)ϕ (t ) λ ( t ) ∧ t +ϕ T ( t ) P( t − 1)ϕ ( t )
]
1
]
λ (t )
{ P(t − 1) − P(t − 1)ϕ (t )[λ (t ) ∧
t
+ϕ T (t ) P(t − 1)ϕ (t )
−1 −1
,
(5.197)
}
ϕ T (t ) P(t − 1) .
(5.198)
5.19. Метод инструментальных переменных 5.19.1.Инструментальные переменные
Предположим, что данные в действительности описываются соотношением y (t ) = ϕ T (t )θ0 + v 0 (t ) (5.199) для некоторой последовательности {v0(t)} случайных величин. Можно мыслить θ0 как «истинное значение» вектора параметров. В типичных случаях оценка МНК θ$N не будет стремиться к θ0 из-за корре-
118
ляции между v0(t) и ϕ(t). Попробуем тогда применить общий корреляционный вектор ξ(t) к линейной регрессии. Будем называть такое применение методом инструментальных переменных. Компоненты вектора ξ называют при этом инструментальными переменными. Отсюда −1
⎡1 N ⎤ 1 N IV T $ θ N = ⎢ ∑ ξ (t )ϕ (t ) ⎥ ⋅ ∑ ξ (t ) y (t ) (5.200) N t =1 ⎣ N t =1 ⎦ при условии, что указанные обратные матрицы существуют. Для успешного применения (5.200) к системе (5.199) нужно потребовать выполнения следующих свойств инструментальной переменной ξ: E[ξ (t )ϕ T (t )] - невырожденная матрица, (5.201) E[ξ (t )v 0 (t )] = 0 , (5.202) где E[x] - математическое ожидание случайного вектора x. Другими словами, инструментальные переменные должны коррелировать с регрессионными переменными, но не должны коррелировать с шумом v0(t).
5.19.2.Выбор инструментальных переменных
Предположим, что линейная регрессионная модель является ARXмоделью: y (t ) + a1 y (t − 1) +K+ a na y (t − na ) = b1u(t − 1) +K+bnb u(t − nb ) + v (t ) . (5.203) Допустим также, что истинное описание (5.199) соответствует (5.203) с «нулевыми» индексами у коэффициентов. Естественная идея состоит в генерации инструментальных переменных аналогично (5.203) так, чтобы обеспечить (5.201), но в тоже время не позволить им быть зависимыми с {v0(t)}. Это приводит к
ξ (t ) = K (q )[ − x (t − 1) − x (t − 2)K− x (t − na )u(t − 1)K u(t − nb )] , (5.204) T
где K - линейный фильтр, а x(t) порождается входной последовательностью, пропущенной через линейную систему: N(q)x(t) = M(q)u(t) . (5.205) Здесь N (q ) = 1 + n1q −1 +K+ nnn q − nn , (5.206) M (q ) = m0 + m1q −1 +K+ mnm q − nm . Большинство используемых на практике инструментальных переменных формируются таким способом. 5.19.3.Рекуррентный метод инструментальных переменных
Оценка для фиксированных (не зависящих от модели) инструментальных переменных определяется выражением (5.200). Вводя веса аналогично (5.181)(5.183), получим θ$t IV = R −1 (t ) f (t ) , (5.207) где
119
t
R (t ) = ∑ β (t , k )ξ ( k )ϕ T ( k ), k =1
(5.208)
t
f (t ) = ∑ β (t , k )ξ ( k ) y ( k ). k =1
Эти соотношения тесно связаны с (5.181)-(5.183), поэтому рекуррентное вычисление θ$t IV полностью аналогично вычислению θ$t LS . Вместо (5.192)-(5.194) получаем θ$(t ) = θ$(t − 1) + L(t ) y (t ) − ϕ T (t )θ$(t − 1) , (5.209)
[
L( t ) =
P(t − 1)ξ (t ) , λ (t ) + ϕ T (t ) P(t − 1)ξ (t )
]
⎡ P(t − 1)ξ (t )ϕ T (t ) P(t − 1) ⎤ ⎢ P(t − 1) − λ (t ) + ϕ T (t ) P(t − 1)ξ (t ) ⎥⎦ ⎣ P(t ) = . λ (t )
(5.210)
(5.211)
Библиографический список
1. Качмаж С., Штейнгауз Г. Теория ортогональных рядов. –М.: Физматгиз,1958. 2. Трахтман А.М. Введение в обобщенную спектральную теорию сигналов. –М.: Совет. радио, 1972. 3. Проектирование специализированных информационно-вычислительных систем / Под ред. Ю.М.Смирнова. –М.: Высшая школа, 1984. 4. Голд Б., Рейдер Ч.. Цифровая обработка сигналов. –М.: Совет. радио, 1973.
120
5. Залманзон Л.А.. Преобразование Фурье, Уолша, Хаара и их применение в управлении, связи и других областях. –М.: Наука, 1989. 6. Брайсон А., Хо Ю-ши. Прикладная теория оптимального управления. –М.: Мир, 1972. 7. Медич Дж. Линейные оптимальные оценки и управление. -М.: Мир, 1970. 8. Сейдж Э.П., Мелса Д.Д. Теория оценивания. –М.: Связь, 1976. 9. Ли Э.Б., Маркус Л. Основы теории оптимального управления. –М.: Наука, 1972. 10. Рей У. Методы управления технологическими процессами. –М.: Мир, 1983. 11. Александров А.Г. Оптимальные и адаптивные системы. –М.: Высшая школа, 1989. 12. Райбман Н.С., Чадеев В.М. Построение моделей процессов производства. –М.: Энергия, 1975. 13. Бессонов А.А., Загашвили Ю.В., Маркелов А.С. Методы и средства идентификации динамических объектов. –Л.: Энергоатомиздат, 1989. 14. Льюнг Л. Идентификация систем. Теория для пользователя. –М.: Наука, 1991. 15. Гроп Д. Методы идентификации систем. –М.: Мир, 1979. 16. Сейдж Э.П., Уайт Ч.С. Оптимальное управление системами. –М.: Радио и связь, 1982. 17. Эйкхофф П. Основы идентификации систем управления. –М.: Мир, 1975. 18. Стефани Е.П. Основы построения АСУТП. –М.: Энергоиздат, 1982. 19. Бородюк В.П., Лецкий Э.К. Статистическое описание промышленных объектов. –М.: Энергия, 1971. 20. Вальков В.М., Вершин В.Е. Автоматизированные системы управления технологическими процессами. –Л.: Политехника, 1991.
ПРИЛОЖЕНИЕ 1 ЛИНЕАРИЗАЦИЯ НЕЛИНЕЙНЫХ ПРОЦЕССОВ Нелинейный процесс можно линеаризовать относительно некоторого рабочего состояния, если на вход подать небольшие возмущения. На вход такой линеаризованной системы можно подавать сигналы идентификации (синусоидальные, ступенчатые или импульсные), если входные сигналы поддерживаются достаточ-
121
но малыми. Линеаризованные характеристики нелинейного процесса при малых возмущениях получаются следующим образом. Рассмотрим нелинейный процесс x& = f (x, u ),
(п.1.1)
где ƒ – (n,1) – мерная вектор-функция x, u, а x, u – (n,1) – мерный вектор состояния и (m,1) – мерный вектор управления соответственно. Если предположить, что векторам x, u даны малые приращения, то получим x& + δx& = f (x + δx, u + δu ).
(п.1.2)
Вычитая уравнение (п.1.1) из (п.1.2), имеем
δx& = f (x + δx, u + δu ) − f (x, u ) = ⎡ ∂f T ⎤ ⎡ ∂f T ⎤ δx + ⎢ δu, =⎢ ⎥ ⎥ ⎣ ∂ x ⎦ x ,u ⎣ ∂ u ⎦ x ,u 0
0
0
(п.1.3)
0
где […] x0 ,u 0 обозначает […] в окрестности x0,u0 , а Т - знак транспонирования. Определим ⎡ ∂f1 ∂f 2 ⎢ ∂x ∂x L 1 ⎢ 1 f ∂ ∂f ⎢ 1 L AT = = ⎢ ∂x ∂x ⎢ 2 M ⎢ ∂ ⎢ f1 L ⎣⎢ ∂xn как (n,n)-мерную матрицу и ⎡ ∂ f1 L ⎢ ∂x 1 ∂f ⎢ = ⎢ M BT = ∂x ⎢ ∂ f1 ⎢ ∂x ⎣ m
∂f n ⎤ ∂x1 ⎥ ⎥ M ⎥ ⎥ M ⎥ ⎥ ∂f n ⎥ ∂xn ⎦⎥ ∂f n ∂ x1 M ∂f n ∂xm
(п.1.4)
⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦
( п.1.5)
как (n,m)-мерную матрицу. Тогда из уравнения (п.1.3) следует линеаризованное уравнение при малых возмущениях: δx& = Aδx + Bδu . (п.1.6) Пример. Рассмотрим нелинейный процесс x&1 = 2 x1 + 3x1u , x& 2 = x1 x 2 + u 3 . При малых возмущениях этот процесс можно описать следующим образом, используя обычные правила нахождения скалярной частной производной:
122
δx&1 = (2 x1, 0 + 3u 0 )δx1 + 3x1,0 δu , δx& 2 = x 2,0 δx1 + x1,0 δx 2 + 3u 02 δu , или в векторной форме ⎡2 x1, 0 + 3u 0 x 2, 0 ⎣
δx& = ⎢
0 ⎤ ⎡3 x ⎤ δx + ⎢ 1,20 ⎥δu = ⎥ x1, 0 ⎦ ⎣ 3u 0 ⎦
= Aδx + Bδu .
Видно, что функция f исходной системы определяется выражением ⎡ f ⎤ ⎡2 x + 3 x1u ⎤ . f = ⎢ 1⎥ = ⎢ 1 3 ⎥ ⎣ f 2 ⎦ ⎣ x1 x 2 + u ⎦ Следовательно, ⎡ ∂f 1 ⎢ ∂x ⎡ ∂f ⎤ ⎢ 1 = ⎢ ∂x ⎥ ⎣ ⎦ ⎢ ∂f 2 ⎢⎣ ∂x1
∂f 1 ⎤ ∂x 2 ⎥ ⎡2 x1 + 3u ⎥= ∂f 2 ⎥ ⎢⎣ x 2 ∂x 2 ⎥⎦
T
0⎤ = A, x1 ⎥⎦
⎡ ∂f 1 ⎤ ⎢ ∂x ⎥ ⎡ 3 x1 ⎤ ⎡ ∂f ⎤ ⎢ u ⎥ = ⎢ 2 ⎥ = B. = ⎢ ∂u ⎥ ⎢ ∂ f 2 ⎥ ⎣ 3u ⎦ ⎦ ⎣ ⎢⎣ ∂ x u ⎥⎦ Таким образом, получаем матрицы А, В такие же, как и матрицы, вычисляемые путем соответствующего скалярного дифференцирования уравнения нелинейного процесса. T
123